You are on page 1of 114

PAOLO DULIO WALTER PACCO

APPUNTI DI ALGEBRA LINEARE

APPLICAZIONI LINEARI
TEORIA ED ESERCIZI SVOLTI

Indice
1 APPLICAZIONI LINEARI
` . . . . . . . . . . . . . .
1.1 DEFINIZIONI E PRIME PROPRIETA
1.1.1 Nucleo ed immagine . . . . . . . . . . . . . . . . . . . . .
1.1.2 Composizione di applicazioni lineari . . . . . . . . . . . .
1.1.3 Teorema fondamentale delle applicazioni lineari . . . . . .
1.1.4 Spazi isomorfi . . . . . . . . . . . . . . . . . . . . . . . . .
Isomorfismo canonico . . . . . . . . . . . . . . . . . . . .
1.2 MATRICI ASSOCIATE . . . . . . . . . . . . . . . . . . . . . . .
1.2.1 Il Teorema dimensionale . . . . . . . . . . . . . . . . . . .
1.2.2 Matrici associate alla composizione di applicazioni lineari
1.2.3 Rappresentazione canonica indotta . . . . . . . . . . . . .
1.2.4 Cambi di base . . . . . . . . . . . . . . . . . . . . . . . .
1.3 ESERCIZI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
`
2 SIMILITUDINE E DIAGONALIZZABILITA
2.1 SIMILITUDINE . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . .
2.2 DIAGONALIZZABILITA
2.2.1 Definizioni e prime propriet`a . . . . . . . . . . . .
2.2.2 Alcune propriet`a del Polinomio caratteristico . . .
2.3 AUTOVALORI ED AUTOVETTORI . . . . . . . . . . .
2.3.1 Calcolo degli autovalori . . . . . . . . . . . . . . .
2.3.2 Autospazi di un endomorfismo . . . . . . . . . . .
2.3.3 Molteplicit`a algebrica e molteplicit`a geometrica . .
2.4 ENDOMORFISMI SIMMETRICI . . . . . . . . . . . . .
2.4.1 Il Teorema Spettrale nel piano . . . . . . . . . . .
2.4.2 Classificazione delle matrici ortogonali di ordine 2
Significato geometrico . . . . . . . . . . . . . . . .
2.4.3 Endomorfismi simmetrici in dimensione superiore .
Generalizzazione del prodotto scalare. . . . . . . .
Generalizzazione delle matrici ortogonali. . . . . .
2.4.4 Ortonormalizzazione di Gram-Schmidt . . . . . . .
Il Teorema Spettrale generalizzato. . . . . . . . . .
2.4.5 Matrici di proiezione . . . . . . . . . . . . . . . . .
2.5 Lo studio della similitudine . . . . . . . . . . . . . . . . .
2.6 ESERCIZI . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

5
5
7
9
11
12
13
15
16
19
20
22
24

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

29
29
31
31
32
34
36
38
40
44
47
50
51
52
53
54
55
57
62
64
66

INDICE
3 SOLUZIONI DEGLI ESERCIZI
73
3.1 ESERCIZI CAPITOLO 1 - SOLUZIONI . . . . . . . . . . . . . . . . . . . 73
3.2 ESERCIZI CAPITOLO 2 - SOLUZIONI . . . . . . . . . . . . . . . . . . . 92

Capitolo 1

APPLICAZIONI LINEARI
Lo studio degli spazi vettoriali si amplia in maniera naturale quando vengono considerate
le applicazioni lineari. Esse sono particolari funzioni, definite tra due spazi vettoriali, la
cui importanza `e quella di conservare le operazioni tipiche presenti in queste strutture.

1.1

`
DEFINIZIONI E PRIME PROPRIETA

Siano V e W due spazi vettoriali qualsiasi, definiti sullo stesso campo K. Una funzione
f : V W `e unapplicazione lineare se e solo f verifica le seguenti propriet`a.
(i) Per ogni u, v V: f (u + v) = f (u) + f (v).
(ii) Per ogni a K e per ogni u V: f (au) = af (u).
Pertanto una applicazione lineare conserva le operazioni di somma di vettori e di
prodotto tra uno scalare ed un vettore.
Teorema 1.1. Le condizioni (i) e (ii) che definiscono una applicazione lineare sono
equivalenti allunica condizione
(i0 ) Per ogni a, b K e per ogni u, v V: f (au + bv) = af (u) + bf (v).
-Dimostrazione.

Se valgono (i) e (ii), si ha


(1 )

(2 )

f (au + bv) = f (au) + f (bv) = af (u) + bf (v).


Luguaglianza (1 ) deriva dalla propriet`a (i) e luguaglianza (2 ) dalla (ii). Viceversa, se
vale la (i0 ), automaticamente `e vera pure la (i), ponendo a = b = 1 e la (ii), ponendo
b = 0.

Unapplicazione lineare f : V W viene anche chiamata omomorfismo di spazi


vettoriali, di dominio V e codominio W. Linsieme di tali omomorfismi `e indicato con
Hom(V, W).
Osservazioni ed esempi.
1. Il campo K che viene utilizzato nella costruzione di uno spazio vettoriale viene anche
detto campo base dello spazio.

APPLICAZIONI LINEARI
2. La propriet`a (ii) giustifica il fatto che gli spazi V e W debbano necessariamente
essere definiti sullo stesso campo K. Altrimenti loperazione di prodotto per uno
scalare al secondo membro della (ii) non sarebbe nemmeno definita.
3. Prescindendo dalla struttura di spazio vettoriale, possiamo considerare una applicazione lineare semplicemente come funzione tra due insiemi. Allora possiamo trasferire ad una applicazione lineare f : V W, senza alterarle, alcune definizioni valide
per generiche funzioni tra insiemi. Per esempio, f `e una applicazione lineare iniettiva se f (v) = f (v0 ) implica v = v0 . Invece f `e una applicazione lineare suriettiva
se per ogni w W esiste v V tale che f (v) = w. Si ha una applicazione lineare
biunivoca quando `e contemporaneamente iniettiva e suriettiva.
4. Applicazioni lineari invertibili, ovvero contemporaneamente iniettive e suriettive, si
chiamano isomorfismi, e il loro insieme viene indicato da Iso(V, W). Nel caso in
cui dominio e codominio coincidano, gli omomorfismi prendono il nome di endomorfismi e gli isomorfismi quello di automorfismi. I loro insiemi sono individuati,
rispettivamente, dai simboli End(V) e Aut(V).
5. Studiamo la linearit`a dellapplicazione:
f:

R2 R2
[x, y]t 7 [x y, x + y]t .

Dobbiamo verificare se f conserva la somma di vettori e il prodotto tra un vettore ed


uno scalare del campo base R. Consideriamo u, v R2 , con u = [a, b]t e v = [a0 , b0 ]t
e h, k R. Per il Teorema 1.1 basta verificare che
f (hu + kv) = hf (u) + kf (v).
Poiche hu + kv = h[a, b]t + k[a0 , b0 ]t = [ha + ka0 , hb + kb0 ]t , abbiamo:
def

f (hu + kv) = f ([ha + ka0 , hb + kb0 ]t ) =

= [(ha + ka0 ) (hb + kb0 ), (ha + ka0 ) + (hb + kb0 )]t =


= [h(a b) + k(a0 b0 ), h(a + b) + k(a0 + b0 )]t =
= [h(a b), h(a + b)]t + [k(a0 b0 ), k(a0 + b0 )]t =
= h[a b, a + b]t + k[a0 b0 , a0 + b0 ]t = hf ([a, b]t ) + kf ([a0 , b0 ]t ) =
= hf (u) + kf (v)
Quindi f `e lineare.
6. Forme lineari. Sia W uno spazio vettoriale sul campo K. Una forma lineare su
W `e unapplicazione lineare f Hom(W, K), dove il campo K `e visto come spazio
vettoriale su se stesso. Per esempio, `e facile verificare che lapplicazione f : R2 R
definita da:
f : R2 R
x
7 x + y
y

`
1.1 DEFINIZIONI E PRIME PROPRIETA
`e lineare. Infatti, per ogni a, b R e per ogni v = [x, y]t e v0 = [x0 , y 0 ]t in R2 si ha:


0
x
x
a
+b
=
y
y0

ax + bx0
=f
=
ay + by 0

f (av + bv0 ) = f

= ax + bx0 + ay + by 0 = a(x + y) + b(x0 + y 0 ) =



0
x
x
= af
+ bf
=
y
y0
= af (v) + bf (v0 ).

Quindi f `e una forma lineare.


7. Consideriamo lapplicazione det : Mn (K) K, che associa ad ogni matrice di
Mn (K) il proprio determinante1 . In questo caso, pur essendo ancora vero che il
codominio `e il campo base dello spazio vettoriale al dominio, non si ha una forma
lineare, in quanto il determinante, in generale, non conserva il prodotto di un vettore
per uno scalare. Infatti, se a K, con an 6= 1, ed A Mn (K), risulta
det(aA) = an det A 6= a det A.
8. Consideriamo ora un importante esempio di applicazione lineare. Sia A una matrice
ad elementi reali avente m righe ed n colonne. Allora la corrispondenza f : Rn Rm
definita da f (x) = Ax per ogni x Rn `e una applicazione lineare. Infatti, per ogni
coppia di vettori x, y R, e per ogni scelta degli scalari a, b R, sfruttando le
propriet`a delle matrici abbiamo

f (ax + by) = A(ax + by) = A(ax) + A(by) = aAx + bAy = af (x) + bf (y),
e quindi, per il Teorema 1.1, f `e una applicazione lineare.

1.1.1

Nucleo ed immagine

Consideriamo lapplicazione f Hom(V, W). Il nucleo di f , indicato con ker f , `e


linsieme dei vettori di V che hanno come immagine il vettore nullo di W, cio`e
ker f = {v V| f (v) = 0W } .
Limmagine di f , indicata con Imf `e linsieme dei vettori di W che vengono ottenuti
applicando f ai vettori di V, cio`e
1
Indichiamo con Mn (K) linsieme delle matrici quadrate, di ordine n, i cui elementi appartengono al
campo K.

APPLICAZIONI LINEARI

Imf = {w W| v V : f (v) = w} .
Un modo pi`
u compatto per definire i due insiemi `e il seguente. Il nucleo `e linsieme
f 1 (0W ), mentre limmagine `e f (V).
Ovviamente ker f V e Imf W. Il teorema seguente mette in evidenza che nucleo
ed immagine non sono semplici sottoinsiemi, ma hanno una loro propria struttura di spazio
vettoriale2 .
Teorema 1.2. Sia f : V W una applicazione lineare. Allora ker f V, ed Imf W.
-Dimostrazione. Siano u, v ker f . Ci`o significa che f (u) = f (v) = 0. Per ogni a, b
appartenenti al campo base K, abbiamo:
(1 )

f (au + bv) = af (u) + bf (v) = a0 + b0 = 0.


Quindi au + bv ker f , che `e un sottospazio. Luguaglianza (1 ) `e conseguenza della
linearit`a di f .
Allo stesso modo ragioniamo per limmagine. Se w, w0 Imf , esistono almeno due
vettori v, v0 V tali che f (v) = w e f (v0 ) = w0 . Ora, per ogni a, b K:
(2 )

aw + bw0 = af (v) + bf (v0 ) = f (av + bv0 ).


Ma av + bv0 V, quindi aw + bw0 Imf , che `e sottospazio di W. Anche in questo caso
luguaglianza (2 ) `e conseguenza della linearit`a della f .

Liniettivit`a di unapplicazione `e caratterizzata dal seguente risultato.


Teorema 1.3. Sia f Hom(V, W). Condizione necessaria e sufficiente affinche f sia
iniettiva `e che ker f = {0}.
-Dimostrazione. La condizione `e necessaria. Supponiamo che f sia iniettiva. Ogni
vettore di W ammette al pi`
u ununica controimmagine. Se v ker f , allora f (v) = 0.
Ma anche f (0) = 0, cio`e f (v) = f (0). Per lunicit`a della controimmagine, v = 0 e
ker f = {0}.
La condizione `e sufficiente. Supponiamo ker f = {0}. Siano v, v0 V tali che f (v) =
f (v0 ) = w. Abbiamo:
0 = w w = f (v) f (v0 ) = f (v v0 ).
Ci`o significa che v v0 ker f . Ma ker f = {0}, quindi v v0 = 0, cio`e v = v0 . Questo
significa che, se esiste una controimmagine di un vettore di W, questa `e unica, ovvero che
f `e iniettiva.
Osservazioni ed esempi.
1. Possiamo visualizzare qualitativamente lazione di una applicazione lineare f : V
W con il seguente grafico
2
Utiliziamo il simbolo per indicare linclusione insiemistica, mentre la scrittura X V indica che X
`e un sottospazio vettoriale di V.

`
1.1 DEFINIZIONI E PRIME PROPRIETA

f
V

ker f
Im f
0V

0W

Figura 1.1: rappresentazione qualitativa dellazione di una applicazione lineare f : V


W.

2. Applicazioni lineari singolari. Unapplicazione lineare f : V W si dice singolare se il suo nucleo non `e il sottospazio banale di V, cio`e se ker f 6= {0}. In
questo caso esiste almeno un vettore v 6= 0 in V tale che f (v) = 0. Sappiamo che
ker f = 0 `e una condizione necessaria e sufficiente affinche f sia iniettiva. Quindi
unapplicazione singolare non pu`o essere un isomorfismo, non essendo iniettiva.

1.1.2

Composizione di applicazioni lineari

Consideriamo due applicazioni lineari f e g. Se f Hom(U, V) e g Hom(V, W),


cio`e se il codominio di f coincide con il dominio di g, possiamo allora considerare la
composizione g f Hom(U, W) delle due applicazioni lineari.
Teorema 1.4. La composizione di applicazioni lineari `e ancora una applicazione lineare.
-Dimostrazione. Se f Hom(U, V) e g Hom(V, W), per ogni a, b, x, y K e
per ogni u, u0 U e v, v0 V si ha:
f (au + bu0 ) = af (u) + bf (u0 ),

(1.1.1)

g(xv + yv0 ) = xg(v) + yg(v0 ).

(1.1.2)

Allora, per ogni h, k K e per ogni u, u0 U otteniamo:

(1 )
(2 )
(g f )(hu + ku0 ) = g f (hu + ku0 ) = g hf (u) + kf (u0 ) =
= hg(f (u)) + kg(f (u0 )) = h (g f )(u) + k (g f )(u0 ),
dove le uguaglianze (1 ) e (2 ) sono vere, rispettivamente, per la (1.1.1) e la (1.1.2). Quindi,
dalla definizione di linearit`a, la composizione g f `e lineare, cio`e g f Hom(U, W).
Teorema 1.5. Siano f Hom(U, V) e g Hom(V, W). Se f e g sono iniettive, allora
g f `e iniettiva
-Dimostrazione. Supponiamo che esistano u, u0 U tali che g f (u) = g f (u0 ), cio`e
g(f (w)) = g(f (w0 )). Ma g `e iniettiva, quindi le controimmagini sono uniche. Ci`o significa
che f (u) = f (u0 ). Poiche anche f `e iniettiva, risulta u = u0 . Pertanto g f `e iniettiva.

10

APPLICAZIONI LINEARI
Teorema 1.6. Siano f Hom(U, V) e g Hom(V, W). Se f e g sono suriettive,
allora g f `e suriettiva
-Dimostrazione. Sia w W. Siccome g `e suriettiva, esiste (almeno) un vettore
v V tale che g(v) = w. Ma anche f `e suriettiva, quindi esiste un u U tale che
f (u) = v. Di conseguenza `e vera la seguente uguaglianza:
g f (u) = g(f (u)) = g(v) = w.
Ogni vettore di W ammette almeno una controimmagine, tramite lapplicazione g f ,
nello spazio U, per cui g f `e suriettiva.

Teorema 1.7. Siano f Hom(U, V) e g Hom(V, W). Se g f `e iniettiva allora f `e


iniettiva.
-Dimostrazione. Supponiamo che f non sia iniettiva. Esistono allora due vettori
distinti u, u0 U, tali che f (u) = f (u0 ). Di conseguenza:
(g f )(u) = g(f (u)) = g(f (u0 )) = (g f )(u0 ).
Ma ci`o `e impossibile per liniettivit`a di g f . Pertanto deve essere u = u0 ed f deve essere
iniettiva.

Teorema 1.8. Siano f Hom(U, V) e g Hom(V, W). Se g f `e suriettiva allora g


`e suriettiva.
-Dimostrazione. Una funzione `e suriettiva se ogni elemento del codominio ammette
almeno una controimmagine. Se g f `e suriettiva, per ogni w W esiste almeno un
u U tale che (g f )(u) = g(f (u)) = w. Se poniamo f (u) = v V, abbiamo g(v) =
g(f (u)) = w, ovvero ogni vettore di W ha almeno una controimmagine, tramite g, in V.
Quindi g `e suriettiva.

Osservazioni ed esempi.
1. La composizione di applicazioni lineari `e generalizzabile ad un numero finito qualsiasi
di applicazioni, con le dovute considerazioni sui domini e codomini. Queste non sono
ovviamente necessarie nel momento in cui si parla di endomorfismi, per i quali domini
e codomini coincidono.
2. Siano f Hom(U, V) e g Hom(V, W). Se g f `e iniettiva il Teorema 1.7
garantisce che f `e iniettiva, ma non fornisce alcuna informazione sulla iniettivit`a di
g. Analogamente, se g f `e suriettiva, il Teorema 1.8 garantisce che g `e suriettiva,
ma non fornisce alcuna informazione sulla suriettivit`a di f .

`
1.1 DEFINIZIONI E PRIME PROPRIETA

1.1.3

11

Teorema fondamentale delle applicazioni lineari

Un importante risultato nellanalisi di unapplicazione lineare `e descritto nel teorema


seguente, noto come Teorema fondamentale delle applicazioni lineari.
Teorema 1.9. Se V e W sono spazi vettoriali sullo stesso campo K, e B = {v1 , . . . , vn } `e
una base di V, fissati n vettori di W, ad esempio w1 , . . . , wn , esiste ununica applicazione
lineare f Hom(V, W) tale che
f (vi ) = wi ,

i = 1, . . . , n.

(1.1.3)

-Dimostrazione. Consideriamo un generico vettore v di V. Esso si scrive in modo


unico come combinazione lineare dei vettori di B, cio`e esistono a1 , ..., an K tali che
v = a1 v1 + + an vn . Consideriamo allora la funzione f : V W definita come segue
f (v) = f (a1 v1 + + an vn ) = a1 f (v1 ) + + an f (vn ) =

(1.1.4)

= a1 w1 + + an wn W.

Essa, ovviamente, verifica le condizioni (1.1.3). Inoltre, tale funzione `e una applicazione
n
n
X
X
lineare. Infatti, se v1 , v2 V, con v1 =
ai vi , v2 =
bi vi , e h, k K, allora:
i=1

i=1

n
!
n
!!
X
X
f (hv1 + kv2 ) = f h
ai vi + k
bi vi )
=
i=1

=f

n
P

i=1

n
P

i=1

hai vi +

n
P
i=1

kbi vi

(hai + kbi )f (vi ) =

i=1

n
P
i=1

hai f (vi ) +

= hf

n
P

i=1

n
P
i=1

=f

n
P

n
P

+ kf

(hai + kbi )vi

(hai + kbi )wi =

i=1

kbi f (vi ) = h

n
P

i=1

i=1

ai vi

n
P

i=1

n
P
i=1

hai wi +

ai f (vi ) + k

n
P
i=1

n
P

i=1

kbi wi =

bi f (vi ) =

bi vi

= hf (v1 ) + kf (v2 ).

Pertanto `e possibile costruire una applicazione lineare f : V W a partire dallimmagine


di una base fissata di V. Tale applicazione `e unica. Supponiamo infatti che esista una
seconda applicazione lineare g : V W che verifica le condizioni (1.1.3), cio`e tale che
g(vi ) = wi , i = 1, . . . , n. Allora, preso un vettore v = a1 v1 + + an vn , per la linearit`a
di g si ha
g(v) = g(a1 v1 + + an vn ) = a1 g(v1 ) + ... + an g(vn ) =
= a1 f (v1 ) + ... + an f (vn ) = f (a1 v1 + + an vn ) = f (v),

12

APPLICAZIONI LINEARI
e quindi f = g.

Osservazioni ed esempi.
1. Si noti che nel Teorema 1.9 non si impone alcuna condizione sui vettori wi . Essi
potrebbero essere sia dipendenti che indipendenti, ed in questo caso non `e comunque
detto che linsieme {w1 , . . . , wn } sia una base. In effetti non ci sono nemmeno
condizioni sulla dimensione dello spazio codominio W. I due spazi V e W potrebbero
essere molto diversi tra loro, cos` come, invece, potrebbero addirittura coincidere.
2. Il significato del Teorema 1.9 consiste nel fatto che, per definire una particolare
applicazione lineare f : V W, basta fissare le immagini dei vettori di una base
qualsiasi. Ovviamente, una volta fatto ci`o, f va poi estesa per linearit`a a tutto il
dominio V. Estendere linearmente f a tutto lo spazio V significa ricostruire lazione
di f su un qualsiasi vettore di V tramite le (1.1.3). Questo avviene mediante la
formula (1.1.4).

1.1.4

Spazi isomorfi

Nello studio degli spazi vettoriali sono stati introdotti i fondamentali concetti di base e
dimensione. In particolare, fissata una base B di uno spazio vettoriale V, `e possibile associare ad ogni vettore v V, in maniera unica, una n-pla di coefficienti del campo K su cui
`e costruito V. Con le applicazioni lineari vediamo che `e possibile mettere in comunicazione
spazi di natura anche molto diversa tra loro. Ci chiediamo allora se la propriet`a di avere
la stessa dimensione pu`o in qualche maniera essere letta da una applicazione lineare. La
risposta a questa domanda `e fornita dal seguente importante teorema.
Teorema 1.10. Due spazi vettoriali V e W, di dimensione finita, sono isomorfi se e solo
se hanno la stessa dimensione.
-Dimostrazione. La condizione `e necessaria. Poniamo infatti dim V = m e dim W =
n, e supponiamo che esista un isomorfismo f : V W. Allora f `e iniettivo, quindi la
dimensione dellimmagine coincide con quella del dominio, cio`e dim(Imf ) = dim f (W) =
m. Ma Imf W, quindi
m n.
(1.1.5)
Lo stesso discorso si pu`o fare per f 1 , che `e ancora un isomorfismo, ottenendo
m n.

(1.1.6)

Da (1.1.5) e (1.1.6) segue che V e W hanno la stessa dimensione.


Il viceversa `e leggermente pi`
u complesso. Se dim V = dim W = n, i due spazi hanno basi aventi lo stesso numero di vettori. Sia B = {v1 , . . . , vn } una base di
V e C = {w1 , . . . , wn } una base di W. Possiamo costruire unapplicazione lineare

`
1.1 DEFINIZIONI E PRIME PROPRIETA

13

f : V W sfruttando il Teorema 1.9. Definiamo innanzitutto f sulla base B ponendo f (vi ) = wi ,


i = 1, . . . , n. Estendiamo poi lazione di f a tutto lo spazio V. Se
n
X
v=
ai vi , abbiamo allora
i=1

f (v) = f

n
X

!
ai vi

i=1

n
X

ai f (vi ) =

i=1

n
X

ai wi .

i=1

Verifichiamo ora che lapplicazione f `e un isomorfismo. Per vedere se `e iniettiva studiamo


la struttura di ker f . Se v ker f , allora f (v) = 0. Siccome B `e una base, esistono
n
X
a1 , ..., an K tali che v =
ai vi , e quindi
i=1

f (v) = f

n
X

!
ai vi

i=1

n
X

ai f (vi ) =

i=1

n
X
ai wi = 0.
i=1

La precedente uguaglianza `e vera se e solo se ai = 0 per ogni i = 1, . . . , n, perche i vettori


wi sono indipendenti. Ma ci`o significa che v = 0, quindi che ker f = {0}. Di conseguenza
lapplicazione lineare f `e iniettiva. Controlliamo ora la suriettivit`a. Se w W, con
n
n
X
X
w=
bi wi , il vettore
bi vi di V `e una sua controimmagine. Infatti:
i=1

i=1

f (v) = f

n
X
i=1

!
bi vi

n
X
i=1

bi f (vi ) =

n
X

bi wi = w.

i=1

Concludendo, f `e unapplicazione lineare iniettiva e suriettiva, quindi un isomorfismo.


Limportanza del Teorema 1.10 `e data dal fatto che, a meno di isomorfismi, quando
lavoriamo su uno spazio vettoriale qualsiasi, di dimensione n assegnata, possiamo sempre
riferirci ad uno di essi.
Isomorfismo canonico
Il Teorema 1.10 mette in evidenza che tra due spazi vettoriali aventi la stessa dimensione
esiste sempre un isomorfismo. Naturalmente `e possibile che ne esista pi`
u di uno. Tra i
vari isomorfismi che possiamo trovare ne abbiamo uno, detto isomorfismo canonico che
riveste particolare importanza. Nel teorema seguente descriviamo esplicitamente questo
isomorfismo.
Teorema 1.11. Sia BV = {v1 , . . . , vn } una base di uno spazio vettoriale V sul campo K.
Sia cV : V Kn la corrispondenza definita da

a1
n
X

v=
ai vi 7 ... .
i=1
an
Allora cV `e un isomorfismo.

14

APPLICAZIONI LINEARI
-Dimostrazione. Siano x, y V due generici vettori, le cui componenti, rispetto alla
base B fissata, siano date da

x1
y1

x 7 ... e y
7 ... .
xn

yn

Per ogni scelta degli scalari a, b K, abbiamo


ax + by = a(x1 v1 + ... + xn vn ) + b(y1 v1 + ... + yn vn ) = (ax1 + by1 )v1 + ... + (axn + byn )vn .
Applicando cV risulta quindi

ax1 + by1

..
cV (ax + by) =
= a
.
axn + byn

x1
.. + b

.
xn

y1
.. = ac (x) + bc (y),
V
V
.
yn

per cui cV `e una applicazione lineare. Se cV (v) `e la n-pla identicamente nulla, allora
v = 0v1 + ... + 0vn = 0V , per cui ker cV = 0V e quindi cV `e iniettiva.
Consideriamo ora una qualsiasi n-pla in Kn

a1

a = ... .
an
Il vettore v = a1 v1 + ... + an vn appartiene ovviamente a V, e risulta cV (v) = a. Pertanto
lapplicazione lineare considerata `e anche suriettiva, e quindi `e un isomorfismo.

Osservazioni ed esempi.
1. Il Teorema 1.10 ci dice che, a meno di isomorfismi, esiste un solo spazio vettoriale
di una data dimesione n, su un dato campo K. Il Teorema 1.11 ci dice che questo
spazio `e identificabile canonicamente con lo spazio Kn formato da tutte le n-ple di
elementi di K.
2. Possiamo costruire spazi vettoriali aventi la stessa dimensione, ma non isomorfi,
solo assumendo campi base distinti. Infatti, in questo caso, non `e neppure possibile
definire tra essi alcuna applicazione lineare (cfr. Osservazione 2 a pagina 6).
3. Direttamente dalla definizione, si deduce che limmagine di un vettore vi BV ,
tramite cV , coincide con la n-pla avente tutte le componenti uguali a 0, salvo la
componente i-ma uguale a 1. Di conseguenza, cV trasforma la base B nella base
canonica di Kn .
4. In riferimento alla precedente osservazione precisiamo che i valori 0, 1 sono da intendersi come gli elementi neutri delle due operazioni, + e , che rendono linsieme K
un campo. In particolare, 0 `e lelemento neutro del gruppo abeliano (K, +), mentre
1 `e lelemento neutro del gruppo abeliano (K \ {0}, ).

1.2 MATRICI ASSOCIATE

1.2

15

MATRICI ASSOCIATE

NellOsservazione 8 a pagina 7 abbiamo visto che `e possibile definire una applicazione


lineare a partire da una matrice. Vogliamo ora invertire questa considerazione, mettendo
in evidenza come sia possibile associare matrici di tipo (m, n) ad una data applicazione
lineare definita tra due spazi vettoriali V e W (su uno stesso campo K), di dimensioni
n ed m rispettivamente. Lidea ha origine dal Teorema 1.9, che garantisce la costruzione
di una applicazione lineare f : V W, nel momento in cui ne risulti definita lazione
su una base B = {v1 , . . . , vn } di V. Poiche i vettori f (v1 ), . . . , f (vn ) appartengono a
W, `e possibile associare ad ognuno di essi una m-pla di coordinate rispetto ad una base
B0 = {w1 , . . . , wm } definita in W. Queste coordinate possono essere ordinate in vettori
colonne di Km :

x11
x1n

f (v1 ) = ... , . . . , f (vn ) = ... .


xm1

xmn

Le n distinte m-ple cos` ottenute possono essere pensate come le colonne di una matrice
0
AB
e la matrice che si associa in modo univoco (fissate le basi B
B (f ) di tipo (m, n). Essa `
e B0 in V e W) allapplicazione f . Riassumiamo questo fatto nella seguente definizione.
Definizione 1.12. Le matrici rappresentative di una data applicazione lineare f : V W
hanno come colonne i coefficienti che consentono di esprimere le immagini dei vettori di
una base di V come combinazione lineare dei vettori di una base di W.
Ogni tale matrice fornisce un modo per calcolare lazione dellapplicazione f su tutti i
vettori del dominio V. Se x V, detta X la colonna delle componenti di x rispetto alla
base B, le componenti del vettore f (x), rispetto alla base B 0 , sono fornite dal prodotto
0
0
AB
B (f )X. Nel0 caso in cui f sia un endomorfismo di V, e B = B, possiamo indicare
B
la matrice AB (f ) semplicemente con AB (f ). Facciamo comunque notare che, quando si
considera un endomorfismo, non `e detto che si debba necessariamente assumere la stessa
base nel dominio e nel codominio.
Osservazioni ed esempi.
1. Consideriamo lapplicazione lineare di End(R3 ) definita da:

x
a1 x + a2 y + a3 z
f y = b1 x + b2 y + b3 z ,
z
c1 x + c2 y + c3 z

e fissiamo come base di riferimento la base canonica C, sia nel dominio che nel
codominio. Indichiamo semplicemente con A la matrice ACC (f ) M3 (R) (quando
non si vuole enfatizzare la dipendenza dalle basi `e speso utilizzata questa notazione
semplificata). Lendomorfismo f End(R3 ) manda vettori di R3 in vettori di R3
secondo la regola:


x
a1 x + a2 y + a3 z
7 b1 x + b2 y + b3 z = Y,
X= y
z
c1 x + c2 y + c3 z

16

APPLICAZIONI LINEARI
e la sua azione si manifesta su un vettore v R3 mediante il prodotto a sinistra
della matrice A, cio`e
AX = Y.
Quindi, le colonne di A corrispondono ai

a1

A = b1
c1

coefficienti di x, y, z, rispettivamente, cio`e

a2 a3
b2 b3 .
c2 c3

2. Consideriamo lapplicazione lineare


d : R3 [t] R3 [t],
dove R3 [t] `e lo spazio vettoriale dei polinomi a coefficienti reali di grado 3 e d `e
loperatore di derivazione3 . Se p(t) = a0 t3 + a1 t2 + a2 t + a3 , abbiamo cio`e
d(p(t)) = 3a0 t2 + 2a1 t + a2 .
Assumiamo B = {1, t, t2 , t3 } come base, sia nel dominio che nel codominio. Vogliamo
allora determinare la matrice AB (d) associata alla derivazione. Occorre individuare limmagine, tramite d, dei vettori della base B, e scrivere tali immagini come
combinazione lineare dei vettori della stessa base. Abbiamo allora

d(1) = 0 = 0 1 + 0t + 0t2 + 0t3

d(t) = 1 = 1 1 + 0t + 0t2 + 0t3

(1.2.1)

2 ) = 2t = 0 1 + 2t + 0t2 + 0t3

d(t

d(t3 ) = 3t2 = 0 1 + 0t + 3t2 + 0t3


Allora la matrice associata a d `e la trasposta della matrice dei coefficienti del sistema
(1.2.1), ossia:

0 1 0 0
0 0 2 0

AB (d) =
0 0 0 3 .
0 0 0 0

1.2.1

Il Teorema dimensionale

La matrice associata ad unapplicazione lineare fornisce importanti informazioni sulle propriet`a dellapplicazione stessa. Queste sono riassunte nel seguente risultato, noto come Teorema dimensionale. Esso esprime una relazione tra le dimensioni del nucleo e
dellimmagine di ogni applicazione lineare.
3
Lo spazio vettoriale dei polinomi a coefficienti reali di grado n viene anche indicato con P oln (R)[x],
o, pi`
u semplicemente, con P oln (x)

1.2 MATRICI ASSOCIATE

17

Teorema 1.13. Sia f Hom(V, W) e sia dim V = n. Vale allora la seguente uguaglianza:
n = dim(ker f ) + dim(Imf ).
(1.2.2)
-Dimostrazione. Fissiamo in V e W le basi B e B 0 rispettivamente. Preso un generico
vettore x V, sia X la colonna delle componenti di x rispetto alla base B, cio`e

x1
..
X = . .
xn
0

Posto AB
B (f ) = A, rappresentiamo A come accostamento di n vettori colonna, ossia
A = [C1 | . . . |Cn ],
con Ci Kdim W , per ogni i {1, . . . , n}. Sia [f (x)] lelemento di Kdim W le cui componenti
sono i coefficienti che esprimono f (x) come combinazione lineare dei vettori della base B0 .
Allora [f (x)] si ottiene moltiplicando X a sinistra per la matrice A, ossia

x1
..
[f (x)] = AX = [C1 | . . . |Cn ] .
(1.2.3)
xn
= x1 C1 + + xn Cn .
La precedente `e una combinazione lineare delle colonne della matrice A, aventi come
coefficienti gli scalari xi K. Ma, al variare di x V, la (1.2.3) rappresenta pure
tutti i possibili vettori di Imf . Quindi le colonne di A sono un insieme generatore di
Imf . Sappiamo poi che il rango r di A `e il massimo numero di colonne (e di righe)
di A linearmente indipendenti4 . Quindi r rappresenta pure la dimensione dello spazio
immagine, cio`e dim(Imf ) = r. Inoltre, il nucleo di f `e linsieme delle soluzioni del sistema
omogeneo Ax = 0. Quindi, per il Teorema di Rouche-Capelli, dim(ker f ) = n r =
n dim Imf , da cui si ricava la tesi.

Lequazione (1.2.2) `e detta Equazione Dimensionale. Sfruttando lequazione dimensionale ricaviamo che tra spazi aventi la stessa dimensione i concetti di iniettivit`a e suriettivit`a
coincidono.
Teorema 1.14. Siano V e W due spazi vettoriali tali che dim V = dim W. Allora una
applicazione lineare f : V W `e iniettiva se e solo se `e suriettiva.
-Dimostrazione. Supponiamo f iniettiva. Allora ker f = 0, per cui dim(ker f ) = 0,
e dalla (1.2.2) ricaviamo dim(Imf ) = dim V. Ma dim V = dim W, per cui f `e suriettiva.
Supponiamo ora che f sia suriettiva. Allora dim(Imf ) = dim W, ed essendo dim W =
dim V risulta dim(Imf ) = dim V. Dalla (1.2.2) ricaviamo quindi dim(ker f ) = 0, e dal
Teorema 1.3 abbiamo che f `e iniettiva.

Il rango, o caratteristica, di una matrice A viene spesso indicato con il simbolo rkA.

18

APPLICAZIONI LINEARI

Osservazioni ed esempi.
1. Si noti che nel Teorema 1.13 non viene fatta alcuna ipotesi sulla dimensione dello
spazio W, cos` come sulle basi di dominio e codominio.
2. Consideriamo il seguente endomorfismo di R3 :
f:

R3 R3
(x, y, z) 7 (x, y, 0).

Esso viene anche chiamato proiezione canonica (sul piano xy). Limmagine di f
`e Imf = {(x, y, 0)| x, y R}, cio`e il piano xy, che ha dimensione 2. Il nucleo `e
formato da tutti i vettori dellasse z, cio`e ker f = {(0, 0, z)| z R}, e ha dimensione
1. Lequazione dimensionale `e soddisfatta, essendo 3 = dim(ker f ) + dim(Imf ).
3. Studiamo lequazione dimensionale in riferimento alla seguente applicazione lineare
f : R2 R3 :
f (x, y) = (2x y, x + y, y).
Fissiamo come basi di R2 ed R3 le rispettive basi canoniche, ed indichiamo semplicemente con Af la matrice associata ad f rispetto a queste basi. Essa appartiene a
M3,2 (R), ed `e tale che


2x y
x
Af
= x + y ,
y
y
ovvero

2 1
Af = 1 1 .
0 1
` facile verificare che rkAf = 2. Questo significa che dim Imf = 2. Non solo.
E
Le colonne di Af sono un sistema di generatori di Imf , ed essendo in questo caso
indipendenti, ne sono anche una base. Applichiamo lequazione dimensionale:
n = dim ker f + dim Imf.
Sappiamo che n = 2 e dim Imf = rkAf = 2. Allora dim ker f = 0. Quindi, in
particolare, f `e unapplicazione iniettiva.
4. Consideriamo lapplicazione f : R3 R3 associata alla matrice

2 1 0
Af = 2 1 0 .
4 2 3
Il rango di Af `e la dimensione di Imf . La matrice Af `e singolare, ma il minore
del secondo ordine individuato dalle ultime due righe e colonne `e 6= 0. Quindi
rkAf = 2. Le colonne di Af sono un sistema di generatori per Imf , ma quelle che
contribuiscono a formare il minore ne costituiscono pure una base, in quanto formano
un sottoinsieme indipendente massimale di un insieme generatore.

1.2 MATRICI ASSOCIATE

19

DallEquazione dimensionale ricaviamo poi che il nucleo ha dimensione 1. Per determinare esplicitamente ker f , bisogna risolvere il sistema omogeneo Af X = 0,
cio`e


2 1 0
x
0
2 1 0 y = 0 .
4 2 3
z
0
Svolgendo i calcoli ricaviamo y = 2x, z = 0. Pertanto risulta
ker f = {[x, 2x, 0]t R3 , x R},
ed una sua base `e rappresentata, per esempio, dal singolo vettore

1
v = 2 .
0
5. Consideriamo un endomorfismo singolare f End(V) (cfr. Osservazione 2 a pag.
9). Poiche f `e singolare, esiste un vettore x V, con x 6= 0, tale che f (x) = 0. Sia
AB Mn (K) la matrice associata ad f , rispetto alla base B. Indichiamo con X la
colonna delle componenti del vettore x rispetto alla stessa base B, abbiamo
AB X = 0.
Ma la precedente rappresenta un sistema lineare omogeneo quadrato dordine n, che
ammette lautosoluzione x. Quindi il rango della matrice dei coefficienti `e minore
dellordine della matrice, cio`e det A = 0. Di conseguenza la matrice A `e singolare, il
che giustifica il nome di queste applicazioni lineari.

1.2.2

Matrici associate alla composizione di applicazioni lineari

Quando si considera la composizione di due o pi`


u applicazioni lineari si ha il problema
di determinare la matrice rappresentativa della risultante a partire dalle matrici associate
alle singole componenti. In questo paragrafo vogliamo occuparci di questo argomento,
dimostrando innanzitutto un risultato che giustifica la definizione di prodotto righe per
colonne tra due matrici conformabili.
Teorema 1.15. Si considerino due applicazioni lineari f : U V e g : V W, e siano
B, B0 , B 00 basi fissate arbitrariamente in U, V, W rispettivamente. Allora risulta
00

00

B
B
AB
B (g f ) = AB0 (g)AB (f ).

(1.2.4)

-Dimostrazione. Consideriamo un generico vettore x U. Indichiamo con X la


colonna delle componenti di x rispetto alla base B, e con X 0 la colonna delle componenti
di f (x) rispetto alla base B0 . Possiamo allora scrivere
00

00

0
B
B
g f (x) = g(f (x)) = AB
B0 X = AB0 AB X.

20

APPLICAZIONI LINEARI
00

00
Ma, utilizzando la matrice AB
B associata a g f rispetto alle basi B e B abbiamo anche
00

g f (x) = AB
B X,
e, confrontando le due scritture ottenute, si ricava la (1.2.4).

Teorema 1.16. Sia f : V V un endomorfismo, e sia B una base di V. Allora f `e un


isomorfismo se e solo se det AB (f ) 6= 0.
-Dimostrazione. Dal Teorema 1.14 sappiamo che f `e un isomorfismo se e solo se f `e
suriettiva, cio`e se e solo se Imf = V. Questo avviene se e solo se le colonne di AB (f ) sono
tutte indipendenti, cio`e se e solo se det AB (f ) 6= 0.

Sfruttando i precedenti teoremi possiamo dimostrare il seguente risultato.


Teorema 1.17. Sia f : V V un isomorfismo, e sia B una base di V. Allora si ha
AB (f 1 ) = AB (f )1 .

(1.2.5)

-Dimostrazione. Sappiamo che la matrice AB (f ) `e unica, e, per il Teorema 1.16 essa


`e invertibile. Inoltre, essendo f f 1 = id, e AB (id) = In , per il Teorema 1.15, abbiamo
In = AB (id) = AB (f f 1 ) = AB (f )AB (f 1 ),
da cui si ricava la (1.2.5).

Osservazioni ed esempi.
1. Consideriamo due spazi vettoriali V e W, con basi fissate B e B 0 rispettivamente.
Siano poi f : V W una applicazione lineare, x un vettore di V, ed X la colonna
delle componenti di x rispetto a B. Spesso, per snellire la trattazione, anziche dire
che le componenti del vettore f (x), rispetto alla base B 0 , sono fornite dal prodotto
0
AB
B (f )X, si scrive semplicemente
0

f (x) = AB
B (f )x.

(1.2.6)

2. Dal Teorema 1.15 si ricava immediatamente che, se consideriamo due endomorfismi


f, g End(V), cui sono associate, rispetto alla base B di V, le matrici AB (f ) e
AB (g) rispettivamente, allora AB (g f ) = AB (g) AB (f ).

1.2.3

Rappresentazione canonica indotta

Sfruttando il Teorema 1.11 possiamo sviluppare lo studio delle applicazioni lineari lavorando semplicemente su quelle definite tra spazi canonici. Vediamo esplicitamente come
avviene questo trasferimento.
Siano V e W due spazi vettoriali, di dimensioni n ed m rispettivamente, definiti sullo
stesso campo K. Mediante gli isomorfismi canonici cV e cW possiamo rappresentare V e

1.2 MATRICI ASSOCIATE

21

W in Kn e Km rispettivamente. Sia poi f : V W una generica applicazione lineare.


Lazione di f `e allora equivalente a quella dellapplicazione lineare F : Kn Km ottenuta
dalla composizione tra c1
V , f e cW , come illustrato nei diagrammi seguenti:
V
cV
Kn

W
cW
F

V
c1
V

Km

W
cW
F

Kn 99K

Km

In particolare, procedendo in questa maniera, veniamo a rappresentare la base B di V come


base canonica C dello spazio Kn , e la base B0 di W come base canonica C 0 di Km (cfr.
Osservazione 3 a pagina 14). Di conseguenza, dalla Definizione 1.12, si deduce che ACB (cV )
0
`e la matrice identica In di ordine n, mentre ACB0 (cW ) `e la matrice identica Im di ordine
0
C0
m. Quindi, la matrice AB
B (f ) viene a coincidere con la matrice AC (F ), come illustrato
nel diagramma seguente, che traduce quelli precedenti in termini di matrici associate:
0

V
In

AB
B (f )

W
Im

Kn

AC
C (F )

Km

Osservazioni ed esempi.
1. La rappresentazione canonica indotta mette anche in evidenza che le propriet`a di
una applicazione lineare sono indipendenti dalle basi che si fissano nel dominio e nel
codominio. Infatti, pur di rimpiazzare f con F , si pu`o sempre pensare di lavorare
con le basi canoniche.
2. Riprendiamo lEsempio 2 riportato a pagina 16. La matrice AB (d) che si `e determinata coincide con quella che rappresenta, rispetto alla base canonica, lapplicazione
D indotta dalla derivazione d sullo spazio canonico R4 isomorfo ad R3 [t]. Possiamo
quindi studiare lazione della derivazione d lavorando direttamente sullo spazio canonico. Ad esempio, consideriamo il polinomio q(t) = 2t3 5t + 1, appartenente ad
R3 [t], le cui componenti rispetto alla base ordinata B = {1, t, t2 , t3 } sono:

1
5

0 .
2
Allora lazione di d su q(t) equivale allazione di D sulla quaterna delle sue coordinate,
descritta dal prodotto:


1
0
5 0

AC (D)
0 = 0
2
0

1
0
0
0

0
2
0
0

0
1
5
0

3 0
0
2

5
0
=

6 .
0

22

APPLICAZIONI LINEARI
Il risultato rappresenta, in R4 , il vettore delle componenti dellimmagine di q(t).
Questo significa che la derivata di q(t) `e il polinomio che ha come coefficienti, rispetto
alla base B, le componenti del vettore ottenuto. Quindi risulta
d(q(t)) = 5 1 + 0t + 6t2 + 0t3 = 5 + 6t2 ,
il che conferma la nota regola di derivazione.

1.2.4

Cambi di base

Vogliamo ora esaminare una particolare classe di endomorfismi, detti cambi di base. Essi
si ottengono quando si considera lapplicazione lineare identica id End(V) di uno spazio
vettoriale V, assumendo per`o due basi diverse, B e B 0 , sul dominio e sul codominio. La
0
matrice AB
e detta matrice del cambio di base, e permette di trasformare la n-pla delle
B (id) `
componenti di un generico vettore v V, rispetto alla base B, nella n-pla delle componenti
` importante notare
dello stesso vettore id(v) = v, calcolate per`o rispetto alla base B0 . E
0
B
che le colonne di AB (id) sono le componenti dei vettori della base di partenza B calcolate
rispetto alla base di arrivo B0 . Il seguente teorema illustra come costruire esplicitamente
questa matrice.
Teorema 1.18. Sia V uno spazio vettoriale di dimensione n sul campo K, e siano B e
B 0 due basi di V. Allora la matrice di cambio base `e data da
0

0 1
AB
B (id) = [B ] [B],

(1.2.7)

essendo [B] e [B 0 ] le matrici aventi come colonne, rispettivamente, le n-ple formate dalle
componenti dei vettori delle basi B e B0 rispetto ad una opportuna base C fissata in V.
-Dimostrazione. Dalla Definizione 1.12 abbiamo immediatamente ACB (id) = [B] ed
= [B 0 ]. Pertanto, lazione del cambio base pu`o essere descritta con il seguente
diagramma

ACB0 (id)

V
[B]
V

AB
B (id)

AC
C (id)

V
[B0 ]
V

0 1 C
C
Per i teoremi 1.15 e 1.17 abbiamo AB
B (id) = [B ] AC (id)[B]. La matrice AC (id) ha come
colonne i coefficienti che esprimono le immagini dei vettori di C (tramite lidentit`
a) come
combinazioni lineari degli stessi vettori. Pertanto ACC (id) `e la matrice identica, e quindi si
ricava la (1.2.7).

Osservazioni ed esempi.
1. Spesso, negli esercizi, i vettori di una data base B vengono assegnati fornendo esplicitamente le loro componenti. Questo significa che, nello spazio vettoriale in cui si sta
lavorando, `e stata precedentemente fissata una base C, e le componenti dei vettori di
B sono i coefficienti che consentono di esprimere ognuno di essi come combinazione

1.2 MATRICI ASSOCIATE

23

lineare dei vettori di C. Nel caso in cui si stia lavorando in uno spazio canonico
(situazione a cui ci si pu`o sempre ricondurre grazie al Teorema 1.11) e vengano assegnate le componenti dei vettori di una base B senza fare riferimento ad alcuna altra
base, si sottointende che la base di riferimento C `e la base canonica.
2. Supponiamo di assegnare, nello spazio R2 , le due basi date da

B1 =

2
1



1
1
2
,
, B2 =
,
.
0
1
1

In questa maniera abbiamo tacitamente fornito le componenti dei vettori di B1 e B2


rispetto alla base canonica (cfr. Osservazione 1), che in R2 `e data da

C=

1
0


0
,
.
1

3. Consideriamo ancora le due basi dellEsempio precedente, e scriviamo la matrice di


cambio base da B1 a B2 . La matrice

2 1
[B1 ] =
1 0
`e quella del cambio di base da B1 a C. Analogamente,

1 2
B2 =
1 1
`e la matrice del cambio di base da B2 a C. Abbiamo poi

[B2 ]

1 2
1 1

Dal Teorema 1.18 ricaviamo pertanto che la matrice cercata `e:

1 2
2 1
0 1
1
[B2 ] [B1 ] =
=
.
1 1
1 0
1 1
4. Consideriamo una applicazione lineare f : Kn Km , e supponiamo che vengano
esplicitamente assegnate le basi B e B 0 negli spazi canonici Kn e Km rispettivamente.
0
Volendo costruire la matrice AB
B (f ) applicando direttamente la Definizione 1.12
dovremmo calcolare, per ogni vettore di B, la sua immagine tramite f e poi trovare i
coefficienti che esprimono tale immagine come combinazione lineare dei vettori di B0 .
Possiamo tuttavia procedere in maniera diversa, componendo lapplicazione lineare
con i cambi base da B e B 0 alle basi canoniche C e C 0 di Kn e Km rispettivamente.
Si ottiene in questa maniera il seguente diagramma
0

Kn
[B]

AB
B (f )

Km
[B 0 ]

Kn

AC
C (f )

Km

24

APPLICAZIONI LINEARI
Pertanto, sfruttando anche i teoremi 1.4 e 1.17, ricaviamo che la matrice associata
allapplicazione lineare f : Kn Km , rispetto alle basi B e B0 , `e data da
0

0 1 C
AB
B (f ) = [B ] AC (f )[B].

(1.2.8)

5. Si faccia attenzione a non confondere il diagramma riportato nella precedente osservazione con quello descritto nel Paragrafo 1.2.3, nel quale le frecce verticali corrispondono a matrici identiche. Queste rappresentano infatti le matrici associate
agli isomorfismi canonici, mentre invece, nel diagramma precedente, le frecce verticali corrispondono alle matrici di cambio base associate alle applicazioni lineari
identiche degli spazi canonici considerati.
6. Poiche le basi B e B0 possono variare arbitrariamente in Kn e Km , la formula (1.2.8)
0
C0
e nota in
fornisce un legame tra le varie matrici AB
B (f ) e la matrice AC (f ). Se invece `
n
m
partenza lazione di una applicazione lineare f : K K su determinate basi B e
B0 , e si vuole risalire alla sua azione sulle basi canoniche, basta invertire lequazione
(1.2.8), e si ottiene
0

1
ACC (f ) = [B0 ]AB
B (f )[B] .

1.3

ESERCIZI

1.3.1. Studiare la linearit`


a dellapplicazione:
f:

R3 R
[x, y, z]t 7 x y + 2z.

1.3.2. Verificare se lapplicazione:


f : R2 : R2
[x, y]t 7 [x y, x + y]t
`e lineare.
1.3.3. Siano f : R2 R e g : R R2 le applicazioni lineari cos` definite:
f ([x, y]t ) = x + y + 1;
g(x) = [x, 2x]t .
Stabilire se g f `e lineare.
1.3.4. Sia f : Mn (R) Mn (R) lapplicazione definita da:
f (A) = 2A,
per ogni A Mn (R). Stabilire se f `e lineare.

(1.2.9)

1.3 ESERCIZI

25

1.3.5. Stabilire se `e lineare lapplicazione f : Mn (R) Mn (R) definita da f (A) =


A + 2In , con A Mn (R).
1.3.6. Si consideri lendomorfismo di R3
f ([x, y, z]t ) = [2x + 2y, x ty, x y z]t ,
t R. Stabilire per quali valori del parametro t lapplicazione f `e un automorfismo.
1.3.7. Si consideri lapplicazione lineare f : R2 R3 cos` definita:
f ([x, y]t ) = [2x y, x + y, y]t .
Stabilire se f `e iniettiva e suriettiva.
1.3.8. Stabilire per quali valori del parametro reale t lapplicazione lineare f : R2 R2 ,
definita da:
f ([x, y]t ) = [x + ty, (t 1)x + 2y]t
`e iniettiva.
1.3.9. Verificare che lapplicazione lineare f : R2 R3 definita da f ([x, y]t ) = [x + y, x
y, x]t `e iniettiva.
1.3.10. Stabilire se lendomorfismo di R3 definito da f ([x, y, z]t ) = [2x+2y, xy, xyz]t
`e un automorfismo.
1.3.11. Si consideri lapplicazione lineare f : R2 R3 definita da:
f (e1 ) = e1 + e2 + e3
f (e2 ) = e1 + 2e3 .
Si determini la matrice associata ad f e si stabilisca se f `e unapplicazione iniettiva.
1.3.12. Sia f : R2 R3 lapplicazione lineare data da


xy
x
f
= 2x 2y .
y
3x 3y

1. Determinare la matrice che rappresenta f rispetto alle basi

B1 =


3
0
,
,
1
2

0
2

1
B2 = 0 , 1 , 1 .

1
0
3

2. Scrivere, rispetto alla base B2 , limmagine del vettore

vB1 =

1
2

26

APPLICAZIONI LINEARI
1.3.13. Sia f lendomorfismo di R3 associato alla matrice

t 2 t+1
At = 2 t t + 3 .
1 2
4
Determinare il valore del parametro t affinche f sia un automorfismo. Posto t = 2,
determinare base e dimensione di Imf . Posto t = 3, determinare base e dimensione di
ker f .
1.3.14. Sia f : R3 R3 lapplicazione lineare associata alla matrice

2 1 0
A = 2 1 0 .
4 2 3
Determinare una base per Imf . Dopo aver verificato che linsieme

W = [x, y, 0]t , x, y R
`e sottospazio di R3 , determinare una base per W + Imf .
1.3.15. Dato in R4 lendomorfismo ft rappresentato dalla matrice

t 0 1 1
1 t 1 1

At =
1 0 2 0 ,
1 0 0 2
verificare che dim(ker f ) = 2 solo per t = 0.
1.3.16. Sia f lendomorfismo di R3 definito da:

f (e1 ) = te1 + 2e2 + e3


f (e2 ) = 2e1 + +te2 + 2e3

f (e3 ) = (t + 1)e1 + (t + 3)e2 + 4e3 .


Stabilire per quali valori di t R f `e un automorfismo e determinare negli altri casi la
dimensione ed una base per ker f .
1.3.17. Sia f lapplicazione lineare associata alla

1 2 1
A = 2 1 1
5 0 3

matrice

0
1 .
2

Determinare una base per Imf ed una per ker f .


1.3.18. Sia f : R3 R3 lapplicazione lineare data da


x y + 2z
x
f y = 2x + 3y 4z .
x 6y + 10z
z
Determinare nucleo ed immagine di f , la loro dimensione ed una loro base.

1.3 ESERCIZI

27

1.3.19. Sia f : R3 R2 lapplicazione lineare data da


x
x + y 3z

f y =
,
ax + (2 a)y + (a 4)z
z
essendo a un parametro reale.
1. Determinare, al variare di a in R, il nucleo, limmagine, le loro dimensioni ed una
loro base.
2. Scrivere, per a = 1, la matrice che rappresenta f rispetto alle basi date da

0
2
1

B1 = 0 , 1 1 ,

1
0
4

B2 =

3
5


2
,
.
6

1.3.20. Sia M2 (R) lo spazio delle matrici quadrate di ordine 2 a coefficienti reali. Sia
P ol3 (R)[x] lo spazio dei polinomi di grado n 3 in x, a coefficienti reali. Sia f : M2 (R)
P ol3 (R)[x] la seguente applicazione lineare

a b
c d

= (a c + 2d)x3 + (b + 2d)x2 + (a + b c)x + a + b 2c + 2d,

con a, b, c, d R.
1. Determinare la dimensione di Imf , e scrivere una sua base.
2. Determinare la dimensione di kerf , e scrivere una sua base.
1.3.21. Sia P ol3 (R)[x] lo spazio dei polinomi di grado n 3 in x, a coefficienti reali. Sia
M2 (R) lo spazio delle matrici quadrate di ordine 2 a coefficienti reali. Sia f : P ol3 (R)[x]
M2 (R) la seguente applicazione lineare

a + b c 2a + b 3c d
f (ax3 + bx2 + cx + d) =
,
a 2c d 3a + 2b 4c d
con a, b, c, d R.
1. Determinare la dimensione di Imf , e scrivere una sua base.
2. Determinare la dimensione di kerf , e scrivere una sua base.

28

APPLICAZIONI LINEARI

Capitolo 2

SIMILITUDINE E
`
DIAGONALIZZABILITA
Consideriamo unapplicazione lineare f End(V). Fissata una base B di V, abbiamo
visto che `e possibile associare in modo univoco ad f una matrice AB (f ), mediante la quale
`e completamente descritto il comportamento dellendomorfismo. Ovviamente se si cambia
base cambia anche la matrice associata: se al posto di B consideriamo una base C, la
matrice AC (f ) sar`a diversa dalla AB (f ). Entrambe per`o rappresentano lo stesso endomorfismo. Deve quindi esistere una relazione di qualche tipo che lega le due matrici. Questa
relazione si chiama similitudine. Nel paragrafo seguente diamo la definizione e le prime
propriet`a.

2.1

SIMILITUDINE

La similitudine `e un concetto che riguarda esclusivamente le matrici quadrate. Se A, B


Mn (K), si dice che A `e simile a B, e si scrive A B se esiste una matrice P invertibile,
detta matrice di passaggio, tale che P 1 AP = B.
Teorema 2.1. In Mn (K) la similitudine `e una relazione di equivalenza.
-Dimostrazione.
sitiva.

Verifichiamo la validit`
a delle propriet`a riflessiva, simmetrica e tran-

(i) Propriet`
a riflessiva. Ogni matrice A Mn (K) `e simile a se stessa.
prendere P uguale ad In (matrice identica di ordine n), e si ottiene

Basta

In1 AIn = A.
(ii) Propriet`
a simmetrica. Se A `e simile a B allora B `e simile ad A. Infatti, se
A B, esiste P Mn (K), invertibile, tale che P 1 AP = B. Moltiplicando entrambi i
membri di questa uguaglianza a sinistra per P e a destra per P 1 otteniamo
P (P 1 AP )P 1 = P BP 1 ,
da cui
A = P BP 1 = (P 1 )1 B(P 1 ).

(2.1.1)

`
SIMILITUDINE E DIAGONALIZZABILITA

30

La (2.1.1) dice che B `e simile ad A, mediante la matrice di passaggio P 1 .


(iii) Propriet`
a transitiva. Se A `e simile a B e B `e simile a C, allora A `e simile a C.
Infatti, se A B, esiste una matrice P invertibile tale che
P 1 AP = B.

(2.1.2)

Analogamente, se B C, esiste una matrice invertibile Q tale che


Q1 BQ = C.

(2.1.3)

Sostituendo la (2.1.2) nella (2.1.3) si ottiene:


Q1 (P 1 AP )Q = C,
da cui:
(Q1 P 1 )A(P Q) = C,
(P Q)1 A(P Q) = C.

(2.1.4)

La relazione (2.1.4) esprime il fatto che A C, tramite la matrice di passaggio P Q.

Una prima propriet`a posseduta da due matrici simili `e descritta nel teorema seguente.
Teorema 2.2. Matrici simili hanno lo stesso determinante.
-Dimostrazione. Se A B, dalla definizione di similitudine abbiamo P 1 AP = B
per qualche matrice P invertibile. Utilizzando il Teorema di Binet ricaviamo allora
det B = det(P 1 AP ) = det(P 1 ) det A det P = (det P )1 det A det P = det A.

Osservazioni ed esempi.

1. Facciamo notare una particolarit`a nella definizione di similitudine di matrici. Dicendo che A `e simile a B se esiste ... si d`a una sorta di direzionalit`a alla definizione,
`
che rende anche sensato il controllo della propriet`a simmetrica dellequivalenza. E
diverso dire A e B sono simili se esiste .... Qui non viene stabilito a priori, nella
scrittura P 1 AP = B, qual`e la posizione di A e quale quella di B. In questo caso
la propriet`a simmetrica sarebbe implicita.
2. Il Teorema 2.2 fornisce una condizione solo necessaria per la similitudine. Se due
matrici sono simili allora hanno lo stesso determinante, ma non `e vero il viceversa.
Esistono altre condizioni necessarie che caratterizzano la similitudine. Lanalisi di
queste condizioni, e lo studio della similitudine stessa, richiedono lintroduzione di
concetti legati alla diagonalizzabilit`a che saranno sviluppati nel prossimo paragrafo.


2.2 DIAGONALIZZABILITA

2.2

DIAGONALIZZABILITA

Nel Paragrafo 1.1.4 abbiamo visto che, a meno di trasferire le considerazioni sulla applicazione lineare indotta, `e sempre possibile pensare di lavorare sugli spazi canonici. Non
`e pertanto restrittivo sostituire lo studio degli endomorfismi di uno spazio vettoriale V,
di dimensione n, sul campo K, con lo studio degli endomorfismi di Kn . In particolare,
ci concentriamo sullo studio delle applicazioni lineari f : Rn Rn . Facciamo comunque
notare che tutti i risultati possono essere estesi (con le ovvie modifiche dovute al cambio
di campo) ad endomorfismi di Kn .

2.2.1

Definizioni e prime propriet`


a

Sia f : Rn Rn una applicazione lineare. Se consideriamo due basi B1 e B2 di Rn ,


e definiamo le componenti dei loro vettori rispetto alla base canonica C, sappiamo (cfr.
Osservazione 6 a pagina 24) che si ha
1 C
2
AB
B1 (f ) = [B2 ] AC (f )[B1 ],

formula valida anche per spazi diversi in partenza ed in arrivo.


Se fissiamo in Rn una base B e prendiamo B1 = B2 = B, abbiamo
1 C
AB
B (f ) = [B] AC (f )[B].

Questo significa che le matrici che rappresentano f rispetto ad una qualsiasi base sono
tutte simili tra loro.
Se esiste una base B rispetto alla quale AB
e diagonale, allora f si dice endomorfismo
B (f ) `
diagonalizzabile o anche endomorfismo semplice. Se A `e la matrice che rappresenta un
endomorfismo diagonalizzabile f rispetto ad una qualsiasi base di Rn , diciamo che A `e una
matrice diagonalizzabile. Ogni tale matrice `e pertanto simile ad una matrice diagonale,
cio`e esiste una matrice invertibile P tale che:
P 1 AP = diag(1 , . . . , n ).
Si chiama polinomio caratteristico di una matrice M il polinomio
M () = det(M In ) = n + a1 n1 + + an1 + an .
La matrice M In si chiama matrice caratteristica associata ad M .
Lequazione M () = 0 `e detta equazione caratteristica associata ad M .
Linsieme delle radici del polinomio caratteristico, `e chiamato spettro di M , e indicato con
SpecM = {1 , . . . , n }.

31

`
SIMILITUDINE E DIAGONALIZZABILITA

32

2.2.2

Alcune propriet`
a del Polinomio caratteristico

Nel Teorema 2.2 abbiamo visto una prima semplice propriet`a necessaria per la similitudine.
Il seguente teorema ne mette in evidenza una seconda.
Teorema 2.3. Due matrici simili A e B hanno lo stesso polinomio caratteristico.
-Dimostrazione. Sia B A, e P una matrice invertibile tale che P 1 BP = A.
Utilizzando il Teorema di Binet ricaviamo allora
1 AP tI ) =
B (t) = det(B
tIn ) = det(P
1
1
n

= det P AP t P P = det P 1 (A tIn )P =


= det(P 1 ) det(A tIn ) det P = det(A tIn ) det(P 1 ) det P =
= det(A tIn ) (det P )1 det P = det(A tIn ) = A (t).

In base al teorema precedente possiamo definire il concetto di polinomio caratteristico


di una applicazione lineare f . Esso `e il polinomio caratteristico di una sua qualsiasi matrice
associata. Analogamente si possono trasferire su f le nozioni di equazione caratteristica e
Spettro, identificandole con quelle di una sua qualsiasi matrice associata.
Teorema 2.4. Se M Mn (R), allora M () = M t ().
-Dimostrazione.

Il risultato si ottiene facilmente attraverso i seguenti passaggi


t
M () = det(M
In ) = det(M

Itn ) = t
t
t
= det M (In) = det M In =
= det M t In = M t ().

Teorema 2.5. Sia SpecM = {1 , . . . , n }. Allora risulta


det M =

n
Y
i .

(2.2.1)

i=1

-Dimostrazione. Sappiamo che il polinomio caratteristico di M ammette n radici (gli autovalori di M ), quindi si pu`o scomporre nel prodotto di n fattori lineari, non
necessariamente distinti:
M () = det(M I) = (1 )(2 ) (n ).
Sostituendo, nella precedente equazione, al posto di il valore 0 si ottiene:
M (0) = det(M ) =

n
Y

i .

i=1


2.2 DIAGONALIZZABILITA

33

Teorema 2.6. Sia SpecM = {1 , . . . , n }. Allora risulta


TrM =

n
X

i .

(2.2.2)

i=1

-Dimostrazione.

Consideriamo la matrice caratteristica M I

a11
a12
a13

a1n
a21
a22
a23

a2n

a31

a
a

a
32
33
3n

an1
an2
an3
ann

Calcoliamo il polinomio caratteristico M () = det(M I) applicando il teorema di


Laplace sulla prima riga
M () = (a11 )A11 + g1 ()
dove A11 `e il complemento algebrico di a11 , e g1 () `e un polinomio di grado inferiore
ad n 1. Lavorando analogamente sul minore complementare di a11 abbiamo

a22
a23

a2n
a32
a33
a3n
= (a22 )A22 + f1 ()
A11 = det

an2
an3
ann
dove A22 `e il complemento algebrico di a22 , ed f1 () `e un polinomio di grado inferiore
ad n 2. Quindi otteniamo
M () = (a11 )(a22 )A22 + g2 ()
dove g2 () = (a11 )f1 () + g1 () `e ancora un polinomio di grado inferiore ad n 1.
Ripetendo il ragionamento arriviamo a scrivere
M () = (a11 )(a22 ) ... (ann ) + gn ()
con gn () polinomio di grado inferiore ad n 1.
Sviluppando le parentesi abbiamo
M () = (1)n n + (1)n1

n
X

aii n1 + p()

i=1

essendo p() un polinomio di grado inferiore ad n 1. Per il teorema fondamentale


dellalgebra, abbiamo anche

M () = (1 )(2 ) ... (n ) = (1)n n + (1)n1

n
X

i n1 + q()

i=1

con q() polinomio di grado inferiore ad n 1. Per il principio di identit`


a dei polinomi le
due scritture di M () sono equivalenti se e solo se i coefficienti delle potenze di uguale

`
SIMILITUDINE E DIAGONALIZZABILITA

34

esponente sono uguali. In particolare devono quindi essere uguali i coefficienti di n1 e


quindi
(1)n1

n
X

aii = (1)n1

i=1

da cui si ricava la tesi, essendo

n
X

n
X

i ,

i=1

aii = TrM .

i=1

Osservazioni ed esempi.
1. Il Teorema 2.3 non `e invertibile, cio`e, non `e detto che due matrici aventi lo stesso
polinomio caratteristico siano simili tra loro.
2. Determiniamo M () e SpecM per la matrice

1 0 0
M = 1 2 0 .
1 1 0
Sappiamo che M () = det(M I3 ). Quindi

1 0 0
1 0 0
M () = det(M I3 ) = det 1 2 0 0 1 0
0 0 1

1 1 0
1

0
0

2 0 = (1 )(2 ).
= 1
1
1
M () = 0 = 0, 1, 2

SpecM = {0, 1, 2}

3. In base al Teorema 2.5, una matrice singolare ammette sempre almeno un autovalore
nullo.
4. Il Teorema 2.6 mette in evidenza che la somma degli autovalori di una matrice
coincide con la sua traccia. Questo non implica che i singoli autovalori coincidano
con gli elementi della diagonale principale.

2.3

AUTOVALORI ED AUTOVETTORI

Un numero R si dice autovalore di un endomorfismo f : Rn Rn se esiste un vettore


v Rn non nullo tale che f (v) = v. Il vettore v si chiama autovettore e `e lautovalore
ad esso associato. Linsieme di tutti gli autovettori associati a , assieme al vettore nullo,
si indica con E (f ) e viene chiamato autospazio di f associato allautovalore . Il concetto
di autovettore si rivela fondamentale per il problema della diagonalizzazione. Vale infatti
il seguente teorema.

2.3 AUTOVALORI ED AUTOVETTORI

35

Teorema 2.7. Un endomorfismo f : Rn Rn `e diagonalizzabile se e solo se esiste una


base di autovettori.
-Dimostrazione. Supponiamo innanzitutto che f sia diagonalizzabile. Allora esiste
una base B rispetto alla quale AB
e diagonale. Sia B = {v1 , ..., vn }, e siano 1 , ..., n
B (f ) `
gli elementi sulla diagonale di AB
(f
),
cio`
e
B

1 0
0 2

AB
.. . .
B (f ) = ..
.
.
.
0 0

0
0
..
.

Poiche le colonne di AB
B (f ) sono i coefficienti che consentono di scrivere le immagini dei
vettori di B in funzione della stessa base B, abbiamo
f (v1 ) = 1 v1
f (v2 ) = 2 v2
...
f (vn ) = n vn ,
il che implica che B `e una base di autovettori.
Supponiamo ora che esista una base B = {v1 , ..., vn } in cui ogni elemento `e un autovettore di f . Allora esistono 1 , ..., n R tali che f (vi ) = i vi per ogni i {1, ..., n}, e
quindi

1 0
0 2

AB
.. . .
B (f ) = ..
.
.
.
0 0
Pertanto f `e diagonalizzabile.

0
0
..
.

Ricaviamo in particolare che la matrice rappresentativa di un endomorfismo diagonalizzabile rispetto ad una base di autovettori `e una matrice diagonale, avente come elementi
principali gli autovalori.
Osservazioni ed esempi.
1. Consideriamo una matrice generica A Mn (R). Questa si pu`o sempre vedere come
la matrice associata ad un endomorfismo f End(Rn ) rispetto ad una base fissata.
Allora autovalori ed autovettori di A sono gli autovalori e gli autovettori di f .
` importante notare che, quando si parla di autovettori, si fa riferimento a vettori
2. E
distinti dal vettore nullo.

`
SIMILITUDINE E DIAGONALIZZABILITA

36

2.3.1

Calcolo degli autovalori

Dalla definizione di autovalore non appare immediatamente evidente il metodo con cui si
possono effettivamente calcolare questi numeri. Esso viene fornito nel teorema seguente.
Teorema 2.8. Gli autovalori di una matrice A Mn (R) si calcolano come radici del
polinomio caratteristico della matrice stessa:
A (t) = det(A tIn ).
-Dimostrazione. Se `e un autovalore di A, esiste un vettore non nullo (un autovettore) v Rn tale che Av = v. Portando tutto al primo membro nella precedente
uguaglianza, abbiamo Av v = 0, ovvero
(A In )v = 0.

(2.3.1)

La (2.3.1) si pu`o rivedere come un sistema lineare omogeneo di n equazioni in n incognite.


La matrice dei coefficienti `e A In , ovvero la matrice caratteristica di A. Lo scalare
`e un autovalore se e solo se esiste un (auto)vettore non nullo v 6= 0, soluzione di (2.3.1),
cio`e se e solo se il sistema ammette autosoluzioni. Condizione necessaria e sufficiente
affinche un sistema del tipo (2.3.1) abbia autosoluzioni `e che la matrice dei coefficienti
abbia rango inferiore al numero delle incognite. Questo, nel caso considerato, avviene se
e solo se det(A In ) = 0. Quindi lo scalare `e autovalore di A se e solo se `e soluzione
dellequazione
A (t) = det(A tIn ) = 0,
che `e lequazione caratteristica di A.

Osservazioni ed esempi.
1. Essendo gli autovalori di una matrice ottenibili come radici del suo polinomio caratteristico, matrici simili hanno gli stessi autovalori, ovvero lo stesso spettro:
SpecA = SpecB.

(2.3.2)

Dai teoremi 2.5 e 2.6 ricaviamo pertanto che matrici simili hanno stesso determinante
(questa propriet`a `e gi`a stata ottenuta per altra via nellOsservazione (2.2) a pagina
30) e medesima traccia, ossia:
TrA = TrB, det A = det B.

(2.3.3)

` bene insistere sul fatto che le condizioni (2.3.2) e (2.3.3) sono condizioni solo
E
necessarie, non sufficienti, per la similitudine, cos` come gi`a osservato per il Teorema
2.3 (cfr. Osservazione 1 a pag. 34). Cio`e, se A `e simile a B, allora le (2.3.2) e (2.3.3)
sono vere. Se sono vere nulla si pu`o dire sulla similitudine di A e B.
2. Autovalori di una matrice diagonale. Consideriamo una matrice diagonale A =
diag(a1 , . . . , an ). In questo caso, essendo AtIn = diag(a1 , . . . , an )diag(t, . . . , t) =
diag(a1 t, . . . , an t), e ricordando che il determinante di una matrice diagonale

2.3 AUTOVALORI ED AUTOVETTORI

37

`e il prodotto degli elementi principali, abbiamo A (t) = (a1 t)(a2 t) (an t).
Le radici del polinomio caratteristico sono allora proprio gli elementi principali di A.
Quanto detto vale anche per le matrici triangolari, arrivando alle stesse conclusioni:
gli autovalori di una matrice triangolare sono i suoi elementi principali.
3. Determiniamo una matrice avente il polinomio p(t) = t3 3t2 t + 3 come polinomio
caratteristico. Notiamo, innanzitutto, che p(t) `e scomponibile nel prodotto di fattori
lineari:
p(t) = (t 3)(t + 1)(t 1).
Quindi ha tre radici reali distinte 1 = 3, 2 = 1 e 3 = 1. Questi sono autovalori
di una matrice che ammette p(t) come polinomio caratteristico. Per esempio, possiamo considerare una qualsiasi matrice triangolare avente 1 , 2 , 3 come elementi
principali, cio`e

1 a b
A = 0 1 c
0 0 3
per ogni a, b, c R. Ma avremmo anche potuto scegliere una matrice triangolare
inferiore con gli stessi elementi principali, o ancora pi`
u semplicemente la matrice
diag(1, 1, 3).
4. Determiniamo tutti gli autovalori della matrice A M2 (R) sapendo che valgono le
seguenti uguaglianze:
det(A 5I2 ) = 0, det(A + I2 ) = 0.

(2.3.4)

Non sappiamo come `e fatta A, ma le due uguaglianze precedenti ci permettono


di individuare comunque i suoi autovalori. Questi sono le soluzioni dellequazione
caratteristica, ovvero sono gli scalari che soddisfano luguaglianza
det(A tI2 ) = 0.
Ponendo nella precedente t = 5 e t = 1 otteniamo proprio le (2.3.4), quindi 5 e
1 sono due autovalori. Per`o il polinomio caratteristico di A ha grado due, perche
A M2 (R) e non pu`o avere pi`
u di due radici. Allora 5, 1 sono tutti gli autovalori
di A e SpecA = {5, 1}.
5. Determiniamo A (t) per la matrice

1 0 0
A = 1 2 0 .
1 1 0

Sappiamo che A (t) = det(A tI3 ). Quindi

1 0
A (t) = det(A tI3 ) = det 1 2
1 1

1t
0

2t
= 1
1
1

1 0 0
0
0 t 0 1 0 =
0 0 1
0

0
0 = t(1 t)(2 t).
t

`
SIMILITUDINE E DIAGONALIZZABILITA

38

Alla stessa conclusione si poteva giungere osservando che A `e una matrice triangolare, quindi i suoi autovalori sono gli elementi principali. Conoscendo gli autovalori
conosciamo le radici del polinomio caratteristico, e quindi una sua scomposizione in
fattori: A (t) = t(1 t)(2 t).

2.3.2

Autospazi di un endomorfismo

Sia f un endomorfismo dello spazio Rn , e sia Specf un suo autovalore. Linsieme


di tutti gli autovettori associati a , assieme al vettore nullo, si indica con E (f ) (o
semplicemente E se non ci sono pericoli di fraintendimenti) e viene chiamato autospazio
di f associato allautovalore , ossia:
E (f ) = {v Rn | f (v) = v}.
A livello di matrici associate, la definizione di autospazio si traduce come segue. Se A `e
una matrice di Mn (R), e un suo autovalore, chiamiamo autospazio relativo a linsieme:
E = {v Rn | Av = v}.

Il nome autospazio `e giustificato dal seguente risultato.


Teorema 2.9. Sia un autovalore di un endomorfismo f : Rn Rn , e sia E = {v
Rn , f (v) = v}. Allora E `e un sottospazio di Rn .
-Dimostrazione.

Possiamo dimostrare il teorema in due maniere distinte.

Primo metodo. Per ogni coppia di vettori v, w E , e per ogni a, b R, dalla


linearit`a di f abbiamo
f (av + bw) = af (v) + bf (w) = av + bw = (av + bw).
Quindi av + bw E , per cui tale sottoinsieme di Rn `e chiuso rispetto alle combinazioni
lineari di suoi elementi. Di conseguenza E `e un sottospazio di Rn .
Secondo metodo. Sia i : Rn Rn lendomorfismo identico, tale cio`e che i(v) = v
per ogni v Rn . Allora E `e linsieme delle soluzioni del sistema (AB
B (f ) I)x = 0,
essendo B una qualsiasi base di V. Quindi E `e il nucleo dellendomorfismo f i, per
cui `e un sottospazio di V.
Il Teorema 2.9 mette in evidenza che linsieme di tutti gli autovettori associati ad uno
stesso autovalore `e in realt`a uno spazio vettoriale. Ci si pu`o chiedere a questo punto se
c`e invece qualche propriet`a posseduta da autovettori associati ad autovalori distinti. A
questo proposito abbiamo il seguente teorema.
Teorema 2.10. Autovettori associati ad autovalori distinti di un endomorfismo f : Rn
Rn sono tra loro linearmente indipendenti.
-Dimostrazione. Siano 1 , 2 , ..., h , h+1 gli autovalori di f , e sia vi un autovettore
associato allautovalore i , i {1, 2, ..., h + 1}. Procedendo per induzione, assumiamo

2.3 AUTOVALORI ED AUTOVETTORI

39

che i vettori v1 , v2 , ..., vh siano indipendenti, e supponiamo invece che v1 , v2 , ..., vh , vh+1
siano linearmente dipendenti. Questo significa che vh+1 dipende da v1 , v2 , ..., vh , per cui
esistono scalari c1 , c2 , ..., ch tali che
vh+1 =

h
X

ci vi .

(2.3.5)

i=1

Applicando f abbiamo f (vh+1 ) = h+1 vh+1 , essendo vh+1 un autovettore associato


allautovalore h+1 . Dalla (2.3.5) abbiamo allora
f (vh+1 ) = h+1

h
X

ci vi .

(2.3.6)

i=1

Ma, per la linearit`a di f , e per il fatto che i vi sono autovettori associati a i , dalla (2.3.5)
abbiamo anche
f (vh+1 ) =

h
X

f (ci vi ) =

i=1

h
X

ci i vi .

(2.3.7)

i=1

confrontando le formule (2.3.6) e (2.3.7) risulta


h
X
(h+1 i )ci vi = 0.
i=1

Poiche h+1 6= i , dallipotesi di induzione ricaviamo ci = 0 per ogni i {1, 2, ..., h}, e
quindi, per la (2.3.5), risulta vh+1 = 0, il che `e assurdo. Pertanto vh+1 `e indipendente da
v1 , v2 , ..., vh .

Osservazioni ed esempi.
1. Gli autovalori di un endomorfismo f sono gli scalari per i quali il nucleo di f i
non si riduce al solo vettore nullo. Di conseguenza la dimensione di un qualsiasi
autospazio E `e sempre almeno uguale ad 1.
2. Determiniamo gli autospazi associati allendomorfismo f : R3 R3 rappresentato,
rispetto ad una data base, dalla matrice dellEsempio 5 a pagina 37. Gli autovalori
sono = 0, 1, 2. Per = 0 bisogna determinare il nucleo di f , per cui risulta


1 0 0
x
0
1 2 0 y = 0 x = y = 0 z.
1 1 0
z
0
Pertanto, allautovalore = 0 resta associato il solo autovettore

0
v0 = 0 ,
1

`
SIMILITUDINE E DIAGONALIZZABILITA

40

al quale corrisponde lautospazio E0 = {zv0 , z R}.


Per = 1 bisogna determinare il nucleo di f i, e quindi


0
0 0
0
x
1 1
0 y = 0 y = x z = 2x.
1 1 1
z
0
Pertanto, allautovalore = 1 resta associato il solo autovettore

1
v1 = 1 ,
2
al quale corrisponde lautospazio E1 = {xv1 , x R}.
Per = 2 calcoliamo invece il nucleo di f 2i


1 0
0
x
0
1
0
0 y = 0 x = 0 y = 2z.
1 1 2
z
0
Pertanto, allautovalore = 2 resta associato il solo autovettore

0
v2 = 2 ,
1
al quale corrisponde lautospazio E2 = {zv2 , z R}.

2.3.3

Molteplicit`
a algebrica e molteplicit`
a geometrica

La molteplicit`
a algebrica ma () di un autovalore indica quante volte lautovalore `e
soluzione dellequazione caratteristica () = 0. La molteplicit`
a geometrica mg () di
`e la dimensione dellautospazio E associato allautovalore. Nella dimostrazione del
Teorema 2.9 (secondo metodo) abbiamo visto che i vettori di E sono tutti e soli i vettori
del nucleo dellapplicazione f di matrice M In (vedi anche lEsempio 2 a pagina 39).
La dimensione del nucleo si pu`o calcolare usando lequazione dimensionale dim(ker f ) =
n dim(Imf ). Ma la dimensione di Imf `e il rango della matrice associata ad f , quindi
dim(ker f ) = n rk(M In ). Concludendo, la molteplicit`a geometrica dellautovalore
`e data da
mg () = n rk(M In ).

(2.3.8)

La molteplicit`a algebrica e la molteplicit`a geometrica sono legate dalla relazione descritta nel seguente teorema.
Teorema 2.11. Sia 0 un autovalore di un endomorfismo f : Rn Rn . Allora vale la
disuguaglianza ma (0 ) mg (0 ).

2.3 AUTOVALORI ED AUTOVETTORI

41

-Dimostrazione. Se ma (0 ) = n il risultato `e immediato. Supponiamo che sia


ma (0 ) < n, e consideriamo una base B0 = {v1 , ...vk } dellautospazio E0 associato a
0 . Possiamo sempre estendere B0 ad una base B di tutto lo spazio aggiungendo n k
vettori indipendenti. Abbiamo allora B = {v1 , ..., vk , w1 , ..., wnk }. La matrice AB
B (f )
pu`o essere rappresentata nella maniera seguente

0
.. . .
.
.

0
AB
B (f ) =

0
..
.

0
B

dove il blocco in alto a sinistra `e una matrice diagonale di tipo (k, k). Calcolando il
polinomio caratteristico otteniamo
k
k
P () = det(AB
B (f ) I(n,n) ) = (0 ) det(B I(nk,nk) ) = (0 ) q(),

essendo I(n,n) la matrice identica di ordine n, I(nk,nk) la matrice identica di ordine nk,
e q() un polinomio di grado n k. Pertanto, lequazione caratteristica P () = 0 ammette
la soluzione = 0 contata almeno k volte (esattamente k se q(0 ) 6= 0), cio`e
ma (0 ) k = dimE0 = mg (0 ).

Nel caso in cui risulti ma (0 ) = mg (0 ), allora 0 si dice autovalore regolare. Il concetto


di regolarit`a `e molto importante per la diagonalizzazione. Vale infatti il seguente teorema.
Teorema 2.12. Un endomorfismo f : Rn Rn `e diagonalizzabile se e solo se f ha tutti
gli autovalori reali e, per ogni autovalore, la molteplicit`
a algebrica `e uguale alla molteplicit`
a
geometrica.
-Dimostrazione. Supponiamo innanzitutto che f sia diagonalizzabile. Allora esiste
una base B = {v1, ..., vn } di autovettori.
Sia 0 un qualsiasi autovalore. Abbiamo allora

mg (0 ) = n rk AB
(f
)

I
.
Poich
e
B
`e una base di autovettori, la matrice AB
e
0
B
B (f ) `
diagonale, e sulla diagonale compaiono tutti e soli gli autovalori, con le rispettive molteplicit`a. Quindi gli autovalori sono reali e 0 compare sulla diagonale esattamente ma (0 )
volte. Ogni colonna di AB
B (f ) in cui compare 0 corrisponde ad un autovettore di E0 , e
tali autovettori sono tra loro indipendenti. Quindi la dimensione di E0 (che `e il massimo
numero di vettori indipendenti estraibili da E0 ) deve essere almeno uguale a ma (0 ), cio`e
dim(E0 ) ma (0 ). Ma dim(E0 ) = mg (0 ), e quindi mg (0 ) ma (0 ). Dal Teorema
2.11 ricaviamo allora mg (0 ) = ma (0 ). Per la genericit`a con cui `e stato scelto 0 segue
la tesi.
Supponiamo ora che tutti gli autovalori siano reali e che, per ogni autovalore, la molteplicit`a algebrica sia uguale alla molteplicit`a geometrica. Indichiamo con 1 , ..., h gli
autovalori distinti di f , a con E1 , ..., Eh i corrispondenti autospazi. Abbiamo allora

`
SIMILITUDINE E DIAGONALIZZABILITA

42

h
X

dimEi =

h
X

i=1

mg (i ) =

i=1

h
X

ma (i ).

i=1

P
Per il teorema fondamentale dellalgebra abbiamo hi=1 ma (i ) = gradoP () = n, e quindi
la somma delle dimensioni degli autospazi `e uguale ad n. Quindi, unendo le basi di tutti
gli autospazi si ottiene un insieme di n vettori linearmente indipendenti, cio`e una base di
Rn . Esiste pertanto una base di autovettori, per cui f `e diagonalizzabile.

Osservazioni ed esempi.
1. Una condizione di regolarit`
a per gli autovalori. Se un endomorfismo f : Rn
Rn ammette n autovalori distinti, allora questi sono automaticamente regolari. Infatti, per il Teorema 2.10, abbiamo n autospazi distinti, la cui dimensione deve
essere necessariamente uguale ad 1. Di conseguenza, la molteplicit`a algebrica di
ogni autovalore coincide con la sua molteplicit`a geometrica.
2. Sia r una retta passante per lorigine di R2 , e sia f : R2 R2 la simmetria assiale
rispetto alla retta r. Allora f `e diagonalizzabile. Infatti, se r `e un qualsiasi vettore
appartenente alla retta r, risulta f (r) = r, mentre, se r `e un qualsiasi vettore
appartenente alla retta r , perpendicolare nellorigine ad r, allora f (r ) = r .
y

v
r

r
r
O

x
f(v)

Figura 2.1: autospazi di una simmetria assiale.


Pertanto f ammette autovalori reali distinti = 1, e quindi `e diagonalizzabile. In
particolare, la retta vettoriale r `e lautospazio associato allautovalore = 1, mentre
la retta vettoriale r `e lautospazio associato allautovalore = 1.
3. Possiamo riassumere i principali risultati ottenuti in questo paragrafo nel seguente
teorema.
Teorema 2.13. Consideriamo un endomorfismo f : Rn Rn di spettro Specf =
{1 , . . . , r }, e sia A la matrice associata ad f rispetto ad una base qualsiasi. Sono
equivalenti le seguenti condizioni:

2.3 AUTOVALORI ED AUTOVETTORI

43

(i) Lendomorfismo f determina una base formata da autovettori.


(ii) La matrice A `e diagonalizzabile.
(iii) Gli autovalori i di f sono tutti regolari.
(iv) Lo spazio Rn `e somma diretta dei suoi autospazi, ovvero:
n

R =

r
M

Ei (f )

i=1

Lequivalenza delle condizioni (i) e (ii) corrisponde al Teorema 2.7. Lequivalenza


delle condizioni (ii) e (iii) corrisponde invece al Teorema 2.12. La condizione (iv)
equivale a dire che lunione delle basi di tutti gli autospazi fornisce un insieme di n
vettori, i quali, per il Teorema 2.10, sono linearmente indipendenti, e quindi formano
una base di Rn . Ci`o equivale a dire che f `e diagonalizzabile, cio`e la condizione (i).
4. Dalla condizione (iv) del Teorema 2.13 (o direttamente dal Teorema 2.10), abbiamo
in particolare che lintersezione di autospazi distinti si riduce al solo vettore nullo.
5. Calcoliamo autovalori ed autovettori della matrice

0 6 0
A= 1 0 1
1 0 1
e studiamo la sua diagonalizzabilit`a .
Determiniamo innanzitutto il polinomio caratteristico e, da questo, gli autovalori.

t 6
0

1
A (t) = det(A tI3 ) = 1 t
1
0 1t

= t(t 3)(t + 2).

Pertanto, SpecA = {0, 3, 2}. Gli autovalori sono distinti, quindi regolari (cfr.
Osservazione 1 a pagina 42), per cui A `e diagonalizzabile. Calcoliamo gli autovettori.
Per = 0 abbiamo
Av = 0v
ovvero

La soluzione `e

6y = 0
x+z =0

x + z = 0.

1
a 0
1

`
SIMILITUDINE E DIAGONALIZZABILITA

44

per ogni a 6= 0. Procedendo analogamente, in corrispondenza di = 2 e = 3


troviamo


3
2
b 1 , c 1 ,
1
1
con b, c R diversi da zero. Ogni matrice P , avente come colonne i vettori ottenuti
assumendo a, b, c 6= 0 nelle precedenti soluzioni, pu`o essere considerata la matrice di
passaggio che permette di diagonalizzare la matrice A. Si ha cio`e
P 1 AP = diag(0, 2, 3).
Si pu`o ottenere una matrice di passaggio P anche cambiando lordine in cui gli
autovettori compaiono come colonne di P . Questo si ribalta sullanalogo cambio
dellordine con cui gli autovalori compaiono sulla diagonale di P 1 AP .
6. Determiniamo lo spettro dellendomorfismo di R3 definito da
f ([x, y, z]t ) = [x + y, x + z, y + z]t .
Abbiamo visto che gli autovalori di un endomorfismo f non sono altro che quelli
della sua matrice rappresentativa Af . Dobbiamo solo determinare Af e ricavarne il
polinomio caratteristico. Siccome

1 1 0
Af = 1 0 1 ,
0 1 1
otteniamo
A (t) = f (t) = det(A tI3 ) = (1 t)(t 2)(t + 1).
Quindi Specf = {2, 1, 1}. Notiamo che f `e certamente diagonalizzabile, perche
ha autovalori distinti, quindi regolari.

2.4

ENDOMORFISMI SIMMETRICI

Riferendoci allOsservazione 2 di pagina 42, vogliamo ora studiare pi`


u dettagliatamente il problema della diagonalizzazione di una simmetria assiale f : R2 R2 , andando
innanzitutto a vedere come sono fatte la matrici ACC (f ) associate a tali endomorfismi1 .
Consideriamo il vettore v = [, ]t , e sia f (v) = [0 , 0 ]t . Se poniamo

a11 a12
C
AC (f ) =
a21 a22
abbiamo allora
1

Ci `e sembrato utile presentare largomento in questa maniera, anche se non `e ancora stata trattata
la Geometria Analitica. Pensiamo di poter ritenere note le principali formule valide nel piano xy, ampiamente considerate nella scuola media superiore. Comunque, per avere una descrizione precisa delle
nozioni utilizzate in questo paragrafo, rinviamo al volume APPUNTI DI GEOMETRIA: GEOMETRIA
ANALITICA.

2.4 ENDOMORFISMI SIMMETRICI

a11 a12
a21 a22

45

0
0

Possiamo determinare 0 e 0 in funzione di e osservando innanzitutto, che v f (v)


deve essere parallelo ad r .
y

v
r

r
-f(v)

r
O

x
f(v)

Figura 2.2: rappresentazione qualitativa dellazione di una simmetria assiale in R2 .


Pertanto si ha
0
1
= .
0
m
Inoltre il punto medio del segmento che congiunge gli estremi di v e di f (v) appartiene
+ 0
ad r, il che si traduce analiticamente sostituendo, nellequazione di r,
al posto di
2
0
+
xe
al posto di y. Abbiamo pertanto
2
+ 0
+ 0
=m
.
2
2
Otteniamo quindi il sistema di due equazioni, nelle due incognite 0 e 0 , dato da
0
1

0 = m

0
0

+ = m + .
2
2
Risolvendo si ottiene

0 =

1m2

1+m2
2m

1+m2

2m

1+m2
1m2

1+m2

ACC (f ) =

1m2
1+m2

2m
1+m2

2m
1+m2

2
1m
1+m2

(2.4.1)

In particolare ricaviamo che la simmetria rispetto ad una qualsiasi retta passante per
lorigine `e rappresentata da una matrice simmetrica (2, 2), cio`e una matrice A tale che

`
SIMILITUDINE E DIAGONALIZZABILITA

46

At = A. Come conseguenza si pone in maniera naturale il seguente problema. Sia A


una generica matrice simmetrica di ordine 2, che non sia del tipo (2.4.1). Allora A non
rappresenta alcuna simmetria assiale rispetto a rette passanti per lorigine. Possiamo per`o
ancora dire che lendomorfismo associato a questa matrice `e diagonalizzabile?
La risposta `e affermativa, come precisato nel seguente teorema.
Teorema 2.14. Ogni matrice simmetrica A di tipo (2, 2) ha autovalori reali, ed `e sempre
diagonalizzabile.
-Dimostrazione.
ordine 2

a b
A=
b c

Calcoliamo gli autovalori di una generica matrice simmetrica A di

A () = (a )(c ) b2 = 2 (a + c) + ac b2 .

Risolvendo lequazione caratteristica A () = 0 otteniamo le seguenti soluzioni


p
(a c)2 + 4b2
=
.
(2.4.2)
2
Osserviamo che, per ogni scelta di a, b, c, abbiamo 4 0, e quindi A ammette sempre
autovalori reali. Se a 6= c gli autovalori sono distinti e quindi A (o lendomorfismo da essa
rappresentato) `e diagonalizzabile. Se a = c e b = 0 abbiamo lautovalore doppio = c.
Ma in questo caso risulta
a+c

c 0
A=
0 c

0 0
A cI =
.
0 0

Di conseguenza, la molteplicit`a geometrica di = c, risulta n rk(A cI) = 2 0 = 2, e


coincide con la molteplicit`a algebrica. Quindi anche in questo caso A `e diagonalizzabile.
Osservazioni ed esempi.
1. Supponiamo che una retta r formi langolo con lasse x. Allora m = tan , da cui
si ha
(

2m
1+m2
1m2
1+m2

= sin 2
= cos 2.

Quindi possiamo anche scrivere la (2.4.1) nella maniera seguente

0 = (cos 2) + (sin 2)
0 = (sin 2) (cos 2)

ACC (f )

cos 2 sin 2
=
.
sin 2 cos 2

(2.4.3)

2.4 ENDOMORFISMI SIMMETRICI

47

2. Il caso a = c e b = 0, descritto nella dimostrazione del Teorema 2.14 rappresenta


una situazione degenere, nella quale ogni vettore `e un autovettore.
3. Determiniamo lequazione della simmetria piana rispetto alla retta r : y = 2x. In
questo caso m = 2, e quindi
ACC (f )

3
5
=
45

45

3
5

Le equazioni della simmetria cercata sono allora date da


(
x0 = 53 x 45 y
y 0 = 45 x + 35 y.
4. Un endomorfismo che, rispetto ad una data base, viene rappresentato da una matrice
simmetrica prende il nome di endomorfismo simmetrico. Come abbiamo visto, le
simmetrie assiali del piano R2 sono esempi di endomorfismi simmetrici.

2.4.1

Il Teorema Spettrale nel piano

Abbiamo visto che gli autovalori associati alla simmetria rispetto ad una retta r passante
per lorigine sono sempre = 1 e = 1. Inoltre, i rispettivi autospazi sono rappresentati
da r e da r . Possiamo allora chiederci cosa possiamo dire relativamente agli autospazi
associati ad un generico endomorfismo simmetrico (cfr. Osservazione 4 precedente). Per
studiare il problema `e utile introdurre la nozione di prodotto scalare in R2 . Dati due
vettori di R2 , u = [u1 , u2 ]t e v = [v1 , v2 ]t . Il loro prodotto scalare `e definito nella maniera
seguente

hu, vi = u v = [u1 , u2 ]

v1
v2

= u1 v1 + u2 v2 .

(2.4.4)

In particolare possiamo considerare il prodotto scalare tra un vettore u R2 e se stesso.


Si ha in tal caso un numero reale non negativo (positivo se u 6= 0). La radice quadrata
di questo numero prende il nome di norma del vettore u, e si indica con il simbolo kuk.
Abbiamo pertanto
kuk =

hu, ui =

ut u.

(2.4.5)

Supponiamo che entrambi i vettori siano non nulli. Essi vengono detti vettori ortogonali se
hu, vi = 0.

(2.4.6)

Limportanza della nozione di ortogonalit`a `e quantificata nel teorema seguente, noto come
Teorema Spettrale.

`
SIMILITUDINE E DIAGONALIZZABILITA

48

Teorema 2.15. Sia f : R2 R2 un endomorfismo simmetrico. Allora f ha autovalori


reali, `e diagonalizzabile, e scompone R2 come somma diretta di autospazi ortogonali
R2 = E1 E2 .
-Dimostrazione. Poiche f `e un endomorfismo simmetrico, esso `e rappresentato da
una matrice reale simmetrica A, di tipo (2, 2). Sia essa data da

a b
A=
.
b c
Per il Teorema 2.14, f ha autovalori reali ed `e diagonalizzabile. Per il Teorema 2.13, f
scompone R2 come somma diretta di autospazi. Resta da dimostrare che gli autospazi
sono tra loro ortogonali. A questo proposito determiniamo esplicitamente gli autospazi
associati allendomorfismo. Siano 1 , 2 gli autovalori di A (cfr. Formula (2.4.2)). Per 1
abbiamo


a 1
b
x
0
=
b
c 1
y
0
(a 1 )x + by = 0 y =

1 a
b x

Quindi, lautospazio associato a 1 `e dato da


1
E1 = x 1 a , x R
b

ed una sua base, per esempio, `e data da

B1 =

b
1 a

Procedendo in maniera analoga troviamo che lautospazio associato a 2 ammette una


base data da

b
B2 =
.
2 a
Indichiamo con v1 e v2 i vettori che formano, rispettivamente, la base B1 e B2 . Abbiamo
allora
hv1 , v2 i = b2 + (1 a)(2 a) = a2 + b2 + 1 2 a(1 + 2 ).
Dai teoremi 2.5 ed 2.6 otteniamo
1 + 2 = a + c
1 2 = ac b2 ,
e quindi hv1 , v2 i = a2 + b2 + ac b2 a(a + c) = 0. Pertanto v1 `e ortogonale a v2 .

Il Teorema 2.15 mette in evidenza che, come gi`a visto per le simmetrie rispetto a rette passanti per lorigine, anche gli endomorfismi rappresentati da una generica matrice
simmetrica (2, 2) ammettono autospazi ortogonali. Linterpretazione geometrica di questi

2.4 ENDOMORFISMI SIMMETRICI

49

endomorfismi `e pertanto identica a quella delle simmetrie assiali, come viene anche chiarito
nellOsservazione 1 seguente.
Osservazioni ed esempi.
1. Possiamo dare alla formula (2.4.6) un preciso significato geometrico. Se m1 = xy11
ed m2 = xy22 (x1 , x2 6= 0) sono i coefficienti angolari delle rette parallele a v e w,
otteniamo
hv, wi = 0

1 + m1 m2 = 0.

(2.4.7)

Pertanto, lannullarsi del prodotto scalare hv, wi esprime la nota condizione di ortogonalit`a tra le rette che contengono i vettori v e w. Questo resta chiaramente vero
anche quando v = [a, 0] e w = [0, b], con a, b numeri reali qualsiasi. In particolare,
la formula (2.4.6) `e valida anche quando v `e il vettore nullo. In tal caso ogni vettore
w R2 `e ortogonale a v.
2. Matrici ortogonali. Dal Teorema 2.15 si deduce in particolare che ogni matrice
simmetrica A, di tipo (2, 2), pu`o essere diagonalizzata mediante una matrice di
passaggio P le cui due colonne sono ortogonali tra loro. Tra le varie scelte di P
possiamo selezionare quella avente per colonne vettori di lunghezza unitaria, cio`e
versori . Per fare questo basta dividere ogni colonna per la lunghezza del vettore
corrispondente. Si ottiene cos` una matrice di passaggio M , le cui colonne, oltre
ad essere ortogonali tra loro, hanno anche lunghezza unitaria. Una tale matrice si
dice matrice ortogonale. Possiamo allora esprimere il Teorema 2.15 dicendo che una
matrice simmetrica A di tipo (2, 2) `e sempre diagonalizzabile con una matrice di
passaggio ortogonale, cio`e che A `e ortogonalmente simile ad una matrice diagonale.
3. Matrici simmetriche e prodotto scalare. Sia A una matrice simmetrica di tipo
(2, 2) data da

a b
A=
.
b c
Siano v = [v1 , v2 ]t e w = [w1 , w2 ]t due vettori di R2 . Abbiamo allora

a b
v1
av1 + bv2
Av =
=
,
b c
v2
bv1 + cv2

a b
w1
aw1 + bw2
Aw =
=
.
b c
w2
bw1 + cw2

Pertanto risulta

hAv, wi = (av1 + bv2 )w1 + (bv1 + cv2 )w2 =


= v1 (aw1 + bw2 ) + v2 (bw1 + cw2 ) = hv, Awi.

(2.4.8)

`
SIMILITUDINE E DIAGONALIZZABILITA

50

4. Sfruttando la formula (2.4.8) possiamo dimostrare che gli autovettori di una matrice
simmetrica A di tipo (2, 2) sono ortogonali tra loro, in maniera diversa da quella
considerata nella dimostrazione del Teorema 2.15. Siano infatti 1 , 2 gli autovalori
distinti di A, e v1 , v2 i due autovettori ad essi rispettivamente associati. Abbiamo
allora
1 hv1 , v2 i = h1 v1 , v2 i = hAv1 , v2 i = hv1 , Av2 i = hv1 , 2 v2 i = 2 hv1 , v2 i.
Pertanto (1 2 )hv1 , v2 i = 0, ed essendo 1 6= 2 , ricaviamo hv1 , v2 i = 0.
5. Sia C = {i, j} la base canonica di R2 . La formula (2.4.5) non `e altro che il Teorema
di Pitagora applicato al triangolo rettangolo avente u = [u1 , u2 ]t come ipotenusa e i
vettori u1 i ed u2 j come cateti. Pertanto, geometricamente, la norma di un vettore
coincide con la sua lunghezza.

2.4.2

Classificazione delle matrici ortogonali di ordine 2

Cerchiamo di classificare le matrici ortogonali di ordine 2 partendo dal fatto che le loro
due colonne devono essere ortogonali tra loro e di norma unitaria (cfr. Osservazione 2
a pagina 49). Indichiamo con v1 = [x1 , y1 ]t il versore le cui componenti costituiscono
la prima colonna, e con v2 = [x2 , y2 ]t quello le cui componenti costituiscono la seconda
colonna. Se v1 forma un angolo (percorso in senso antiorario) con lasse x, deve essere
x1 = kv1 k cos = cos ,
y1 = kv1 k sin = sin .
Poiche v2 `e ortogonale a v1 , langolo formato da v2 con lasse x `e uguale a
3
2 + . Risulta pertanto

x2 = kv2 k cos 2 + = sin ,


y2 = kv2 k sin 2 + = cos ,

+ , oppure

nel primo caso, e

x2 = kv2 k cos 32 + = sin ,


y2 = kv2 k sin 32 + = cos ,
nel secondo caso. Le corrispondenti matrici risultano

cos sin
M1 =
,
sin cos

cos sin
M1 =
,
sin cos

(2.4.9)
(2.4.10)

con variabile in [0, 2]. Esse hanno determinante uguale ad 1 e 1 rispettivamente. Ci`o
fornisce una classificazione completa delle matrici ortogonali del secondo ordine.

2.4 ENDOMORFISMI SIMMETRICI


Una delle principali propriet`a delle matrici ortogonali `e data dal fatto che M 1 =
come si pu`o facilmente verificare direttamente. In particolare, se A `e una matrice
simmetrica, il fatto che essa sia ortogonalmente simile ad una matrice diagonale D si
esprime attraverso la formula M t AM = D, molto utile negli esercizi.

M t,

Significato geometrico
Consideriamo una matrice ortogonale di tipo (2.4.9), il cui determinante `e uguale ad 1,
e sia f : R2 R2 lapplicazione lineare rappresentata da ACC (f ) = M1 rispetto alla base
canonica. Abbiamo allora

x
x
x cos y sin
C
f
= AC (f )
=
.
y
y
x sin + y cos
Osserviamo che
v
u* t +
u

x
x
x
f
=t f
,f
=

y
y
y

p
p
x
2
2
2
2

= (x cos y sin ) + (x sin + y cos ) = x + y =


y .
Lapplicazione lineare f conserva pertanto le lunghezze dei vettori, e quindi rappresenta
una rotazione (in senso antiorario) intorno allorigine.
Consideriamo ora una matrice di tipo (2.4.10), avente determinante uguale a 1, e sia
f : R2 R2 lapplicazione lineare avente ACC (f ) = M1 come matrice associata rispetto
alla base canonica. Confrontando con la matrice (2.4.3) deduciamo che f rappresenta la
simmetria assiale rispetto alla retta che passa per lorigine e che forma un angolo uguale

a
con lasse x.
2
Osservazioni ed esempi.
1. Le matrici ortogonali con determinante uguale ad 1 vengono anche dette matrici
ortogonali speciali. Il prodotto di due tali matrici `e ancora una matrice ortogonale
speciale, ma possiamo ottenere una matrice ortogonale speciale anche moltiplicando
due matrici di tipo (2.4.10). Geometricamente questo corrisponde a costruire una
rotazione mediante prodotto di simmetrie assiali rispetto a due rette secanti.
2. Determiniamo la matrice corrispondente al cambio di base descritto da una rotazione

oraria di nello spazio vettoriale canonico R2 .


2

Se applichiamo la rotazione oraria di alla base canonica di R2 , otteniamo la base


2
formata da [0, 1]t ed [1, 0]t
Assumiamo quindi

B1 = C =

1
0


0
0
1
,
, B2 =
,
.
1
1
0

51

`
SIMILITUDINE E DIAGONALIZZABILITA

52
y
6
1
6

y
6
-

?
1

Figura 2.3: rotazione oraria della base canonica.

Dalla formula (1.2.7) si ricava che la matrice richiesta risulta

[B2 ]

[B1 ] = [B2 ]

I = [B2 ]

0 1
1 0

Questa coincide con la matrice (2.4.9) per = , che, come si `e visto, esprime una
2
rotazione antioraria intorno allorigine. Ci`o mette in evidenza che una rotazione in
senso orario di una base, secondo un certo angolo , si traduce nella rotazione in
senso antiorario, dello stesso angolo , sui singoli vettori del piano.
Per esempio, se applichiamo la matrice di cambio base precedentemente ottenuta al
vettore v = [2, 4]t , abbiamo (Fig. 2.4)

w=

0 1
1 0

2
4

4
2

y
6
v
M
)
w

Figura 2.4: rotazione antioraria di v su w.


Il vettore w viene in effetti ottenuto applicando al vettore v attraverso una rotazione

di angolo = in senso antiorario.


2

2.4.3

Endomorfismi simmetrici in dimensione superiore

Con il Teorema 2.15 abbiamo una completa descrizione del comportamento di un endomorfismo f : R2 R2 dal punto di vista della diagonalizzazione. Ci possiamo ora chiedere che

2.4 ENDOMORFISMI SIMMETRICI

53

cosa succede se saliamo con la dimensione, cio`e se consideriamo endomorfismi simmetrici


f : Rn Rn . Essi sono rappresentati da matrici simmetriche di ordine n.
Senza entrare nei dettagli della trattazione, possiamo dire che tutti i risultati ottenuti per
n = 2 si estendono in generale. Vediamo brevemente le questioni principali.
Generalizzazione del prodotto scalare.
La nozione di prodotto scalare si pu`o estendere ad Rn con n > 2, nella maniera seguente.
Siano u, v Rn , con:

u1
v1

u = ... , v = ... .
un

vn

Allora, il prodotto scalare tra u e v `e definito dalla seguente formula, che generalizza la
(2.4.4)
t

hu, vi = u v =

n
X

ui vi = u1 v1 + u2 v2 + + un vn .

(2.4.11)

i=1

In questa estensione il prodotto scalare conserva le principali caratteristiche gi`a possedute


per n = 2. Abbiamo in particolare le seguenti propriet`a
Il prodotto scalare `e distributivo rispetto alla somma, cio`e, dati a, b, c Rn , risulta
ha, b + ci = ha, bi + ha, ci.
I vettori u, v si dicono vettori normali o vettori ortogonali, se e solo se hu, vi = 0.
Il prodotto scalare di un vettore x Rn con se stesso si dice norma del vettore, e si
indica con kxk. Abbiamo allora
v
u n

uX
t
x2i .
kxk = x x = t
(2.4.12)
i=1

Un insieme di vettori si dice sistema ortonormale se ogni coppia di vettori dellinsieme


`e ortogonale, ed ogni vettore ha norma unitaria.
Osservazioni ed esempi.
1. Il significato geometrico dellannullamento del prodotto scalare `e identico a quello
descritto per n = 2, cio`e, nel piano determinato dai due vettori, le rette che li
contengono sono perpendicolari.
2. La norma di un vettore estende ad Rn il concetto di lunghezza. Se la norma `e uguale
ad 1 il vettore prende ancora il nome di versore.
3. In R3 si pu`o scrivere u = xu i + yu j + zu k, e v = xv i + yv j + zv k, essendo i, j, k la
base canonica. La formula (2.4.11) fornisce allora
hu, vi = xu xv + yu yv + zu zv .

`
SIMILITUDINE E DIAGONALIZZABILITA

54

4. Siano U e V due sottospazi di Rn . Se hu, vi = 0 per ogni u U e per ogni v V,


allora U e V si dicono sottospazi ortogonali.

Generalizzazione delle matrici ortogonali.


Nellinsieme Mn (R) delle matrici quadrate di ordine n, diciamo che una matrice M `e una
matrice ortogonale, se vale una delle seguenti propriet`a:
M M t = In ,
M t M = In .
In particolare, linversa di una matrice ortogonale coincide con la sua trasposta.
Generalizzando la classificazione ottenuta per n = 2 si pu`o dimostrare che una matrice
di tipo (n, n) `e ortogonale se e solo se le righe o le colonne formano un sistema di vettori
ortonormale. Le applicazioni lineari f : Rn Rn descritte da matrici ortogonali vengono
dette trasformazioni ortogonali. In tal caso, per ogni x Rn , possiamo scrivere f (x) =
M x, e quindi abbiamo
kf (x)k = (M x)t M x = xt M t M x = xt In x = xt x = kxk.
Pertanto, le applicazioni lineari aventi matrice associata ortogonale conservano sempre la
norma. Di conseguenza possiamo dare a queste applicazioni lineari significati geometrici
analoghi a quelli visti per n = 2, anche se le propriet`a coinvolte sono pi`
u delicate da
trattare.
Osservazioni ed esempi.
1. Non `e necessario richiedere contemporaneamente la validit`
a di entrambe le condizioni
(i) e (ii). Una segue dallaltra.
2. Per il Teorema di Binet abbiamo
det(M M t ) = det M det M t = (det M )2 = 1. det M = 1.
Quindi, le matrici ortogonali si dividono in due insiemi, quelle di determinante +1
e quelle di determinante 1. Questi insiemi vengono indicati, rispettivamente, con
On+ (R) e On (R), mentre la loro unione, ovvero linsieme di tutte le matrici ortogonali
di un dato ordine, `e On (R).
3. Si noti che matrici con determinante 1 non `e detto che siano ortogonali.
4. Le matrici appartenenti ad On+ (R) vengono dette matrici ortogonali speciali, come
nel caso n = 2.

2.4 ENDOMORFISMI SIMMETRICI

2.4.4

55

Ortonormalizzazione di Gram-Schmidt

vi
per
kvi k
ogni i = 1, ..., n `e sempre possibile pensare che la base sia formata da versori. Non `e
detto per`o che questi formino un sistema ortonormale. Infatti, presi due qualsiasi vettori
vi , vj B, il loro prodotto scalare `e in generale diverso da zero. Tuttavia, esiste un
procedimento canonico che, a partire dai vettori di B, consente di costruire una base
ortonormale, costituita cio`e da vettori di norma unitaria e ortogonali a due a due. Essi
sono i vettori w1 , ..., wn ottenuti nella maniera seguente
Sia B = {v1 , ..., vn } una base di Rn . Sostituendo eventualmente vi con vi0 =

v1
,
kv1 k
v2 hv2 , w1 iw1
w2 =
,
kv2 hv2 , w1 iw1 k
v3 [hv3 , w1 iw1 + hv3 , w2 iw2 ]
w3 =
,
kv3 [hv3 , w1 iw1 + hv3 , w2 iw2 ]k
w1 =

(2.4.13)

...
wn =

vn [hvn , w1 iw1 + hvn , w2 iw2 + ... + hvn , wn1 iwn1 ]


.
kvn [hvn , w1 iw1 + hvn , w2 iw2 + ... + hvn , wn1 iwn1 ]k

` immediato osservare che questi vettori sono tutti versori. Il fatto che siano a due a due
E
ortogonali deriva invece dalla distributivit`a del prodotto scalare rispetto alla somma.
Osservazioni ed esempi.
1. Il procedimento descritto dalle formule (2.4.13) prende il nome di ortonormalizzazione di Gram-Schmidt.
2. Verifichiamo, a titolo di esempio, che i vettori w1 , w2 costruiti con le (2.4.13) sono
tra loro ortogonali. Abbiamo infatti

v2 hv2 , w1 iw1
v1
,
=
hw1 , w2 i =
kv1 k kv2 hv2 ,Dw1 iw1 k E D
E
v1
v1
v
,
v
,
2
1
kv1 k
kv1 k
hv1 , v2 i
=

.
kv1 kkv2 hv2 , w1 iw1 k kv1 kkv2 hv2 , w1 iw1 k

Osserviamo che

v1
v1
v1
hv2 , v1 i
v2 ,
v1 ,
= v2 ,
kv1 k =
kkv1 k = hv2 , v1 i ,
kv1 k
kv1 k
kv1 k
kv1 k
e quindi hw1 , w2 i = 0. In maniera analoga si verifica che hwi , wj i = 0 per ogni
i, j {1, ..., n}, i 6= j.

`
SIMILITUDINE E DIAGONALIZZABILITA

56

3. Consideriamo la base B di R3 formata dai seguenti vettori

1
v1 = 1 ,
2

1
v2 = 3 ,
2

1
v3 = 1 .
1

I vettori v1 e v2 sono ortogonali, essendo hv1 , v2 i = 0, mentre invece abbiamo


hv1 , v3 i = 2 e hv2 , v3 i = 4. Quindi B non `e una base ortonormale. Procediamo
allora con il metodo di ortonormalizzazione di Gram-Schmidt per costruire una base
ortonormale. Abbiamo allora

1
6

v1

w1 =
= 16
kv1 k

2
6

v2 hv2 , w1 iw1
v2 0

w2 =
=
=

kv2 hv2 , w1 iw1 k


kv2 k

114
3
14

2
14

v3 31 v1 72 v2
v3 [hv3 , w1 iw1 + hv3 , w2 iw2 ]

w3 =
=
=
1
2
kv3 [hv3 , w1 iw1 + hv3 , w2 iw2 ]k
kkv3 3 v1 7 v2 kk

4
21
2
21

1
21

Linsieme {w1 , w2 , w3 } `e una base ortonormale.


4. Si noti che, per ogni i {1, ..., n} i vettori wi dipendono linearmente dai vettori
v1 , ..., vi . Possiamo cio`e scrivere
wi = i1 v1 + i2 v2 + ... + ii vi ,
dove gli ij , i, j {1, ..., n}, sono i numeri reali descritti dai coefficienti dei vettori
v1 , v2 , ..., vn nelle (2.4.13).
5. Sia f : Rn Rn un endomorfismo, e sia E lautospazio associato ad un autovalore .
Se dim E = h, allora esiste una base {v1 , v2 , ..., vh } di E formata da h autovettori
di f . Tale base in generale non `e ortonormale, ma, mediante il procedimento di
ortonormalizzazione di Gram-Schmidt, si ottiene una nuova base {w1 , w2 , ..., wh } di
E , nella quale i vettori sono a due a due ortogonali, e ovviamente restano autovettori
di f .

2.4 ENDOMORFISMI SIMMETRICI

57

Il Teorema Spettrale generalizzato.


Sia A = At una matrice simmetrica reale, di ordine n. Generalizzando il Teorema 2.14
si pu`o dimostrare che A possiede autovalori tutti reali (non necessariamente distinti), per
ognuno dei quali la molteplicit`a algebrica coincide con la molteplicit`a geometrica. Pertanto
` inoltre possibile estendere la formula ottenuta nellOsservazione 3
A `e diagonalizzabile. E
a pagina 49, cio`e vale la seguente propriet`a
hAv, wi = hv, Awi.

(2.4.14)

Questo consente di dimostrare che gli autospazi di una generica matrice simmetrica sono
sottospazi a due a due ortogonali (cfr. Osservazione 4 a pag. 54).
Teorema 2.16. Gli autospazi associati ad autovalori distinti di una matrice reale simmetrica A sono ortogonali tra loro.
-Dimostrazione. Consideriamo gli autospazi Ei ed Ej associati a due autovalori i
e j , tra loro distinti. Siano v, w due qualsiasi autovettori tali che v Ei e w Ej .
Abbiamo allora
i hv, wi = hi v, wi = hAv, wi.
Per la (2.4.14) abbiamo hAv, wi = hv, Awi, e quindi possiamo scrivere
i hv, wi = hv, Awi = hv, j wi = j hv, wi.
Pertanto risulta (i j )hv, wi = 0, ed essendo i 6= j , ricaviamo che hv, wi = 0.
Ci`o implica che ogni vettore di un autospazio `e ortogonale a tutti i vettori di ogni altro

autospazio, cio`e che gli autospazi sono a due a due ortogonali.


Possiamo riassumere queste considerazioni nel teorema seguente, che generalizza il
Teorema 2.15 al caso di un endomorfismo simmetrico di Rn .
Teorema 2.17. Sia f : Rn Rn un endomorfismo simmetrico. Allora f ha autovalori
reali, `e diagonalizzabile e scompone Rn come somma diretta di autospazi a due a due
ortogonali
Rn = E1 E2 ... Eh .
Esiste inoltre una base ortonormale di Rn interamente costituita da autovettori.
-Dimostrazione. Poiche f `e un endomorfismo simmetrico, esso `e rappresentato da
una matrice reale simmetrica A, di tipo (n, n). Quindi f ha autovalori tutti reali ed `e
diagonalizzabile. Per il Teorema 2.13, f scompone Rn come somma diretta di autospazi
Rn = E1 E2 ... Eh .
Gli autospazi sono a due a due ortogonali per il Teorema 2.16. Applicando poi il procedimento descritto nel Paragrafo 2.4.4 possiamo trasformare la base di ogni autospazio Ei in
una base ortonormale, che, per lOsservazione 5 a pagina 56, resta una base di autovettori.
Pertanto, dopo questo procedimento, la matrice di passaggio che diagonalizza la matrice A

`
SIMILITUDINE E DIAGONALIZZABILITA

58

diventa una matrice ortogonale M , e le sue colonne rappresentano una base ortonormale
di Rn .

Osservazioni ed esempi.
1. Diagonalizzazione di simmetrie piane. Sia f : R3 R3 lendomorfismo dato
da

x
x
f y = y .
z
z

In questo caso lendomorfismo rappresenta geometricamente la simmetria rispetto al


piano xy.
z

O
x

f(v)

Figura 2.5: simmetria rispetto al piano xy.


` facile vedere che ogni vettore w appartenente al piano xy viene mutato in se stesE
so, cio`e f (w) = w, e quindi f ammette lautovalore = 1. Questo autovalore deve
avere molteplicit`a algebrica almeno 2, in quanto lautospazio associato `e il piano xy,
e quindi la molteplicit`a geometrica di = 1, cio`e la dimensione di E1 , `e uguale a
2. Osserviamo poi che ogni vettore r appartenente allasse z viene trasformato nel
vettore opposto, cio`e f (r) = r, e quindi f ammette anche lautovalore = 1.
Poiche la somma delle molteplicit`a algebriche degli autovalori deve essere uguale alla
dimensione dellintero spazio, se ne deduce che la molteplicit`a algebrica dellautovalore = 1 `e proprio uguale a 2, mentre quella dellautovalore = 1 `e uguale
a 1. Di conseguenza, per ogni autovalore la molteplicit`a algebrica coincide con la
molteplicit`a geometrica, e quindi f `e effettivamente diagonalizzabile.
2. Costruzione della matrice ortogonale di passaggio. Data una matrice simmetrica A esiste sempre una matrice ortogonale M tale che M t AM = D, essendo D la
matrice diagonale avente per elementi principali gli autovalori. Si potrebbe pensare
che per costruire M sia sufficiente normalizzare i singoli autovettori di A. Tuttavia,
se consideriamo la dimostrazione del Teorema 2.17, ci rendiamo conto che in questa

2.4 ENDOMORFISMI SIMMETRICI

59

maniera si ottiene solamente la matrice P avente come colonne le basi dei singoli
autospazi, prima che a queste venga applicato il procedimento di ortonormalizzazione di Gram-Schmidt. Pertanto, in generale, la matrice P non `e ortogonale, in
quanto non `e detto che le singole basi degli autospazi siano gi`a basi ortonormali. Per
ottenere M bisogna quindi applicare le formule (2.4.13) allinsieme degli autovettori
associati ad ogni singolo autovalore.
Pu`o comunque capitare che la matrice P coincida gi`a con la matrice M (si veda
lEsempio 3 successivo). Questo avviene sicuramente se tutti gli autovalori sono
semplici. In tal caso infatti ad ogni autovalore corrisponde un autospazio di dimensione 1, e quindi il Teorema 2.16 garantisce che la matrice M viene ottenuta
semplicemente normalizzando gli autovettori.
3. Consideriamo la seguente matrice

0 0 1
A = 0 1 0 .
1 0 0
Essendo det[A I] = (1 )(2 1), abbiamo un autovalore semplice = 1 ed
un autovalore doppio = 1. Per = 1 risulta


1 0 1
a
0
0 0 0 b = 0 a = c b.
1 0 1
c
0
Pertanto, allautovalore = 1 restano associati i due autovettori indipendenti dati
da

1
v1 = 0 ,
1

0
v2 = 1 ,
0

ai quali corrisponde lautospazio E1 = {av1 + bv2 |a, b R}.


Per = 1 risulta


1 0 1 a
0
0 0 0 b = 0 a = c b = 0.
1 0 1
c
0
Pertanto, allautovalore = 1 resta associato il solo autovettore

1
v3 = 0 ,
1
al quale corrisponde lautospazio E3 = {av3 |a R}.

`
SIMILITUDINE E DIAGONALIZZABILITA

60

Si noti che i vettori v1 , v2 , v3 sono gi`a a due a due ortogonali. Pertanto, la base ortonormale di autovettori si ottiene semplicemente normalizzando v1 , v2 , v3 , e quindi
`e data da

2
2

b1 = 0 ,
v


22

b3 = 0 .
v

b2 = v2 ,
v

2
2

2
2

Otteniamo allora

2
2

M t AM = 0
22

1 0 0
0 22

1 0 = 0 1 0 .
2
0 0 1
0
2

2
0 1
2
0 0 1 0 0

2
2
1 0 0

0
1
0

2
2 0
2

4. Determiniamo una base ortonormale di autovettori per lendomorfismo simmetrico


f : R3 R3 rappresentato dalla seguente matrice

0 1 1
A = 1 0 0 .
1 1 0
Essendo det[A I] = (2 )( + 1)2 , abbiamo un autovalore semplice = 2 ed un
autovalore doppio = 1. Per = 2 risulta


2 1
1
a
0
1 2 1 b = 0 a = b = c.
1
1 2
c
0
Pertanto, allautovalore = 2 resta associato il solo autovettore

1
v1 = 1 ,
1
al quale corrisponde lautospazio E1 = {av1 |a R}.
Per = 1 risulta invece


1 1 1 a
0
1 1 1 b = 0 a = b = c.
1 1 1
c
0
Pertanto, allautovalore = 1 restano associati i due autovettori indipendenti dati
da

1
v2 = 1 ,
0

1
v3 = 0 ,
1

2.4 ENDOMORFISMI SIMMETRICI

61

ai quali corrisponde lautospazio E2 = {av1 + bv2 |a, b R}.


Si noti che v1 `e ortogonale sia a v2 che a v3 , ma i vettori v2 , v3 non sono ortogonali tra
loro. Pertanto in questo caso, per ottenere la matrice ortogonale M che diagonalizza
A, dobbiamo prima ortonormalizzare la base v2 , v3 di E2 . Applicando le formule
(2.4.13) otteniamo

v2

v2

=
kv2 k

22
2
2

v3

v3 hv3 , w1 iw1

=
kv3 hv3 , w1 iw1 k

12 32
q
1
3
2q 2

3
2

Aggiungendo a questi due versori quello ottenuto normalizzando v1 ricaviamo la


base ortonormale cercata.
5. Le considerazioni svolte possono essere estese anche ad endomorfismi f definiti su
spazi non canonici, nel caso in cui questi siano rappresentati, rispetto ad una data
base, da una matrice simmetrica. Il significato `e determinato da quanto si `e visto
nel Paragrafo 1.1.4.
Per esempio, sia V = P ol3 (x) lo spazio dei polinomi in x di grado n 3 a coefficienti
reali, e sia f : P ol3 (x) P ol3 (x) lapplicazione lineare data da:
f (ax3 + bx2 + cx + d) = ax3 + cx2 + bx + d.
Stabiliamo se f e diagonalizzabile.
Sia cV : P ol3 (x) R4 lisomorfismo canonico dato da

a

cV (ax3 + bx2 + cx + d) =
c .
d
4
Sia F = c1
V f cV lapplicazione canonica indotta da f sullo spazio canonico R . La
matrice che rappresenta F rispetto alla base canonica e

1
0
C
AC (F ) =
0
0

0
0
1
0

0
1
0
0

0
0
.
0
1

La matrice ACC (F ) e simmetrica. Cio implica che F , e quindi anche f , e diagonalizzabile.

`
SIMILITUDINE E DIAGONALIZZABILITA

62

2.4.5

Matrici di proiezione

Un caso particolare di matrici simmetriche di ordine n `e fornito dalle cosiddette matrici di


proiezione (cfr. Esercizio 2.6.22). Esse permettono di ricavare immediatamente le componenti della proiezione ortogonale di un vettore su un sottospazio. Sia Wk un sottospazio
di Rn avente dimensione k. Indichiamo con x1 , ..., xk una sua base, e sia v Rn un vettore
tale che v
/ Wk .

R
6nk
7

- xk

x1

R
x2

Wk

Figura 2.6: base del sottospazio Wk di Rn .


Vogliamo determinare le proiezioni del vettore v sullo spazio vettoriale Wk e sullo spazio
b `e la proiezione di v su Wk , allora, per il
ad esso ortogonale, isomorfo ad Rnk . Se v
b `e ortogonale a Wk .
Teorema di Pitagora, v v

...
6......
...
... v
.
7...
b
vv
..
..
..
..
...
..
s..
b
v

Wk

Figura 2.7: proiezione di un vettore su un sottospazio di Rn .


Consideriamo la matrice A = [x1 |x2 |...|xk ] le cui colonne sono formate dai vettori della
b `e ortogonale a Wk , abbiamo
base di Wk . Essa `e una matrice di tipo (n, k). Poiche v v
b . Poiche v
b Wk , esistono c1 , ..., ck R tali
b )(n,1) = 0(k,1) , e quindi At v = At v
At(k,n) (v v
b = c1 x1 + ... + ck xk = Ac, essendo c = [c1 , ..., ck ]t . Quindi abbiamo At v = At Ac,
che v
da cui si ricava c = (At A)1 At v = Rv. La matrice R = (At A)1 At si dice matrice
pseudoinversa di Moore-Penrose di A.
Dalla precedente uguaglianza otteniamo
b = Ac = A(At A)1 At v = ARv,
v

(2.4.15)

2.4 ENDOMORFISMI SIMMETRICI

63

Quindi PA = AR `e la matrice che, applicata a v, fornisce la sua proiezione su Wk , cio`e la


matrice di proiezione sul sottospazio Wk generato dalle colonne di A.
Per determinare la matrice PA , cio`e la matrice di proiezione sul sottospazio ortogonale a
b , per cui
Wk , basta osservare che deve essere PA v = v v
b = v ARv = (I AR)v,
PA v = v v

(2.4.16)

essendo I la matrice identica.


Osservazioni ed esempi.

1. La matrice R esiste sicuramente. Questo deriva dal fatto che A ha rango massimo,
essendo le sue colonne formate da vettori di una base, e quindi la matrice At A `e non
singolare.
2. Consideriamo il caso particolare in cui il sottospazio W abbia dimensione 1. La
matrice A di partenza ha allora una sola colonna, corrispondente alle componenti di
un qualsiasi vettore di W.
Per esempio, consideriamo in R4 il sottospazio generato dal vettore e1 = [1, 0, 0, 0]t
della base canonica. Ovviamente la proiezione di un vettore v su questa retta fornisce
il vettore che si ottiene moltiplicando e1 per la prima componente di v. Ritroviamo
questo risultato usando il metodo generale. La matrice A risulta

1
0

A=
0 .
0
Abbiamo quindi

At A = 1 0 0 0
0 = [1].
0
Di conseguenza (At A)1 = [1], da cui R = At , e PA = AR = A At . Pertanto
otteniamo

`
SIMILITUDINE E DIAGONALIZZABILITA

64

1
0

PA = AR = A At =
0 1 0 0 0 =
0

1
0
=
0
0

2.5

0
0
0
0

0
0
0
0

0
0

0
0


x1
x1
x2 0

PA v = PA
x3 = 0
x4
0

Lo studio della similitudine

Vediamo come applicare i risultati sulla diagonalizzabilit`a allo studio della similitudine.
Date due matrici A, B Mn (R), vogliamo cio`e stabilire se esse sono simili. Conviene
verificare innanzitutto che sussistono le condizioni necessarie alla similitudine. Sappiamo
infatti che matrici simili hanno lo stesso determinante, la stessa traccia, lo stesso polinomio caratteristico e lo stesso spettro. Possiamo quindi calcolare gli autovalori di A e B.
Se SpecA 6= SpecB le due matrici non possono essere simili. In questo caso abbiamo
terminato lanalisi. Se invece SpecA = SpecB le due matrici potrebbero essere simili (ma
non `e automaticamente vero che lo siano, trattandosi solo di una condizione solo necessaria). Occorre, a questo punto, esaminare la diagonalizzabilit`a delle matrici interessate. Si
possono verificare tre casi.
(i). Entrambe le matrici sono diagonalizzabili. Allora sono simili fra loro. Infatti, se
A e B sono diagonalizzabili, sono entrambi simili a matrici diagonali:
A diag(a1 , . . . , an )
B diag(b1 , . . . , bn ).
Ma gli elementi principali delle due matrici diagonali coincidono con i loro autovalori, e
matrici simili hanno gli stessi autovalori. Allora, a meno dellordinamento, ai = bi , per
ogni i = 1, . . . , n. Ci`o significa che
A diag(a1 , . . . , an ) B
e, per la propriet`a transitiva della similitudine A B.
(ii). Una delle due matrici, ad esempio A, `e diagonalizzabile, laltra no. Le due matrici
non sono simili. Se lo fossero avremmo
AB
e anche
A diag(a1 , . . . , an ).

2.5 Lo studio della similitudine

65

Sempre per la transitivit`a della relazione di similitudine:


B diag(a1 , . . . , an ).
Ma ci`o significa che anche B `e diagonalizzabile, contro le ipotesi. Di conseguenza A  B.
(iii). Entrambe le matrici non sono diagonalizzabili. In questo caso `e necessario tentare
di costruire direttamente, facendo i conti, una matrice P , invertibile, tale che
P 1 AP = B.
Se una tale matrice esiste allora A e B sono matrici simili tra loro.
Osservazioni ed esempi.

1. Due matrici diagonali aventi lo stesso spettro risultano anche simili, poich`e coincidono a meno dellordinamento degli elementi della diagonale principale.
2. Stabiliamo se le matrici

1 0 0
1 1 0
A = 0 2 0 , B = 0 2 1
0 0 2
0 0 2
sono simili tra loro.
Notiamo intanto che A `e diagonale e B triangolare, per cui gli autovalori corrispondono per entrambe ai loro elementi principali e i due spettri coincidono. La matrice
A `e gi`a diagonale, quindi ovviamente diagonalizzabile. Dobbiamo esaminare la matrice B. Lautovalore = 1 `e semplice, quindi regolare. Occorre studiare = 2, che
ha molteplicit`a algebrica 2 (`e un autovalore doppio). La molteplicit`a geometrica `e
mg (2) = n rk(B 2I3 ). Abbiamo

1 2 1
0
22
1 =
n rk(B 2I3 ) = 3 rk 0
0
0
22

1 1 0
0 1 =
= 3 rk 0
0
0 0
= 3 2 = 1.
Quindi ma (2) = 2 6= mg (2) = 1. Le due molteplicit`a sono diverse, lautovalore = 2
per B non `e regolare e quindi B non pu`o essere diagonalizzabile. Ma allora A e B
non sono simili tra loro. In particolare A e B non possono rappresentare lo stesso
endomorfismo rispetto a basi diverse.

`
SIMILITUDINE E DIAGONALIZZABILITA

66

2.6

ESERCIZI

2.6.1. Sia A M2 (R). Determinarne gli autovalori, sapendo che


det(A 2I) = 0, det(A I) = 0.
2.6.2. Sia A M2 (R). Determinarne gli autovalori, sapendo che
det(A 2I) = 1, det(A I) = 2.
2.6.3. Sia A M2 (R) non singolare. Determinare gli autovalori della matrice sapendo
che det(I A) = 0 e che det((A1 (2I A))) = 0.
2.6.4. Sia A M2 (R). Determinarne gli autovalori, sapendo che det(I A) = 4 e
det(4I A) = 1.
2.6.5. Sia f un endomorfismo dello spazio vettoriale V, tale che f 2 + f = 0. Dimostrare
che Specf {0, 1}.
2.6.6. Si consideri la matrice

0 6 0
A = 1 0 1 .
1 0 1

Determinarne autovalori e autovettori e stabilire se A `e diagonalizzabile.


2.6.7. Mostrare che la matrice

1 0 2
A= 3 2 0
0 2 6

`e diagonalizzabile. In caso affermativo determinare una matrice B diagonale simile ad A


e la relativa matrice di passaggio P .
2.6.8. Sia A la seguente matrice

5 0 6
A = k 1 3 ,
9 0 10
essendo k un parametro reale.
1. Determinare lo spettro di A
2. Stabilire i valori di k per i quali A `e diagonalizzabile.
3. Determinare, quando `e possibile, una matrice P tale che P 1 AP sia una matrice
diagonale.
2.6.9. Sia A la seguente matrice

1
0 5
A = k 1 k 5 ,
1 0 7
essendo k un parametro reale.

2.6 ESERCIZI

67

1. Determinare, al variare di k in R, lo spettro di A.


2. Studiare, al variare di k in R, la diagonalizzabilit`
a della matrice.
2.6.10. Sia A la seguente matrice

3 0 1
A = 4 a 2 ,
2 0 2
essendo a un parametro reale.
1. Determinare lo spettro di A
2. Stabilire i valori del parametro a per i quali A `e diagonalizzabile.
2.6.11. Stabilire se la matrice reale

0
A= 1
54

1 1
0 1
1 0

`e diagonalizzabile in R.
2.6.12. Sia A M2 (R) una matrice tale che
det(A) = det(2I A) = 0.
Stabilire se A `e diagonalizzabile.
2.6.13. Determinare i valori del parametro h R in modo che la matrice

h 0 0
A = 1 2 h
1 0 0
sia diagonalizzabile.
2.6.14. Determinare tutti i valori del parametro h R tali che la matrice

1 0 0
A = 2h 0 0
h 2h 1
sia diagonalizzabile
2.6.15. Si considerino le matrici

1 0 1
A = 1 1 h ,
0 0
1

h 1 0
B = 1 1 h .
0
0 1

` possibile che A e B rappresentino lo stesso endomorfismo (rispetto a basi diverse)?


E

`
SIMILITUDINE E DIAGONALIZZABILITA

68
2.6.16. Si consideri la matrice

1 0 h
A = 0 1 0 ,
1 0 1
con h parametro reale. Stabilire se A `e diagonalizzabile per ogni valore di h e se esiste un
valore di h tale che A sia ortogonalmente simile ad una matrice diagonale D.
2.6.17. Si consideri la matrice

h
1 0
0 0 .
A= 0
h+1 h 1
Stabilire se esiste un valore del parametro reale h tale che A sia simile ad una matrice
reale simmetrica B avente come polinomio caratteristico B (t) = t3 2t2 + t.
2.6.18. Dimostrare che ogni matrice simile ad una matrice A nilpotente (tale cio`e che
Am = O per qualche intero m N) `e a sua volta nilpotente.
2.6.19. Dimostrare che se P = aU , con U matrice ortogonale, e D `e diagonale, la matrice
P DP 1 `e simmetrica.
2.6.20. In R3 , si considerino il vettore v = [3, 1, 2]t , ed il sottospazio U generato dai
vettori x1 = [1, 4, 1]t ed x2 = [2, 1, 1]t . Determinare la proiezione di v su U e la lunghezza
della proiezione di v su U .
2.6.21. Sia A M2 (R) una matrice avente autovalori 0, 1 corrispondenti, rispettivamente, agli autovettori x1 = [1, 1]t e x2 = [1, 1]t . Determinare A.
2.6.22. Dimostrare che una matrice di proiezione `e simmetrica.
2.6.23. Si considerino le matrici A, B Mn (R). Siano A e B autovalori di A e B,
rispettivamente, entrambi associati allautovettore x. Dimostrare che x `e un autovettore
sia di AB che di BA, associato allautovalore A B .
2.6.24. Si considerino le matrici

0 0 0
A = 0 2 0 ,
h 1 2

1 0 1
B = 0 2 0 .
1 0 1

Verificare che A non `e diagonalizzabile per alcun valore del parametro h R, e che non `e
mai simile a B.
2.6.25. Si consideri la matrice

h h1 1
1
2 .
A= 0
0
0
2

Determinare gli h R tali che A non sia diagonalizzabile.

2.6 ESERCIZI

69

2.6.26. Si considerino le matrici

1 h 0
A = 0 0 h ,
0 0 1

1 0 0
B = 0 0 0 .
0 0 1

Verificare che A e B sono simili per ogni h R e stabilire se esistono valori di h per i
quali siano ortogonalmente simili.
2.6.27. Sia A M2 (R) tale che (A + I)2 = 2(A + I). Stabilire se A `e diagonalizzabile.
2.6.28. Sia f lendomorfismo di R3 definito da
f ([x, y, z]t ) = [x + y, x + z, y + z]t .
Stabilire se f `e diagonalizzabile e calcolarne autovalori e autovettori.
2.6.29. Si consideri lendomorfismo f : R3 R3 dato da

x
4x 4z
f y = 5x y 5z
xz
z
1. Determinare la matrice caratteristica, il polinomio caratteristico e lo spettro di f .
2. Determinare gli autospazi associati ad f , la loro dimensione ed una base per ognuno
di essi.
3. Stabilire se esiste una base di R3 rispetto alla quale f `e rappresentato dalla matrice
seguente

3 2 15
A= 0 0 6
0 0 1
2.6.30. Si stabilisca se le matrici

1 0 0
A= 0 2 0
0 0 2

1 1 0
B= 0 2 1
0 0 2

rappresentano lo stesso endomorfismo in R3 , rispetto a basi opportune.


2.6.31. Si consideri lendomorfismo f : R3
nica, dalla seguente matrice

3
C

AC (f ) = 2
0

R3 rappresentato, rispetto alla base cano


0 2
1 2
0 1

1. Determinare la matrice caratteristica, il polinomio caratteristico e lo spettro di f .

`
SIMILITUDINE E DIAGONALIZZABILITA

70

2. Determinare gli autospazi associati ad f , la loro dimensione ed una base per ognuno
di essi.
3. Stabilire se ACC (f ) `e simile alla matrice data da

1 0 0
A = 1 1 0 .
2 1 3
2.6.32. Sia A Mn (R) una matrice avente un unico autovalore t0 . Dimostrare che A `e
diagonalizzabile se e solo se A = t0 In .
2.6.33. Si consideri lendomorfismo fh : R3 R3 rappresentato dalla matrice

h 0 h
Ah = 1 1 h h R.
0 0 1
Si stabilisca per quali valori di h fh non `e un automorfismo e per quali i suoi autovalori
sono semplici. Si dica se, per h = 1, `e possibile esprimere R3 come somma diretta di
autospazi. Determinarli in caso affermativo.
2.6.34. Siano dati i vettori v1 = [6, 2, 0]t , v2 = [0, 1, 1]t , v3 = [2, 4, 4]t , w1 =
[1, 1, 0]t , w2 = [0, 2, 2]t , w3 = [1, 1, 0]t di R3 , con h R. Vedere se esiste un endomorfismo f di R3 tale che f (vi ) = wi per i = 1, 2, 3. Stabilire inoltre quali dei vi sono
autovettori di f .
2.6.35. Sia f 6= 0 un endomorfismo nilpotente di V. Dimostrare che Spec f = {0}.
2.6.36. Due matrici A e B di ordine 3 hanno autovettori r = [1, 0, 1]t , s = [1, 1, 1]t e
t = [0, 0, 1]t . Verificare che tutte le matrici A, B, AB e BA sono diagonalizzabili.
2.6.37. Una matrice reale A di tipo (2, 2) soddisfa le condizioni
det(det(A)I A) = 0,

det( det(A)I A) = 0.

Calcolare gli autovalori di A e stabilire se `e diagonalizzabile.


2.6.38. Verificare che ogni matrice quadrata di ordine 2 tale che A2 + I = O `e diagonalizzabile nel campo complesso.
2.6.39. Determinare i valori di h R tali che le due matrici

1 0 0
1 3 0
B= 0 5 0
A = 0 2 3 ,
0 3 2
0 0 h
siano simili.
2.6.40. Determinare tutte le matrici che ammettono x1 = [1, 1]t e x2 = [1, 1]t come
autovettori.

2.6 ESERCIZI
2.6.41. Stabilire se le seguenti matrici sono simili:

1 0 1
1 1 1
A= 0 1 2
B = 0 1 1 .
0 0 3
0 0 3
2.6.42. Mostrare che le seguenti matrici sono simili

1 2
1 0
A=
,
B=
0 1
1 1
e calcolare una matrice di passaggio.

71

72

`
SIMILITUDINE E DIAGONALIZZABILITA

Capitolo 3

SOLUZIONI DEGLI ESERCIZI


3.1

ESERCIZI CAPITOLO 1 - SOLUZIONI

1.3.1 Studiare la linearit`a dellapplicazione:


f:

R3 R
[x, y, z]t 7 x y + 2z.

Svolgimento. Dobbiamo verificare se f conserva la somma di vettori e il pro`


dotto di scalari. Consideriamo u, v R3 , con u = [x, y, z]t e v[x0 , y 0 , z 0 ]t e h, k R. E
equivalente verificare che
f (hu + kv) = hf (u) + kf (v).
Poiche hu + kv = h[x, y, z]t + [x0 , y 0 , z 0 ]t = [hx + kx0 , hy + ky 0 , hz + kz 0 ]t , abbiamo:
f (hu + kv) = f ([hx + kx0 , hy + ky 0 , hz + kz 0 ]t ) =
= (hx + kx0 ) (hy + ky 0 ) + 2(hz + kz 0 ) =
= hx + kx0 hy ky 0 + 2hz + 2kz 0 =
= (hx hy + 2hz) + (kx0 ky 0 + 2kz 0 ) =
= h(x y + 2z) + k(x0 y 0 + 2z 0 ) = hf ([x, y, z]t ) + kf ([x0 , y 0 , z 0 ]t ) =
= hf (u) + kf (v).
Quindi f `e lineare.

1.3.2 Verificare se lapplicazione:


f : R2 : R2
[x, y]t 7 [x y, x + y]t
`e lineare.
Svolgimento. Dobbiamo verificare se f conserva la somma di vettori e il pro`
dotto di scalari. Consideriamo u, v R2 , con u = [a, b]t e v = [a0 , b0 ]t e h, k R. E
equivalente verificare che
f (hu + kv) = hf (u) + kf (v).

74

SOLUZIONI DEGLI ESERCIZI


Poiche hu + kv = h[a, b]t + k[a0 , b0 ]t = [ha + ka0 , hb + kb0 ]t , abbiamo:
def

f (hu + kv) = f ([ha + ka0 , hb + kb0 ]t ) =

= [(ha + ka0 ) (hb + kb0 ), (ha + ka0 ) + (hb + kb0 )]t =


= [h(a b) + k(a0 b0 ), h(a + b) + k(a0 + b0 )]t =
= [h(a b), h(a + b)) + (k(a0 b0 ), k(a0 + b0 )]t =
= h[a b, a + b]t + k[a0 b0 , a0 + b0 ]t = hf [a, b]t + kf [a0 , b0 ]t =
= hf (u) + kf (v)
Quindi f `e lineare.

1.3.3 Siano f : R2 R e g : R R2 le applicazioni lineari cos` definite:


f ([x, y]t ) = x + y + 1;
g(x) = [x, 2x]t .
Stabilire se g f `e lineare.
Svolgimento. Dobbiamo verificare se g f conserva la somma di vettori e il
prodotto di vettori con scalari. Controlliamo prima questultimo. Posto x = [x, y]t e
a R, dobbiamo controllare se g f (ax) = a(g f (x)). Dalla definizione, lapplicazione
f manda il vettore x = [x, y]t in x + y + 1 R. Quindi, facendo agire su questultimo
lapplicazione g, otteniamo il vettore di R2 di componenti
[x + y + 1, 2(x + y + 1)]t ,
che rappresenta limmagine di x tramite g f . Eseguendo i calcoli, abbiamo:
g f (ax)

= g f ([ax, ay]t ) = g(ax + ay + 1) =


= [ax + ay + 1, 2(ax + ay + 1)]t ;

a(g f (x)) = a(g(f ([x, y]t )) = a(g(x + y + 1)) =


= a[x + y + 1, 2(x + y + 1)]t = [ax + ay + a, 2(ax + ay + a)]t .
Quindi g f (ax) 6= a(g f (x)). Basta questo per poter dire che g f non `e lineare.

1.3.4 Sia f : Mn (R) Mn (R) lapplicazione definita da:


f (A) = 2A,
per ogni A Mn (R). Stabilire se f `e lineare.
Svolgimento. La funzione f manda ogni matrice di Mn (R) nel prodotto della
matrice stessa con la costante 2. Verifichiamo che f conserva somma di vettori e prodotto
di scalari. Possiamo farlo in un colpo solo, verificando che f (aA + bB) = af (A) + bf (B),
per ogni A, B Mn (R) e per ogni coppia di scalari a, b R. Abbiamo:
f (aA + bB) = 2(aA + bB) = 2(aA) + 2(bB) =
= a(2A) + b(2B) = af (A) + bf (B).

3.1 ESERCIZI CAPITOLO 1 - SOLUZIONI


Quindi la f `e lineare.

75

1.3.5 Stabilire se `e lineare lapplicazione f : Mn (R) Mn (R) definita da f (A) = A+2In ,


con A Mn (R).
Svolgimento. Unapplicazione f `e lineare se conserva la somma di vettori e il
prodotto per scalari. Verifichiamo, in questo caso, se viene conservata la somma. Dobbiamo, in particolare, vedere se f (A + B) = f (A) + f (B), al variare di A, B Mn (R). Dalla
definizione di f otteniamo:
f (A + B) = (A + B) + 2In = A + B + 2In .
Invece, sempre dalla definizione, si ha:
f (A) + f (B) = (A + 2In ) + (B + 2In ) = A + B + 4In .
Quindi f (A + B) 6= f (A) + f (B). Gi`a questo basterebbe per poter dire che f non `e lineare.
Verifichiamo comunque che f non conserva nemmeno il prodotto per scalari. Infatti, al
variare di A Mn (R) e di a R:
f (aA)

= aA + 2In ,

a(f (A)) = a(A + 2In )) = aA + 2aIn .


Quindi, tranne per il caso a = 1, f (aA) 6= a(f (A)).

1.3.6 Si consideri lendomorfismo di R3


f ([x, y, z]t ) = [2x + 2y, x ty, x y z]t ,
t R. Stabilire per quali valori del parametro t lapplicazione f `e un automorfismo.
Svolgimento. Un endomorfismo `e un automorfismo se e solo se `e invertibile.
Lo studio dellinvertibilit`a di unapplicazione lineare si scarica su quello dellinvertibilit`
a
della sua matrice. Quindi, in questo caso, lunica difficolt`a risiede nella costruzione della
matrice associata ad f . Supponiamo che la matrice associata ad f sia

a11 a12 a13


A = a21 a22 a23 .
a31 a32 a33
Allora limmagine di un vettore x
ovvero

a11
t

f (x) = f ([x, y, z] ) = a21


a31

= [x, y, z]t si ottiene moltiplicandolo a sinistra per A,


a12 a13
x
a11 x + a12 y + a13 z
a22 a23 y = a21 x + a22 y + a23 z .
a32 a33
z
a31 x + a32 y + a33 z

Quindi
f ([x, y, z]t ) = [a11 x + a12 y + a13 z, a21 x + a22 y + a23 z, a31 x + a32 y + a33 z]t .

76

SOLUZIONI DEGLI ESERCIZI


Nel nostro caso, quindi, la matrice associata ad f `e:

2 2
0
A = 1 t 0 .
1 1 1
La A `e invertibile se e solo se `e non singolare. Il suo determinante `e det A = 2t + 2, che si
annulla solo quando t = 1. Pertanto f `e un automorfismo se e solo se t 6= 1.

1.3.7 Si consideri lapplicazione lineare f : R2 R3 cos` definita:


f ([x, y]t ) = [2x y, x + y, y]t .
Stabilire se f `e iniettiva e suriettiva.
Svolgimento. Unapplicazione f : U V `e iniettiva se e solo se ker f = {0}
ed `e suriettiva se e solo se Imf = V. La prima condizione `e equivalente a dire che
dim(Imf ) = 0, mentre la seconda equivale a dim(Imf ) = dim V. Per avere informazioni
sulle dimensioni di Imf e ker f possiamo usare lEquazione Dimensionale, ma abbiamo
bisogno della matrice A associata allapplicazione (rispetto a due qualsiasi basi), in quanto
il suo rango ci fornisce la dimensione di Imf (e le sue colonne rappresentano un insieme
generatore per Imf ). In questo caso abbiamo:

2 1
A = 1 1 .
0 1
Il rango di A `e 2: per esempio il minore determinato dalle ultime due righe `e 6= 0. Quindi
dim(Imf ) = 2. DallEquazione Dimensionale, otteniamo:
n = dim(ker f ) + dim(Imf )
2 = dim(ker f ) + 2 dim(ker f ) = 0.
Dal fatto che dim(Imf ) = 2, mentre la dimensione del codominio `e 3, deduciamo che f
non `e suriettiva. Invece, da dim(Imf ) = 0, si deduce che ker f = {0}, quindi che f `e
iniettiva.

1.3.8 Stabilire per quali valori del parametro reale t lapplicazione lineare f : R2 R2 ,
definita da:
f ([x, y]t ) = [x + ty, (t 1)x + 2y]t
`e iniettiva.
Svolgimento. Unapplicazione f `e iniettiva se e solo se ker f = {0}, ovvero se e
solo se dim(ker f ) = 0. DallEquazione Dimensionale n = dim(ker f ) + dim(Imf ), segue:
dim(ker f ) = 2 dim(Imf ).
Quindi f `e iniettiva se e solo se dim(Imf ) = 2. Ma la dimensione dellimmagine di
unapplicazione non `e nientaltro che il rango della matrice ad essa associata. Le sue righe

3.1 ESERCIZI CAPITOLO 1 - SOLUZIONI


sono i coefficienti delle componenti dellimmagine di un generico vettore nella definizione
di f . Quindi la matrice associata `e:

1
t
.
A=
t1 2
Siccome det A = (t2 t 2) = 0 t = 2 o t = 1, ne consegue che per t 6= 2 e t 6= 1 il
rango di A `e 2 e f `e iniettiva.

1.3.9 Verificare che lapplicazione lineare f : R2 R3 definita da f ([x, y]t ) = [x + y, x


y, x]t `e iniettiva.
Svolgimento.

La matrice associata `e:

1 1
A = 1 1 .
1 0

Il rango di A coincide con la dimensione dellimmagine. Quindi rkA = dim(Imf ) = 2.


Usando lEquazione Dimensionale, abbiamo:
2 = dim(ker f ) + dim(Imf ) = dim(ker f ) + 2.
Quindi dim(ker f ) = 0 e questo pu`o accadere se e solo se ker f = {0}. Quindi f `e
unapplicazione iniettiva.

1.3.10 Stabilire se lendomorfismo di R3 definito da f ([x, y, z]t ) = [2x+2y, xy, xy z]t


`e un automorfismo.
Svolgimento. Un automorfismo `e caratterizzato dal fatto che la matrice associata A `e invertibile. In questo caso abbiamo

2 2
0
A = 1 1 0 .
1 1 1
La A `e invertibile se e solo se `e non singolare, ovvero se e solo se det A 6= 0. Sviluppando
rispetto allultima colonna, abbiamo:

2 2
0

1 1 0 = 1 2 2 = 1(2 2) = 4 6= 0.
1 1

1 1 1
Quindi esiste A1 e f `e un automorfismo. Ci`o significa che esiste f 1 , pure lei lineare, cui
`e associata la matrice A1 .

1.3.11 Si consideri lapplicazione lineare f : R2 R3 definita da:


f (e1 ) = e1 + e2 + e3
f (e2 ) = e1 + 2e3 .
Si determini la matrice associata ad f e si stabilisca se f `e unapplicazione iniettiva.

77

78

SOLUZIONI DEGLI ESERCIZI


Svolgimento. Lapplicazione f viene descritta, in questo caso, definendo le immagini dei vettori della base canonica del dominio in funzione dei vettori della base
canonica del codominio. Supponiamo che la matrice associata ad f sia la seguente:

a11 a12
A = a21 a22
a31 a32
Limmagine del primo vettore della base canonica di R2 ,


a11 a12
1
Ae1 = a21 a22 =
a31 a32
0

ossia di e1 = [1, 0]t `e:

a11
a21 .
a31

Quindi limmagine di e1 non `e altro che la prima colonna della matrice A. Analogamente
limmagine di e2 `e la seconda colonna di A. Se esprimiamo questa immagine mettendo in
evidenza i vettori della base canonica di R3 , ovvero del codominio, otteniamo:

a11
1
0
0
a21 = a11 0 + a21 1 + a31 0 = a11 e1 + a21 e2 + a31 e3 .
a31
0
0
1
Quindi i coefficienti dei termini della base canonica del codominio, negli sviluppi delle
immagini degli elementi della base del dominio, non sono altro che i termini delle colonne
della matrice associata ad f . Nel nostro caso abbiamo:

1 1
A = 1 0 .
1 2
il rango di A `e rkA = 2, quindi, essendo dim(Imf ) = rkA, dallEquazione Dimensionale:
2 = dim(ker f ) + dim(Imf ) =
= dim(ker f ) + rkA =
= dim(ker f ) + 2 dim(ker f ) = 0.
Ma dim(ker f ) = 0 ker f = {0} e quindi f `e unapplicazione iniettiva.
1.3.12 Sia f : R2 R3 lapplicazione lineare data da


xy
x
f
= 2x 2y .
y
3x 3y
1. Determinare la matrice che rappresenta f rispetto alle basi

B1 =


0
3
,
,
2
1

0
2
1

B2 = 0 , 1 , 1 .

1
0
3

3.1 ESERCIZI CAPITOLO 1 - SOLUZIONI

79

2. Scrivere, rispetto alla base B2 , limmagine del vettore

vB1 =

1
2

Svolgimento.
1. Osserviamo innanzitutto che gli insiemi B1 e B2 sono effettivamente basi di R2 ed R3
rispettivamente, in quanto

det[B1 ] = det

3 0
1 2

= 6 6= 0,

1 0 2
det[B2 ] = det 0 1 1 = 1 6= 0.
1 0 3

La matrice che rappresenta f rispetto alle basi date risulta


1 C
2
AB
B1 (f ) = [B2 ] AC (f )[B1 ],

essendo ACC (f ) la matrice che rappresenta f rispetto alle basi canoniche di R2 ed R3 .


Abbiamo allora

3 0 2
[B2 ]1 = 1 1 1 ,
1 0 1
e quindi

1 1
ACC (f ) = 2 2
3 3

3 0 2
6 6
1 1
3
0
2
1 1 1 2 2
AB
= 8 8 .
B1 (f ) =
1 2
1 0 1
3 3
4 4
2
2. Applicando la matrice AB
B1 (f ) al vettore v, scritto rispetto alla base B1 , risulta


6 6
1
6
2
8 8 = 8 .
vB2 = AB
B1 (f )vB1 =
4
4 4
2

1.3.13 Sia f lendomorfismo di R3 associato alla matrice

t 2 t+1
At = 2 t t + 3 .
1 2
4
Determinare il valore del parametro t affinche f sia un automorfismo. Posto t = 2,
determinare base e dimensione di Imf . Posto t = 3, determinare base e dimensione di
ker f .

80

SOLUZIONI DEGLI ESERCIZI


Svolgimento. Un endomorfismo `e un automorfismo se e solo se `e invertibile. A
livello di matrici associate ci`o significa che deve essere invertibile la sua matrice At . E
questo accade se e solo se At `e non singolare, ovvero se e solo se det At 6= 0. Sviluppando
rispetto alla prima riga, abbiamo:

t 2 t+1

2 t t + 3 = t t t + 3 2 2 t + 3 + (t + 1) 2 t =

4
1
4
1 2
1 2
4
= t(4t 2t 6) 2(8 t 3) + (t + 1)(4 t) =
= 2t2 6t 10 + 2t + 4t t2 + 4 t = t2 t 6.
Quindi det At = 0 t = 3 oppure t = 2. Pertanto f `e un automorfismo se e solo se
t 6= 3 e t 6= 2. Poniamo ora t = 2. La matrice associata diventa:

2 2 1
A2 = 2 2 1 .
1
2
4
Il minore del secondo ordine determinato dalle ultime due righe e dalle prime due colonne
`e 6= 0. Siccome det A2 = 0 ne consegue che rkA2 = 2. Ma il rango della matrice associata ad unapplicazione lineare f rappresenta la dimensione dellimmagine di f . Quindi
dim(Imf ) = 2 e una base per Imf `e fornita dalle colonne di A2 che contribuiscono a
formare il minore con cui si `e determinato il rango di rkA2 , in questo caso le prime due.
Quindi linsieme

2
2 , 2

1
2
`e una base di Imf . Poniamo ora t = 3. La matrice associata diventa:

3 2 4
A3 = 2 3 6 .
1 2 4
Anche in questo caso rkA3 = 2. Infatti, per quanto visto prima det A3 = 0, mentre il
6 0. Quindi
minore del secondo ordine, determinato dalle prime due righe e colonne, `e =
dim(Imf ) = 2. Ricordando lEquazione Dimensionale:
n = dim(Imf ) + dim(ker f ),
dove n `e la dimensione dello spazio dominio dellapplicazione f (in questo caso n = 3),
abbiamo:
3 = 2 + dim(ker f ),
ossia dim(ker f ) = 1. Per determinare una base cerchiamo di esprimere il generico vettore
di ker f . Se x = [x, y, z]t ker f , per definizione di nucleo, f (x) = 0. In questo caso,
limmagine di x tramite f si ottiene moltiplicando il vettore x a sinistra per la matrice
A3 . Dallequazione matriciale A3 x = 0 otteniamo:

3 2 4
x
3x + 2y + 4z
0
2 3 6 y = 2x + 3y + 6z = 0 .
1 2 4
z
x + 2y + 4z
0

3.1 ESERCIZI CAPITOLO 1 - SOLUZIONI


Uguagliando termine a termine nella precedente equazione, si ha:

3x + 2y + 4z = 0
2x + 3y + 6z = 0

x + 2y + 4z = 0
che ammette la terna (0, 2t, t) come soluzione, al variare di t R. Ci`o significa che il
generico vettore di ker f si scrive come:

0
0
x = 2t = t 2 = tv.
t
1
Questa `e la conferma che dim(ker f ) = 1, e il vettore v individua una base per il nucleo
di f .

1.3.14 Sia f : R3 R3 lapplicazione lineare

A = 2
4

associata alla matrice

1 0
1 0 .
2 3

Determinare una base per Imf . Dopo aver verificato che linsieme

W = [x, y, 0]t | x, y R
`e sottospazio di R3 , determinare una base per W + Imf .
Svolgimento. Sappiamo che le colonne della matrice associata ad unapplicazione f sono generatori di Imf . Cerchiamo di individuare quante, fra esse, sono indipendenti.
Determiniamo il rango di A. Siccome le prime due colonne della matrice sono proporzionali (la prima si ottiene dalla seconda moltiplicandola per 2) evidentemente det A = 0.
Quindi rkA 2. Il minore individuato dalle ultime due righe e dalle ultime due colonne,
ossia

1 0

2 3 = 3 0 = 3 6= 0
`e non nullo, quindi rkA = 2. Non solo abbiamo scoperto che dim(Imf ) = 2, ma ne
abbiamo anche determinato una base, in quanto le colonne di A, generatori di Imf , che
contribuiscono a formare il minore di cui sopra, sono indipendenti. Quindi una base di
Imf `e:


1
0

1
0 .
,
B=

2
3
Per verificare che W `e un sottospazio consideriamo la sua chiusura lineare. Siano w1 =
[x1 , y1 , 0]t e w2 = [x2 , y2 , 0]t due vettori di W. Sono entrambi caratterizzati dallavere
lultima componente nulla. Al variare di a, b R consideriamo la combinazione lineare
aw1 + bw2 :

x1
x2
ax1 + bx2
aw1 + bw2 = a y1 + b y1 = ay1 + by2 .
0
0
0

81

82

SOLUZIONI DEGLI ESERCIZI


Quindi anche aw1 + bw2 ha lultima componente nulla. Ci`o significa che `e un vettore di
W, che W `e linearmente chiuso, ovvero che `e un sottospazio. Per determinare una base
di W basta esaminare un suo generico vettore:



x
1
0

w = y = x 0 + y 1 = xw1 + yw2 .
0
0
0
I vettori w1 e w2 non solo generano W, ma, essendo evidentemente indipendenti, ne
formano anche una base. A questo punto abbiamo determinato una base di Imf e una di
W. Tutti e soli i vettori della somma W + Imf si scrivono come combinazioni lineari dei
a individuando, nellunione delle
vettori delle due basi. Una base per W + Imf si trover`
due basi, quelli indipendenti. Per fare questo consideriamo la matrice aventi i vettori in
questione come colonne:

1
0 1 0
0 0 1
B= 1
2 3 0 0
e studiamone il rango. Certamente il minore del secondo ordine individuato dalle ultime
due righe e dalle prime due colonne `e non nullo (labbiamo visto esaminando la base di
Imf ). Usiamo il Teorema di Kronecker, orlando dapprima questo minore con la terza
colonna. Sviluppando rispetto alla seconda colonna, otteniamo:

0 1

1 1

= 3(1) = 3 6= 0.
1

0 0 = (3)

1
0
2 3 0
Quindi rkB = 3, le tre prime colonne sono indipendenti e formano una base di W + Imf .

1.3.15 Dato in R4 lendomorfismo ft rappresentato dalla matrice

t 0 1 1
1 t 1 1

At =
1 0 2 0 ,
1 0 0 2
verificare che dim(ker f ) = 2 solo per t = 0.
Svolgimento.

Possiamo usare lEquazione Dimensionale


n = dim(ker f ) + dim(Imf ),

sapendo che n = dim R4 = 4. Quindi


dim(ker f ) = n dim(Imf ) =
= 4 dim(Imf ) = 2 dim(Imf ) = 2.
Sappiamo anche che dim(Imf ) = rkAt , quindi non ci rimane che verificare quali siano
le condizioni sul parametro t affinche la matrice associata ad f abbia rango 2. La At `e

3.1 ESERCIZI CAPITOLO 1 - SOLUZIONI


quadrata del quarto
colonna poi rispetto

t 0 1

1 t 1

1 0 2

1 0 0

ordine. Sviluppiamo il suo determinante prima rispetto alla seconda


alla terza riga:

1
t 1 1

1
= t 1 2 0 =

0
1 0 2
2


1 1
t 1

=
= t 1
2
2 0
1 2
= t((0 2) 2(2t 1)) = t(2 4t + 2) = 4t2 .

Siccome ci interessano condizioni affinche rkAt = 2, certamente deve essere det At = 0,


altrimenti avremmo rkAt = 4. Ma det At = 0 se e solo se t = 0. vediamo cosa succede per
t = 0. La matrice A0 diventa:

0 0 1 1
1 0 1 1

A0 =
1 0 2 0 .
1 0 0 2
Esiste almeno un minore non nullo del secondo ordine. Per esempio quello determinato
dalle prime due righe e dalle ultime due colonne. Usiamo il Teorema di Kronecker, orlando
questo minore in tutti i modi possibili. Questi sarebbero quattro, potendo lavorare su due
ulteriori righe e due ulteriori colonne. Ma una delle colonne `e formata da zeri (la seconda),
quindi possiamo trascurarla. Orlando con la prima colonna e terza riga e sviluppando
rispetto alla prima riga, otteniamo:

0 1 1

1 1 1 = 1 1 1 + 1 1 1 =

1 0

1 2
1 2 0
= (0 + 1) + (2 1) = 1 + 1 = 0.
Orlando con la prima colonna e la quarta riga e sviluppando rispetto alla prima riga,
abbiamo:

0 1 1

1 2 0 = 1 1 0 + 1 1 2 =

1 2
1 0

1 0 2
= (2 0) + (0 2) = +2 2 = 0.
Tutti i minori del terzo ordine ottenuti orlando quello di partenza sono nulli. Il Teorema di
Kronecker garantisce che non dobbiamo controllarne altri per poter affermare che rkA0 =
2. Quindi dim(ker f ) = 2 se e solo se t = 0.

1.3.16 Sia f lendomorfismo di R3 definito da:

f (e1 ) = te1 + 2e2 + e3


f (e2 ) = 2e1 + +te2 + 2e3

f (e3 ) = (t + 1)e1 + (t + 3)e2 + 4e3 .

83

84

SOLUZIONI DEGLI ESERCIZI


Stabilire per quali valori di t R f `e un automorfismo e determinare negli altri casi la
dimensione ed una base per ker f .
Svolgimento. I coefficienti dei vettori della base canonica che compaiono ai secondi membri delle precedenti equazioni formano le colonne della matrice A associata ad
f . Essa `e quindi data da

t 2 t+1
A = 2 t t + 3 .
1 2
4
Lapplicazione f `e un automorfismo se e solo se `e invertibile la matrice associata A, e
questo avviene se e solo se det A 6= 0. Siccome det A = t2 t 6 = 0 se e solo se t = 2 o
t = 3, abbiamo che f `e un automorfismo con t 6= 2 e t 6= 3. Sia ora t = 2. La matrice
associata diventa:

2 2 1
A = 2 2 1 .
1
2
4
In questo caso rkA = 2 (esistono minori del secondo ordine non nulli, mentre siamo nel
caso in cui det A = 0). Quindi dim(Imf ) = rkA = 2. DallEquazione Dimensionale
abbiamo:
dim(ker f ) = n dim(Imf ) = 3 2 = 1.
Per la determinazione di una base del nucleo, troviamo limmagine di un generico vettore
tramite la f e imponiamo che appartenga a ker f . Se x = [x, y, z]t ker f , allora f (x) = 0:


2 2 1
x
0

2 2 1
y = 0 .
f (x) = Ax =
1
2
4
z
0
Sviluppando i calcoli ed uguagliando termine a termine otteniamo il sistema

2x + 2y z = 0
2x 2y + z = 0

x + 2y + 4z = 0
che ammette la terna (10y, 7y, 6y) come soluzione. Quindi i vettori del nucleo sono tutti
e soli quelli della forma:

10y
10
7y = y 7 = yu.
6y
6
Il vettore u `e una base di ker f . Se t = 3 si ragiona nello stesso modo. La matrice associata
ad f diventa:

3 2 4
A = 2 3 6 .
1 2 4
Siccome rkA = 2 abbiamo che dim(Imf ) = 2. Sempre dallEquazione Dimensionale
otteniamo:
dim(ker f ) = 3 dim(Imf ) = 3 2 = 1.

3.1 ESERCIZI CAPITOLO 1 - SOLUZIONI

85

Per determinare una base del nucleo, come prima, imponiamo al generico vettore x di
appartenere a ker f . Ponendo Ax = 0, e sviluppando i calcoli, arriviamo al sistema:

3x + 2y + 4z = 0
2x + 3y + 6z = 0

x + 2y + 4z = 0
che ammette la terna (0, 2z, z) come soluzione. Il generico vettore di ker f ha la forma:

0
0
2z = z 2 = zv,
z
1
e {v} `e una base del nucleo.

1.3.17 Sia f lapplicazione lineare associata alla matrice

1 2 1 0
A = 2 1 1 1 .
5 0 3 2
Determinare una base per Imf ed una per ker f .
Svolgimento. Le colonne della matrice associata ad f formano un insieme generatore per Imf . Dobbiamo estrarre da questo una base. Il rango della matrice A ci indica
quanti, fra le colonne, sono vettori indipendenti e, siccome il rango viene calcolato tramite
un minore non nullo, ci dice anche quali sono questi vettori: quelli che contribuiscono a
formare il minore in questione. Si osservi che il minore del secondo ordine individuato dalle
prime due righe e colonne `e 6= 0. Proviamo ad orlarlo nei due soli modi possibili, usando il
Teorema di Kronecker. Se usiamo la terza colonna e sviluppiamo rispetto allultima riga,
abbiamo:

1 2 1

2 1 1 = 5 2 1 + 3 1 2 =

1 1

2 1
5 0 3
= 5(2 + 1) + 3(1 4) = 15 15 = 0.
Usando la quarta colonna e sviluppando rispetto alla prima riga, abbiamo:

1 2 0

2 1 1 = 1 1 1 2 2 1 =
5 2

0 2
5 0 2
= (2 0) 2(4 5) = 2 + 2 = 0.
Quindi tutti i minori del terzo, ottenuti da quello di partenza dordine 2, sono nulli. Non
occorre esaminarne altri, in quanto Kronecker garantisce che rkA = 2. Le colonne che
costituiscono il minore sono allora indipendenti e formano una base di Imf :

2
1

B = 2 1 ,

5
0

86

SOLUZIONI DEGLI ESERCIZI


e dim(Imf ) = 2. Per quanto riguarda il nucleo di f , determiniamo la forma generale di
un vettore ad esso appartenente. Se x = [x, y, z, t]t ker f , deve essere f (x) = 0. Ma
limmagine di un vettore nellapplicazione f si ottiene moltiplicandolo a sinistra per A.
Sviluppando i conti, otteniamo:

1 2 1 0
x + 2y + z
0
y
= 0
2x

y
+
z
+
t
=
Ax = 2 1 1 1
z
5 0 3 2
5x + 3z + 2t
0
t
da cui, uguagliando termine a termine fra i due membri:

x + 2y + z = 0
2x y + z + t = 0

5x + 3z + 2t = 0.
Il precedente sistema ammette come soluzione la quaterna (3yt, y, 5y+t, t), che fornisce
il generico vettore di ker f . Tutti e soli i vettori di ker f sono quelli della forma:

3y t
3y
t

y
= y + 0 =
x=
5y + t
5y t
t
0
t

3
1
1
0

= y
5 + t 1
0
1

= yv1 + tv2 .
Quindi i vettori v1 e v2 generano ker f . Siccome sono indipendenti (la matrice che li ha
come righe o colonne ha rango 2) sono una base di ker f , da cui segue che dim(ker f ) = 2.
Un metodo alternativo per determinare la dimensione del nucleo `e quello di utilizzare
lEquazione Dimensionale. Abbiamo precedentemente verificato che dim(Imf ) = 2, quindi
da n = dim(ker f ) + dim(Imf ), con n = 4 abbiamo
4 = dim(ker f ) + 2 dim(ker f ) = 2.
Ovviamente in questo modo possiamo determinare la dimensione del nucleo, ma non una
sua base.

1.3.18 Sia f : R3 R3 lapplicazione lineare data da


x y + 2z
x
f y = 2x + 3y 4z .
x 6y + 10z
z

Determinare nucleo ed immagine di f , la loro dimensione ed una loro base.

3.1 ESERCIZI CAPITOLO 1 - SOLUZIONI


Svolgimento.
noniche, `e data da

87

La matrice associata allapplicazione lineare rispetto alle basi ca

1 1 2
ACC (f ) = 2 3 4 .
1 6 10
Il determinante `e nullo, mentre il minore ottenuto intersecando le prime due righe con le
prime due colonne `e non nullo. Quindi la matrice ha rango 2 e ci`o fornisce la dimensione
di Imf .
Una base di tale sottospazio `e formata dalle prime due colonne della matrice ACC (f ).
Dallequazione dimensionale 3 = dim(ker f ) + dim(Imf ) ricaviamo dim(ker f ) = 1.
Per ottenere una base del nucleo risolviamo il sistema omogeneo associato alla matrice
ACC (f ), cio`e

x y + 2z = 0
2x + 3y 4z = 0

x 6y + 10z = 0.
Si ottiene
2
x = z,
5

8
y= z
5

* 2 +
ker f = 8
5

1.3.19 Sia f : R3 R2 lapplicazione lineare data da


x
x + y 3z
f y =
,
ax + (2 a)y + (a 4)z
z
essendo a un parametro reale.
1. Determinare, al variare di a in R, il nucleo, limmagine, le loro dimensioni ed una
loro base.
2. Scrivere, per a = 1, la matrice che rappresenta f rispetto alle basi date da

0
2

1
B1 = 0 , 1 1 ,

1
0
4

B2 =

3
5


2
,
.
6

Svolgimento.
(1) La matrice ACC (f ) associata ad f rispetto alle basi canoniche di R3 ed R2 `e data da

1
1
3
C
AC (f ) =
a 2a a4

88

SOLUZIONI DEGLI ESERCIZI


La dimensione di Imf corrisponde al rango di tale matrice. Come si verifica facilmente,
esso `e 1 se a = 1 mentre `e uguale a 2 per a 6= 1. In entrambi i casi una base dellimmagine
di f si ricava considerando colonne indipendenti della matrice. Per esempio abbiamo

BImf =

BImf =

1
1

per a = 1,


1
,
2a

1
a

per a 6= 1.

Dallequazione dimensionale ricaviamo anche che la dimensione del nucleo `e 2 per a = 1,


ed 1 per a 6= 1. Per determinare esplicitamente ker f nel caso a = 1 risolviamo il sistema
seguente

x + y 3z = 0
,
x + y 3z = 0

le cui 2 soluzioni descrivono il piano di equazione x + y 3z = 0. Pertanto, in tale caso,


una base di ker f si ricava considerando due vettori linearmente indipendenti appartenenti
a tale piano, per esempio

Bker f


3
1
= 1 , 0 .

0
1

Per determinare ker f se a 6= 1 dobbiamo risolvere il sistema seguente

x + y = 3z
ax + (2 a)y = (4 a)z.

Abbiamo allora le 1 soluzioni date da

3z
1
det
(4 a)z 2 a

x=
=z
1
1
det
a 2a

1
3z
det
a (4 a)z

= 2z.
y=
1
1
det
a 2a
Pertanto, in tale caso, una base di ker f `e data da

Bker f


1
= 2 .

(2) Indichiamo con [B1 ] la matrice di passaggio dalla base B1 alla base canonica di R3 , e
con [B2 ] la matrice di passaggio dalla base B2 alla base canonica di R2 . Abbiamo allora

3.1 ESERCIZI CAPITOLO 1 - SOLUZIONI

[B2 ]

1
=
8

6 2
5 3

89

e quindi, la matrice richiesta risulta


1 C
2
AB
B1 (f ) = [B2 ] AC (f )[B1 ] =

1 0 2
1
1
6 2
1 1 3
0 1 1 =
=
1 1 3
8 5 3
1 0 4
13
8

1
2

11
2

19
2

1.3.20 Sia M2 (R) lo spazio delle matrici quadrate di ordine 2 a coefficienti reali. Sia
P ol3 (R)[x] lo spazio dei polinomi di grado n 3 in x, a coefficienti reali. Sia f : M2 (R)
P ol3 (R)[x] la seguente applicazione lineare

a b
c d

= (a c + 2d)x3 + (b + 2d)x2 + (a + b c)x + a + b 2c + 2d,

con a, b, c, d R.
1. Determinare la dimensione di Imf , e scrivere una sua base.
2. Determinare la dimensione di kerf , e scrivere una sua base.
Svolgimento.
1. La dimensione dellimmagine di una applicazione lineare `e la caratteristica di una
qualsiasi matrice che la rappresenta rispetto a due basi B1 e B2 scelte nello spazio di
partenza e di arrivo, rispettivamente. Assumiamo B2 = {E11 , E12 , E21 , E22 } come base di
M2 (R), essendo E11 , E12 , E21 , E22 le matrici canoniche fondamentali, cio`e

E11

1 0
0 1
0 0
0 0
=
, E12 =
, E21 =
, E22 =
.
0 0
0 0
1 0
0 1

Assumiamo poi B1 = {x3 , x2 , x, 1} come base di P ol3 (R)[x]. Abbiamo allora

1 0 1 2
0 1 0 2
2
.

AB
B1 (f ) = 1
1 1 0
1 1 2 2
Osserviamo che R3 = R1 R2 , cio`e la terza riga `e uguale alla differenza tra le prime
2
due. Pertanto la caratteristica di AB
e al massimo 3. Considerando la sottomatrice
B1 (f ) `
M = {R1 , R2 , R4 } {C1 , C2 , C3 }, ottenuta intersecando la prima, seconda e quarta riga
con la prima, seconda e terza colonna, abbiamo det M = 1 6= 0, e quindi la caratteristica
2
di AB
e esattamente 3, per cui dim(Imf ) = 3.
B1 (f ) `
Limmagine `e quindi generata dai polinomi corrispondenti alle colonne C1 , C2 , C3 di
2
AB
e
B1 (f ), cio`

90

SOLUZIONI DEGLI ESERCIZI

q(x) = x3 + x + 1,
r(x) = x2 + x + 1
s(x) = x3 x 2.
Pertanto una base di Imf `e B = {q(x), r(x), s(x)}, ed Imf = {p(x) P ol3 (R)[x] : p(x) =
q(x) + r(x) + s(x), , , R}.
2. Dallequazione dimensionale n = dim(ker f ) + dim(Imf ) ricaviamo dim(ker f ) =
4dim(Imf ) = 1. Per determinare una base del nucleo, consideriamo il sistema omogeneo
2
AB
B1 (f )x = 0

a c + 2d = 0

b + 2d = 0
a+bc=0

a + b 2c + 2d = 0
Dalle considerazioni precedentemente svolte possiamo ridurre il sistema a quello formato
dalla prima, seconda e quarta equazione, lasciando a, b, c come incognite principali ed
assumendo d come parametro. Abbiamo quindi

0
0
2d
2


2d = d 2
d
1

a c = 2d
b = 2d

a + b 2c = 2d

= dv

Pertanto ker f `e generato dalla matrice corrispondente a v nella proiezione canonica


inversa, data da

0 2
A=
.
2 1
Abbiamo quindi
ker f = {dA : d R}.

1.3.21 Sia P ol3 (R)[x] lo spazio dei polinomi di grado n 3 in x, a coefficienti reali. Sia
M2 (R) lo spazio delle matrici quadrate di ordine 2 a coefficienti reali. Sia f : P ol3 (R)[x]
M2 (R) la seguente applicazione lineare

f (ax + bx + cx + d) =

a + b c 2a + b 3c d
a 2c d 3a + 2b 4c d

con a, b, c, d R.
1. Determinare la dimensione di Imf , e scrivere una sua base.
2. Determinare la dimensione di kerf , e scrivere una sua base.
Svolgimento.

3.1 ESERCIZI CAPITOLO 1 - SOLUZIONI


1. La dimensione dellimmagine di una applicazione lineare `e la caratteristica di una
qualsiasi matrice che la rappresenta rispetto a due basi B1 e B2 scelte nello spazio di partenza e di arrivo, rispettivamente. Assumiamo B1 = {x3 , x2 , x, 1} come base di P ol3 (R)[x],
e B2 = {E11 , E12 , E21 , E22 } come base di M2 (R), essendo E11 , E12 , E21 , E22 le matrici
canoniche fondamentali, cio`e

1 0
0 1
0 0
0 0
E11 =
, E12 =
, E21 =
, E22 =
.
0 0
0 0
1 0
0 1
Abbiamo allora

2
2
AB
B1 (f ) = 1
3

1
1
0
2

1 0
3 1
.
2 1
4 1

Considerando la sottomatrice M = {R1 , R2 } {C1 , C2 }, ottenuta intersecando la prima


e la seconda riga con la prima e seconda colonna, abbiamo det M = 1 6= 0, e quindi la
2
2
caratteristica di AB
e almeno 2. Orlando M in AB
B1 (f ) `
B1 (f ) abbiamo le quattro matrici
M1 = {R1 , R2 , R3 } {C1 , C2 , C3 }, M2 = {R1 , R2 , R3 } {C1 , C2 , C4 }, M3 = {R1 , R2 , R4 }
` facile vedere che queste matrici
{C1 , C2 , C3 } ed M4 = {R1 , R2 , R4 } {C1 , C2 , C4 }. E
2
hanno tutte determinante nullo. Di conseguenza la caratteristica di AB
e 2, per cui
B1 (f ) `
dim(Imf ) = 2.
Limmagine `e quindi generata dalle matrici corrispondenti alle prime due colonne di
2
AB
B1 (f ), date da

1 2
1 1
A=
, B=
.
1 3
0 2
Pertanto una base di Imf `e B = {A, B}, ed Imf = {M M2 (R) : M = A + B, ,
R}.
2. Dallequazione dimensionale n = dim(ker f ) + dim(Imf ) ricaviamo dim(ker f ) =
4dim(Imf ) = 2. Per determinare una base del nucleo, consideriamo il sistema omogeneo
2
AB
B1 (f )x = 0

a+bc=0

2a + b 3c d = 0
a 2c d = 0

3a + 2b 4c d = 0
Dalle considerazioni precedentemente svolte possiamo ridurre il sistema a quello formato
dalle prime due equazioni, lasciando a, b come incognite principali ed assumendo c, d come
parametri. Abbiamo quindi

2c + d
2
1

c d

a = 2c + d
= c 1 + d 1 = cv1 + dv2

b = c d
c
1
0
d
0
1
Pertanto ker f `e generato dai polinomi corrispondenti a v1 e v2 nella proiezione canonica
inversa, dati da p(x) = 2x3 x2 + x e q(x) = x3 x2 + 1, rispettivamente. Abbiamo quindi

91

92

SOLUZIONI DEGLI ESERCIZI

ker f = {cp(x) + dq(x) : c, d R}.

3.2

ESERCIZI CAPITOLO 2 - SOLUZIONI

2.6.1 Sia A M2 (R). Determinarne gli autovalori, sapendo che


det(A 2I) = 0, det(A I) = 0.
Svolgimento. Le radici del polinomio caratteristico (t) = det(A tI) = 0 sono
autovalori. Per ipotesi, questa equazione `e soddisfatta proprio da t1 = 2 e t2 = 1. Essi
sono pertanto gli autovalori di A.

2.6.2 Sia A M2 (R). Determinarne gli autovalori, sapendo che


det(A 2I) = 1, det(A I) = 2.
Svolgimento. Essendo A una matrice di ordine 2, il suo polinomio caratteristico
`e (t) = det(A tI) = t2 + pt + q. Le ipotesi dicono che (2) = 1 e (1) = 2, ovvero

4 + 2p + q = 1
1 + p + q = 2,
da cui p = 0 e
q = 3. Quindi il polinomio caratteristico di A `e (t) = t2 3, e le sue
radici, t1,2 = 3, sono gli autovalori cercati.

2.6.3 Sia A M2 (R) non singolare. Determinare gli autovalori della matrice sapendo che
det(I A) = 0 e che det((A1 (2I A))) = 0.
Svolgimento. Da det(I A) = 0, segue che 1 = 1 `e un autovalore. Poiche
1
det(A1 ) =
6= 0, per il Teorema di Binet abbiamo:
det(A)
det((A1 (2I A))) = det(A1 ) det(2I A) = 0,
ovvero det(2I A) = 0. Quindi anche 2 = 2 `e un autovalore.

2.6.4 Sia A M2 (R). Determinarne gli autovalori, sapendo che det(I A) = 4 e det(4I
A) = 1.
Svolgimento. Essendo A una matrice di ordine 2, il suo polinomio caratteristico
ha grado 2, ed `e della forma (t) = det(tI A) = t2 + pt + q. Le ipotesi dicono che
(1) = 4 e (4) = 1, ovvero

16 + 4p + q = 1
1 + p + q = 4,
da cui p = 6 e q = 9. Quindi il polinomio caratteristico di A `e (t) = t2 6t + 9, e la
sua radice, t1,2 = 3, di molteplicit`a 2, `e lautovalore cercato.

3.2 ESERCIZI CAPITOLO 2 - SOLUZIONI

93

2.6.5 Sia f un endomorfismo dello spazio vettoriale V, tale che f 2 + f = 0. Dimostrare


che Specf {0, 1}.
Svolgimento. Sia un autovalore di f . Detto v un suo autovettore, si ha f (v) =
v. Per lipotesi su f abbiamo allora:
0 = (f 2 + f )(v) = f 2 (v) + f (v) = 2 v + v = (2 + )v.
Essendo v 6= 0, dalla precedente catena di uguaglianze segue 2 + = 0. Pertanto
{0, 1}.

2.6.6 Si consideri la matrice

0 6 0
A = 1 0 1 .
1 0 1

Determinarne autovalori e autovettori e stabilire se A `e diagonalizzabile.


Svolgimento. Il polinomio caratteristico di A `e (t) = det(A tI) = t(t2 + t +
6), le cui radici t1 = 0, t2 = 2 e t3 = 3 sono gli autovalori cercati. Siccome sono distinti, A
`e diagonalizzabile. Gli autovettori corrispondenti si determinano derivano dallequazione
AX = tX, dove X = [x, y, z]t . Per t1 = 0, AX = X diventa



0 6 0
x
x
1 0 1 y = 0 y ,
1 0 1
z
z
che porta al sistema

ovvero

6y = 0
x+z =0

x+z =0

y=0
x = z.

1
Lautovettore corrispondente a t1 = 0 `e dunque a 0 , con a 6= 0. Questultima
1
condizione `e essenziale, perche un autovettore,
per
definizione,
non pu`o
essere

nullo. Con

3
2
conti analoghi, per t2 = 2 troviamo b 1 , con b 6= 0 e, per t3 = 3, c 1 , con c 6= 0.
1
1
Una verifica alternativa si pu`o fare ricordando che condizione necessaria e sufficiente per la
diagonalizzabilit`a `e avere autovettori indipendenti. Infatti la matrice che ha come colonne
i tre autovettori appena trovati ha il determinante diverso da zero, quindi gli autovettori
sono linearmente indipendenti.

2.6.7 Mostrare che la matrice

1 0 2
A= 3 2 0
0 2 6

94

SOLUZIONI DEGLI ESERCIZI


`e diagonalizzabile. In caso affermativo determinare una matrice B diagonale simile ad A
e la relativa matrice di passaggio P .
Svolgimento. Poiche (t) = t3 + 9t2 20t, si ha t1 = 0, t2 = 4 e t3 = 5 (radici
del polinomio (t)). Essendo distinti, sono regolari, quindi A `e diagonalizzabile. Le matrici
di passaggio hanno
come
colonne gli autovettori
di A. Gli autovettori corrispondenti a t1 ,



2
2
1
3
t2 e t3 sono a 3 , b 1 e c 1 , rispettivamente, con a 6= 0, b 6= 0 e c 6= 0.
1
1
2
Una matrice di passaggio `e quindi la seguente:

2
2
1
3
P = 3 1 1 .
1
1 2

2.6.8 Sia A la seguente matrice

5 0 6
A = k 1 3 ,
9 0 10
essendo k un parametro reale.
1. Determinare lo spettro di A
2. Stabilire i valori di k per i quali A `e diagonalizzabile.
3. Determinare, quando `e possibile, una matrice P tale che P 1 AP sia una matrice
diagonale.
Svolgimento.
(1) Calcoliamo il polinomio caratteristico di A

5
0
6
k
1
3 = (1 )2 (4 )
det(A I) = det
9
0
10

det(A I) = 0 =

1 soluzione doppia
4 soluzione semplice

Pertanto abbiamo SpecA = {1, 1, 4}.


(2) Per studiare la diagonalizzabilit`a della matrice, dobbiamo studiare la regolarit`a
degli autovalori. Lautovalore = 4 `e semplice, quindi `e regolare per ogni k. Per studiare
la regolarit`a di = 1, calcoliamo la caratteristica di A 1 I

6 0 6
A 1 I = k 0 3
9 0 9

3.2 ESERCIZI CAPITOLO 2 - SOLUZIONI

95

La terza riga `e multipla della prima (R3 = 32 R2 ) per ogni k. Se k 6= 3 la caratteristica di


A 1 I `e uguale a 2, quindi
mg (1) = n r(A 1 I) = 3 2 = 1 6= ma (1),
cio`e la molteplicit`a geometrica mg di 1 `e diversa dalla molteplicit`a algebrica ma di tale
autovalore, che, quindi, non `e regolare.
Per k = 3 abbiamo invece caratteristica 1, e quindi mg (1) = ma (1) = 2, per cui lautovalore
`e regolare.
Di conseguenza, la matrice A ammette autovalori tutti regolari solo per k = 3, e quindi `e
diagonalizzabile solo per tale valore del parametro.
(3) Una matrice P che diagonalizza A esiste solo per k = 3. In corrispondenza di
questo valore del parametro, calcoliamo gli autospazi associati ai due autovalori.

6x + 6z = 0
3x 3z = 0
=1

9x + 9z = 0
Abbiamo pertanto la soluzione x = z, y, e quindi

* +
1
0
x

E1 = y , x, y R = 0 , 1

x
1
0

autospazio associato a = 1

9x + 6z = 0
3x 3y 3z = 0
=4

9x + 6z = 0
Abbiamo pertanto la soluzione x = 2y, z = 3y, e quindi

2 +
2y

E4 = y , y R = 1

3y
3

autospazio associato a = 4.

Una matrice P che diagonalizza


A
ha come colonne le basi degli autospazi.

1 0 2
Per esempio P = 0 1 1
1 0 3

2.6.9 Sia A la seguente matrice

1
0 5
A = k 1 k 5 ,
1 0 7

essendo k un parametro reale.

96

SOLUZIONI DEGLI ESERCIZI


1. Determinare, al variare di k in R, lo spettro di A.
2. Studiare, al variare di k in R, la diagonalizzabilit`a della matrice.
Svolgimento.
(1) Calcoliamo il polinomio caratteristico di A

1
0
5
det(A I) = det k 1 k 5 = (k )( 6)( 2)
1
0
7

k
6
det(A I) = 0 =

2
Pertanto abbiamo SpecA = {k, 2, 6}.
(2) Per studiare la diagonalizzabilit`a della matrice, dobbiamo studiare la regolarit`a
degli autovalori. Se k 6= 2, 6 i tre autovalori sono semplici, quindi regolari, ed A `e
diagonalizzabile.
Se k = 2 abbiamo

1 0 5
A 2 I = 1 0 5
1 0 5
La seconda riga `e lopposta della prima mentre la terza `e uguale alla prima riga. Il rango
di A 2 I `e quindi uguale ad 1, e di conseguenza la molteplicit`a geometrica di = 2 `e
mg (2) = 3 r(A 2 I) = 2,
uguale alla molteplicit`a algebrica ma di tale autovalore, che, pertanto, `e regolare. Di
conseguenza, la matrice `e diagonalizzabile anche per k = 2.
Sia ora k = 6. Abbiamo allora

5 0 5
A 6 I = 5 0 5
1 0 1
Anche in questo caso il rango `e uguale ad 1, quindi
mg (6) = 3 r(A 6 I) = 2,
uguale alla molteplicit`a algebrica ma di tale autovalore, che, pertanto, `e regolare. Di
conseguenza, la matrice `e diagonalizzabile anche per k = 6.
Riassumendo, la matrice `e diagonalizzabile per ogni valore del parametro.

2.6.10 Sia A la seguente matrice

3.2 ESERCIZI CAPITOLO 2 - SOLUZIONI

3 0 1
A = 4 a 2 ,
2 0 2
essendo a un parametro reale.
1. Determinare lo spettro di A
2. Stabilire i valori del parametro a per i quali A `e diagonalizzabile.
Svolgimento.
(1) Calcoliamo il polinomio caratteristico di A

3
0
1
det(A I) = det 4 a 2 = (a )( 4)( 1)
2
0
2

a
1
det(A I) = 0 =

4
Pertanto abbiamo SpecA = {a, 1, 4}.
(2) Per studiare la diagonalizzabilit`a della matrice, dobbiamo studiare la regolarit`a
degli autovalori. Se a 6= 1, 4 i tre autovalori sono semplici, quindi regolari, ed A `e
diagonalizzabile.
Se a = 1 abbiamo

2 0 1
A 1 I = 4 0 2
2 0 1
La terza colonna `e multipla della prima (C3 = 12 C2 ), mentre la seconda `e nulla. Quindi, il
rango di A 1 I `e uguale ad 1, e di conseguenza la molteplicit`a geometrica di 1 `e
mg (1) = 3 r(A 1 I) = 2,
uguale alla molteplicit`a algebrica ma di tale autovalore, che, quindi, `e regolare. Pertanto,
la matrice `e diagonalizzabile anche per a = 1.
Sia ora a = 4. Abbiamo allora

1 0 1
A 4 I = 4 0 2
2 0 2
In questo caso il rango `e uguale a 2, quindi
mg (4) = 3 r(A 4 I) = 1,

97

98

SOLUZIONI DEGLI ESERCIZI


diversa dalla molteplicit`a algebrica ma di tale autovalore, che, quindi, non `e regolare.
Pertanto, la matrice non `e diagonalizzabile per a = 4.
Riassumendo, la matrice `e diagonalizzabile per ogni valore di a diverso da 4.

2.6.11 Stabilire se la matrice reale

1
A=
54

1 1
0 1
1 0

`e diagonalizzabile in R.
Svolgimento. Calcoliamo gli autovalori di A. Dallequazione det(A tI) =
t3 34 t + 14 = 0, otteniamo t1 = 1 e t2,3 = 12 . Questultimo `e un autovalore doppio.
Quindi A `e diagonalizzabile se e solo se 1
2 `e regolare. In questo caso ci`o significa che
1
rk(A 2 I) = 3 2 = 1. Siccome
1

1
2
rk A I = rk 1
2
5
4

1
1
2
1

1 = 2,
12

lautovalore t = 12 non `e regolare e A non `e diagonalizzabile.

2.6.12 Sia A M2 (R) una matrice tale che


det(A) = det(2I A) = 0.
Stabilire se A `e diagonalizzabile.
Svolgimento. Poiche det(A) = 0, = 0 `e autovalore di A. Inoltre, da det(A
2I) = 0, segue che anche = 2 `e un autovalore. Siccome A `e una matrice di ordine 2, e
possiede due autovalori distinti, tali autovalori risultano semplici e regolari. Questultima
`e una condizione necessaria e sufficiente per la diagonalizzabilit`a.

2.6.13 Determinare i valori del parametro h R

h 0
A = 1 2
1 0

in modo che la matrice

0
h
0

sia diagonalizzabile.
Svolgimento.

Determiniamo gli autovalori di A. Dallequazione


det(A tI) = t(h t)(2 t) = 0,

otteniamo t1 = 0, t2 = 2 e t3 = h. Per h 6= 0, 2, gli autovalori sono distinti, quindi


regolari e la matrice `e diagonalizzabile. Nei casi h = 0, oppure h = 2, t1 o t2 sono
doppi. Per la diagonalizzabilit`a occorre dunque stabilire la regolarit`a di t1 o t2 , ovvero se
rk(A t1,2 I) = 1.

3.2 ESERCIZI CAPITOLO 2 - SOLUZIONI


Sia h = 0. Il rango di A0I `e 2, quindi t = 0 non `e regolare e A non `e diagonalizzabile.
Sia h = 2. Il rango di A 2I `e 1, quindi t = 2 `e regolare e A `e diagonalizzabile.
Concludendo, la matrice A `e diagonalizzabile se e solo se h 6= 0.

2.6.14 Determinare tutti i valori del parametro h R tali che la matrice

1 0 0
A = 2h 0 0
h 2h 1
sia diagonalizzabile
Svolgimento. La matrice A `e triangolare inferiore, quindi i suoi autovalori sono
i termini principali, 1 = 0 e 2,3 = 1. Per la diagonalizzabilit`a dobbiamo verificare se
lautovalore doppio = 1 `e regolare. Questo significa che rk(A 1 I) = n ma (1) =
3 2 = 1. Siccome

0
0 0
A I = 2h 1 0 ,
h 2h 0

2h 1
= 0, ovvero 4h2 + h = 0. Dunque A `e
abbiamo rk(A I) = 1 se e solo se
h 2h
diagonalizzabile se e solo se h = 0 oppure h = 14 .

2.6.15 Si considerino le matrici

1 0 1
A = 1 1 h ,
0 0
1

h 1 0
B = 1 1 h .
0
0 1

` possibile che A e B rappresentino lo stesso endomorfismo (rispetto a basi diverse)?


E
Svolgimento. Due matrici rappresentano lo stesso endomorfismo se e solo se
sono simili. Detti A (t) = t3 + t2 + t 1 e B (t) = t3 + (h + 2)t2 2ht + h 1 i polinomi
caratteristici di A e B, rispettivamente, affinche le due matrici siano simili `e necessario
che A (t) = B (t). Per il principio didentit`
a dei polinomi, i coefficienti di t di A (t) e
B (t) devono essere ordinatamente proporzionali. Il rango della matrice

1
1
1
1
C=
,
1 h + 2 2h h 1
le cui righe sono i coefficienti dei due polinomi, deve essere 1. Il minore costruito con le
prime due colonne `e nullo se e solo se h = 1. Per`
o questo valore non annulla il minore
determinato dalla prima e dallultima colonna quindi rk(C) = 2 per ogni valore di h. Le
matrici A e B, non essendo mai simili, non possono in alcun caso rappresentare lo stesso
endomorfismo.

2.6.16 Si consideri la matrice

1 0 h
A = 0 1 0 ,
1 0 1

99

100

SOLUZIONI DEGLI ESERCIZI


con h parametro reale. Stabilire se A `e diagonalizzabile per ogni valore di h e se esiste un
valore di h tale che A sia ortogonalmente simile ad una matrice diagonale D.
2
Svolgimento. Il polinomio caratteristico
di A `e (t) = (1 t)(t 2t + 1 h).
Gli autovalori sono quindi t1 = 1 e t2,3 = 1 h. Essendo questi ultimi dipendenti dal
parametro h, non `e vero che A `e diagonalizzabile per ogni h. Ad esempio, per h = 0,
lautovalore t = 1 `e triplo, quindi A `e diagonalizzabile se e solo se t = 1 `e regolare, ovvero
se rk(A I) = 0. Ma rk(A I) = 1.
Osserviamo che, per h = 1, la A `e reale e simmetrica, quindi ortogonalmente simile
ad una matrice diagonale reale. Non `e detto, per`o, che non esistano altri valori di h che
soddisfino le richieste del problema, magari con D complessa. Se A `e diagonalizzabile
tramite una matrice di passaggio ortogonale U , significa che esiste una matrice diagonale
D tale che A = U t DU . Trasponendo entrambi i membri di questultima uguaglianza,
otteniamo
t
At = U t Dt U t = U t DU = A.

Quindi, coincidendo con la sua trasposta, A `e simmetrica. Questo accade se e solo se h = 1,


che rappresenta quindi lunico valore che risolve il problema. Si noti che non abbiamo
potuto usare le propriet`a delle matrici reali e simmetriche, perche nelle ipotesi non viene
specificato se la matrice D `e reale o meno. Si `e invece dovuto verificare direttamente
che, come conseguenza della diagonalizzabilit`a con matrice di passaggio ortogonale, la A
`e simmetrica.

2.6.17 Si consideri la matrice

h
1 0
0 0 .
A= 0
h+1 h 1
Stabilire se esiste un valore del parametro reale h tale che A sia simile ad una matrice
reale simmetrica B avente come polinomio caratteristico B (t) = t3 2t2 + t.
Svolgimento. Il polinomio caratteristico di B `e B (t) = t3 2t2 + t = t(t2 2t +
1) = 0, perci`o gli autovalori sono t1 = 0, t2,3 = 1. Osserviamo che B `e reale e simmetrica,
quindi diagonalizzabile. In altre parole, rispetto alla relazione di similitudine, la classe [B]
`e formata da tutte e sole le matrici simili a diag(0, 1, 1). Il polinomio caratteristico di A `e
A (t) = det(A tI) = t(1 t)(h t), e i suoi autovalori sono t1 = 0, t2 = 1 e t3 = h.
Quindi `e necessario che h = 1. Se vogliamo che A sia diagonalizzabile, t = 1 devessere
regolare, ovvero

0 1 0
rk(A I) = rk 0 1 0 = 1.
2 1 0
Siccome rk(A I) = 2, la A non `e diagonalizzabile per h = 1, quindi nemmeno in questo
caso pu`o essere simile a B.

2.6.18 Dimostrare che ogni matrice simile ad una matrice A nilpotente (tale cio`e che
Am = O per qualche intero m N) `e a sua volta nilpotente.
Svolgimento.

Supponiamo che B sia simile ad A. Allora esiste una matrice

3.2 ESERCIZI CAPITOLO 2 - SOLUZIONI

101

invertibile P tale che B = P 1 AP . Quindi


B m = (P 1 AP )(P 1 AP ) P 1 AP
|
{z
}
m volte

= P 1 A(P P 1 )A (P P 1 )AP
= P 1 Am P = P 1 OP = O.
Quindi anche B `e nilpotente.

2.6.19 Dimostrare che se P = aU , con U matrice ortogonale, e D `e diagonale, la matrice


P DP 1 `e simmetrica.

t
Svolgimento. Abbiamo P DP 1 = aU Da1 U t = U DU t . Essendo U DU t =
U DU t , si ha quanto sopra affermato.

2.6.20 In R3 , si considerino il vettore v = [3, 1, 2]t , ed il sottospazio U generato dai


vettori x1 = [1, 4, 1]t ed x2 = [2, 1, 1]t . Determinare la proiezione di v su U e la lunghezza
della proiezione di v su U .
Svolgimento. Indichiamo con U la matrice associata al sottospazio U , le cui
colonne sono date dai vettori x1 ed x2 . La proiezione di v su U si ottiene moltiplicando il vettore, a sinistra, per la matrice di proiezione PU = U R, essendo R la matrice
pseudoinversa di Moore-Penrose di U . Abbiamo quindi
t
PU = U R = U (U t U )1
U

1 2

1 4 1
18 1
4 1 =
U tU =
2 1 1
1 6
1 1

1
6 1
(U t U )1 =
107 1 18

1
1
6 1
1 4 1
8
23
7
t
1 t
R = (U U ) U =
=
2 1 1
107 37 14 19
107 1 18

1 2
82 5 45
1
1
8
23
7
4 1
5 106 9
PU = U R =
=
37 14 19
107
107
1 1
45
9 26

341
82 5 45
3
107
1
.
5 106 9 1 = 103
PU v =
107
107
178
2
45
9 26
107

La lunghezza della proiezione di v su U si pu`o ottenere moltiplicando il vettore, a sinistra,


per la matrice I PU . Abbiamo quindi

20
25
5 45
3
107
1
4
5
1
9 1 = 107
(I PU )v =
107
36
45 9 81
2
107
s
k(I PU )vk =

400 + 16 + 1296
4
=
(107)2
107

102

SOLUZIONI DEGLI ESERCIZI


Si noti che v e le sue proiezioni sui sottospazi ortogonali devono verificare il teorema di
Pitagora. In effetti abbiamo
16
k(IPU )vk2 +kPU vk2 =
+
107

341
107

103
107

178
107

2 !
=

16 1498
+
= 14 = kvk2 .
107 107

2.6.21 Sia A M2 (R) una matrice avente autovalori 0, 1 corrispondenti, rispettivamente,


agli autovettori x1 = [1, 1]t e x2 = [1, 1]t . Determinare A.
Svolgimento.

Consideriamo la matrice generica

x y
A=
.
z t

Per ipotesi Axi = i xi , (i = 1, 2). Procedendo in maniera diretta abbiamo

x y
1
0
x y
1
1

=
,

=
,
z t
1
0
z t
1
1
da cui

x+y =0

z+t=0
x + y = 1

z + t = 1.

1
Risolvendo il sistema otteniamo x = t = 1
2 e y = z = 2 . In alternativa, si noti che
A = P DP 1 , dove P `e la matrice degli autovettori,e D `e la matrice diagonale degli
autovalori, per cui

1 1
.
P =
1 1
Si ricava

1
A=
2

1 1
1 1

Si noti che A `e simmetrica, in accordo con lEsercizio 2.6.19.

2.6.22 Dimostrare che una matrice di proiezione `e simmetrica.


Svolgimento. Si consideri un sottospazio W di Rn , e sia A la matrice avente
come colonne i vettori di una base di W. Sia PA la corrispondente matrice di proiezione.
Come `e noto, date due matrici conformabili X, Y risulta (XY )t = Y t X t . Inoltre, se Q `e
una matrice quadrata, vale la formula (Qt )1 = (Q1 )t . Abbiamo allora
PAt = (A(At A)1 At )t =

t
= (At )t (At A)1 At =

1 t
= A (At A)t
A =
t
1
t
= A(A A) A = PA ,
per cui PA `e una matrice simmetrica.

3.2 ESERCIZI CAPITOLO 2 - SOLUZIONI

103

2.6.23 Si considerino le matrici A, B Mn (R). Siano A e B autovalori di A e B,


rispettivamente, entrambi associati allautovettore x. Dimostrare che x `e un autovettore
sia di AB che di BA, associato allautovalore A B .
Svolgimento. Essendo (x, A ) e (x, B ) due coppie autovalore-autovettore per
le matrici A e B, rispettivamente, abbiamo Ax = A x e Bx = B x. Dobbiamo verificare
la validit`a di due uguaglianze analoghe per le matrici AB e BA, ovvero
(AB)x = A B x
(BA)x = A B x.

(3.2.1)

Da Ax = A x, moltiplicando entrambi i membri per B , otteniamo B (Ax) = B (A x),


ovvero
A(B x) = A B x.
(3.2.2)
Essendo Bx = B x, sostituendo nel primo membro di (3.2.2), otteniamo la prima delle
(3.2.1).

2.6.24 Si considerino le matrici

0 0 0
A = 0 2 0 ,
h 1 2

1 0 1
B = 0 2 0 .
1 0 1

Verificare che A non `e diagonalizzabile per alcun valore del parametro h R, e che non `e
mai simile a B.
Svolgimento. La matrice A `e triangolare inferiore. I suoi autovalori coincidono
quindi con i termini principali: 1 = 0 e 2,3 = 2. Essendo questultimo un autovalore
doppio, la A `e diagonalizzabile se e solo se = 1 `e regolare ( = 0 `e semplice, quindi
automaticamente regolare). Nella matrice

2 0 0
A 2I = 0 0 0 ,
h 1 0

2 0
6= 0, indipendentemente dal valore di h. Quindi rk(A2I) =
abbiamo il minore
h 1
2 > 1 e = 2 non `e regolare. La matrice A non `e mai diagonalizzabile. Invece B `e reale
simmetrica, dunque diagonalizzabile. Non `e pertanto possibile che le due matrici siano
simili.

2.6.25 Si consideri la matrice

h h1 1
1
2 .
A= 0
0
0
2
Determinare gli h R tali che A non sia diagonalizzabile.
Svolgimento. Gli autovalori di A coincidono con i suoi termini principali, in
quanto A `e triangolare superiore, e sono 1 = 1, 2 = 2 e 3 = h. Se h 6= 1, 2, i

104

SOLUZIONI DEGLI ESERCIZI


tre autovalori sono distinti, quindi regolari, e la A `e diagonalizzabile. Poniamo h = 1.
Lautovalore = 1, doppio, `e regolare se e solo se rk(A I) = 1. Siccome questo `e proprio
ci`o che accade, anche per h = 1 la A `e diagonalizzabile. Per h = 2, il rango di

0 1 1
A 2I = 0 1 2
0 0 0
`e 2, quindi = 2 `e un autovalore doppio non regolare. Pertanto A non `e diagonalizzabile
solo per h = 2.

2.6.26 Si considerino le matrici

1 h 0
A = 0 0 h ,
0 0 1

1 0 0
B = 0 0 0 .
0 0 1

Verificare che A e B sono simili per ogni h R e stabilire se esistono valori di h per i quali
siano ortogonalmente simili.
Svolgimento. La matrice A `e triangolare superiore, mentre B `e diagonale, entrambe con gli stessi termini principali, che coincidono con i loro autovalori 1 = 1,
2 = 0, e 3 = 1. Essendo distinti, sono regolari. Quindi A e B, entrambe diagonalizzabili
con stessi autovalori, sono simili, il tutto indipendentemente dalla scelta del valore di h. La
B `e una matrice diagonale e reale. Affinche la A sia ortogonalmente simile a B, devessere
reale simmetrica. Questo avviene se e solo se h = 0.

2.6.27 Sia A M2 (R) tale che (A + I)2 = 2(A + I). Stabilire se A `e diagonalizzabile.
Svolgimento.

Per ipotesi (A + I)2 2(A + I) = O, quindi (A + I)(A + I 2I),

ovvero
(A + I)(A I) = O.

(3.2.3)

Per il Teorema di Binet, det(A + I) det(A I) = 0. Possono verificarsi tre casi.


(i) Se det(A + I) = 0 e det(A I) 6= 0, esiste la matrice (A I)1 . Moltiplicando
entrambi i membri della (3.2.3) a destra, otteniamo A + I = O, ovvero A = I.
Perci`o A, essendo scalare, `e diagonale, quindi diagonalizzabile.
(ii) Se det(A + I) 6= 0 e det(A I) = 0, esiste la matrice (A + I)1 . Moltiplicando la
(3.2.3) a sinistra, in entrambi i membri, otteniamo A I = O, cio`e A = I. Come
nel punto (i), A `e diagonalizzabile.
(iii) Se det(A + I) = det(A I) = 0, i numeri = 1 sono gli autovalori di A ed essendo
distinti sono regolari. Quindi A `e diagonalizzabile.

2.6.28 Sia f lendomorfismo di R3 definito da


f ([x, y, z]t ) = [x + y, x + z, y + z]t .
Stabilire se f `e diagonalizzabile e calcolarne autovalori e autovettori.

3.2 ESERCIZI CAPITOLO 2 - SOLUZIONI


Svolgimento.

105

La matrice associata ad f `e:

1 1 0
A = 1 0 1 .
0 1 1
Il polinomio caratteristico `e f (t) = A (t) = det(AtI) = (1t)(t2)(t+1) = 0 se e solo
se t = 1, 1, 2. Gli autovalori sono semplici, quindi regolari ed f `e diagonalizzabile. Gli
autovettori associati a t = 1, t = 1 e t = 2 sono le autosoluzioni dei sistemi AX = tX,
con t = 1, 1, 2 e X = [x, y, z]t . Ovvero dei tre sistemi:


x
x
x + y = x
x + z = y
A y = 1 y

z
z
y + z = z,


x
x
x+y =x

x+z =y
A y =1 y

z
z
y + z = z,


x
x
x + y = 2x

x + z = 2y
A y =2 y

z
z
y + z = 2z,

le cui soluzioni sono, rispettivamente:

1
a 1 ,
1

1
b 0 ,
1

1
c 2
1

con a, b, c R \ {0}.

2.6.29 Si consideri lendomorfismo f : R3 R3 dato da


x
4x 4z
f y = 5x y 5z
xz
z
1. Determinare la matrice caratteristica, il polinomio caratteristico e lo spettro di f .
2. Determinare gli autospazi associati ad f , la loro dimensione ed una base per ognuno
di essi.
3. Stabilire se esiste una base di R3 rispetto alla quale f `e rappresentato dalla matrice
seguente

3 2 15
A= 0 0 6
0 0 1

106

SOLUZIONI DEGLI ESERCIZI


Svolgimento.
1. Determiniamo innanzitutto la matrice caratteristica M = ACC (f ) I3 associata
allendomorfismo f

4 0 4
4
0
4
1
5 .
ACC (f ) = 5 1 5 M = 5
1 0 1
1
0
1
Sappiamo che il polinomio caratteristico di f `e () = det M . Quindi

4
0
4
1
5 =
() = det M = det 5
1
0
1
2
= (4 )(1 ) + 4(1 ) = (1 )(2 3) = (1 )( 3).

Lo spettro di f si ottiene determinando le radici del polinomio caratteristico, e quindi

semplice
0
1 semplice
() = 0 =
Specf = {0, 1, 3}.

3
semplice
2. In corrispondenza dellautovalore = 0 abbiamo


4 0 4
x
0
4x 4z = 0
5 1 5 y = 0
5x y 5z = 0

1 0 1
z
0
xz =0

=0

x=z
y = 0.

Pertanto, lautospazio associato allautovalore = 0 risulta


E0 = ker f = 0 , x R .

x
In particolare, dimE0 = 1, ed una base di E0 `e data da

1
B1 = 0 .

1
Per = 1 abbiamo


5 0 4
x
0
5x 4z = 0
5 0 5 y = 0
5x 5z = 0

1 0 0
z
0
x=0

= 1

Pertanto, lautospazio associato allautovalore = 1 risulta

x = z = 0, y.

3.2 ESERCIZI CAPITOLO 2 - SOLUZIONI

E1

= y , yR .

In particolare, dimE1 = 1, ed una sua base `e data da



0
B2 = 1 .

0
Per = 3 risulta


1 0 4
x
0
x 4z = 0
15

5 4 5
y = 0
5x 4y 5z = 0 x = 4z, y = z.
=3

4
1 0 4
z
0
x 4z = 0

Pertanto, lautospazio associato allautovalore = 3 risulta

4z

, zR .
z
E3 = 15
4

z
In particolare, dimE3 = 1, ed una sua base `e data da

16
B3 = 15 .

4
3. Determiniamo innanzitutto gli autovalori della matrice A. Poiche A `e una matrice
triangolare i suoi autovalori sono gli elementi della diagonale principale, e quindi SpecA =
Specf = {0, 1, 3}. Poiche esistono tre autovalori distinti (cio`e di molteplicit`a algebrica
1), sia la matrice A che la matrice ACC (f ) sono diagonalizzabili, e la matrice diagonale
D `e la stessa. Quindi A `e simile ad ACC (f ), e quindi esiste una base rispetto alla quale
lendomorfismo `e rappresentato dalla matrice A. In particolare, dalla transitivit`a della
relazione di similitudine tra matrici, si ricava che, se P `e la matrice di passaggio da ACC (f )
a D, e Q `e la matrice di passaggio da A a D, la base rispetto alla quale f `e rappresentato

dalla matrice A `e formata dalle colonne della matrice P Q1 .


2.6.30 Si stabilisca se le matrici

1 0 0
A= 0 2 0
0 0 2

1 1 0
B= 0 2 1
0 0 2

rappresentano lo stesso endomorfismo in R3 , rispetto a basi opportune.


Svolgimento. Due matrici rappresentano lo stesso endomorfismo rispetto a basi
diverse se e solo se sono simili. Siccome A e B sono entrambe triangolari, hanno come
autovalori i termini principali, ovvero, per entrambe, lo spettro `e {1, 2}. Poiche A `e
addirittura diagonale, B `e simile ad A se e solo se `e diagonalizzabile. Lautovalore 2 `e

107

108

SOLUZIONI DEGLI ESERCIZI


doppio. Siccome rk(B 2I) = 2, si ha mg (2) + ma (2) = 4, quindi 2 non `e regolare per B.
Non essendo diagonalizzabile, non pu`o essere simile ad A.

2.6.31 Si consideri lendomorfismo f : R3 R3 rappresentato, rispetto alla base canonica,


dalla seguente matrice

3 0 2
ACC (f ) = 2 1 2
0 0 1
1. Determinare la matrice caratteristica, il polinomio caratteristico e lo spettro di f .
2. Determinare gli autospazi associati ad f , la loro dimensione ed una base per ognuno
di essi.
3. Stabilire se ACC (f ) `e simile alla matrice data da

1 0 0
A = 1 1 0 .
2 1 3

Svolgimento.
1. Determiniamo innanzitutto la matrice caratteristica M = ACC (f ) I3 associata
allendomorfismo f

3
0
2
1 2 .
M = 2
0
0
1
Sappiamo che il polinomio caratteristico di f `e () = det M . Quindi

3
0
2
1 2 = (3 )(1 )2 = 3 + 52 7 + 3.
() = det M = det 2
0
0
1
Lo spettro di f si ottiene determinando le radici del polinomio caratteristico, e quindi

3 semplice
Specf = {1, 1, 3}.
() = 0 =
1 doppio
2. In corrispondenza dellautovalore = 3 abbiamo


0 0 2
x
0
2z = 0
2 2 2 y = 0
2x 2y 2z = 0

0 0 2
z
0
2z = 0

=3

Pertanto, lautospazio associato allautovalore = 3 risulta

z=0
y = x.

3.2 ESERCIZI CAPITOLO 2 - SOLUZIONI

109

E3 = x , x R .

0
In particolare, dimE3 = 1, ed una base di E3 `e data da

1
B1 = 1 .

0
Analogamente, per = 1 abbiamo

=1


2 0 2
x
0
2 0 2 y = 0
0 0 0
z
0

2x 2z = 0
2x 2z = 0

0=0

x = z, y.

Pertanto, lautospazio associato allautovalore = 1 risulta


E1 = y , x, y R .

x
In particolare, dimE1 = 2, ed una base di E1 `e data da

0
1
B2 = 0 , 1 .

1
0
3. Poiche A `e una matrice triangolare i suoi autovalori sono gli elementi della diagonale
principale, e quindi SpecA = Specf = {1, 1, 3}. Controlliamo la molteplicit`a geometrica
dellautovalore doppio. Abbiamo allora

0 0 0
=1

A 1 I3 = 1 0 0 .
2 1 2
La caratteristica di A 1 I3 `e 2, per cui la molteplicit`a geometrica di = 1 `e 3 2 =
1 < ma (1). Quindi A non `e diagonalizzabile. Invece lendomorfismo f `e diagonalizzabile,
poiche ogni suo autovalore ha molteplicit`a algebrica uguale alla molteplicit`a geometrica.
Di conseguenza le matrici ACC (f ) ed A non sono simili. Infatti, se A fosse simile alla matrice
ACC (f ), allora, per la transitivit`a della relazione di similitudine, anche A dovrebbe essere
diagonalizzabile.

2.6.32 Sia A Mn (R) una matrice avente un unico autovalore t0 . Dimostrare che A `e
diagonalizzabile se e solo se A = t0 In .
Svolgimento.
I Metodo La matrice A `e diagonalizzabile se e solo se esiste una matrice P tale che
P 1 AP = t0 In . Moltiplicando a sinistra per P e a destra per P 1 entrambi i membri
della precedente uguaglianza, abbiamo A = P (t0 In )P 1 = t0 P In P 1 = t0 In .

110

SOLUZIONI DEGLI ESERCIZI


II Metodo Indichiamo con f lautomorfismo di V associato alla matrice A. Essendo
Spec(f ) = {t0 } esiste un solo autospazio Vt0 (f ). Allora f `e diagonalizzabile se e solo se
V = Vt0 (Teorema Spettrale), ovvero se e solo se f (v) = t0 v per ogni v V. Quindi
A = t0 I n .
III Metodo La matrice A `e diagonalizzabile se e solo se t0 `e regolare. Essendo n la sua
molteplicit`a algebrica, questo significa che rk(A t0 In ) = n ma (t0 ) = n n = 0. Ma
lunica matrice di rango 0 `e quella nulla, cio`e A t0 In = O, da cui A = t0 In .

2.6.33 Si consideri lendomorfismo fh : R3 R3 rappresentato dalla matrice

h 0 h
Ah = 1 1 h
0 0 1

h R.

Si stabilisca per quali valori di h fh non `e un automorfismo e per quali i suoi autovalori
sono semplici. Si dica se, per h = 1, `e possibile esprimere R3 come somma diretta di
autospazi. Determinarli in caso affermativo.
Svolgimento. Lapplicazione fh `e un automorfismo se e solo se `e invertibile,
ovvero se `e invertibile la matrice ad esso associata. Siccome det(Ah ) = h = 0 se e solo
se h = 0, per questultimo valore f0 non `e un automorfismo. Gli autovalori di fh sono
le radici del polinomio (t) = det(Ah tI) = (1 t)2 (h t). Queste sono t1,2 = 1 e
t3 = h. Esiste quindi un autovalore doppio indipendentemente dal valore di h. Per h = 1,
lendomorfismo f1 ha un unico autovalore triplo t = 1. Lo spazio R3 si pu`o esprimere come
somma di autospazi se e solo se f1 ha gli autovalori regolari (cio`e `e diagonalizzabile). Una
matrice con un unico autovalore t `e diagonalizzabile se e solo se `e scalare di tipo tI. In
questo caso dovrebbe essere A1 = 1 I3 = I3 , cosa impossibile (cfr. Esercizio 2.6.32).
2.6.34 Siano dati i vettori v1 = [6, 2, 0]t , v2 = [0, 1, 1]t , v3 = [2, 4, 4]t , w1 = [1, 1, 0]t ,
w2 = [0, 2, 2]t , w3 = [1, 1, 0]t di R3 , con h R. Vedere se esiste un endomorfismo f di R3
tale che f (vi ) = wi per i = 1, 2, 3. Stabilire inoltre quali dei vi sono autovettori di f .
Svolgimento. Osserviamo che i vettori v1 , v2 , v3 sono linearmente indipendenti, quindi formano una base di R3 . Dallalgebra lineare sappiamo che esiste un unico
endomorfismo f verificante le condizioni assegnate. Per terminare lesercizio non `e necessario calcolare esplicitamente f . Per definizione di autovettore basta infatti vedere se
f (vi ) = vi per qualche 6= 0. Questa condizione vale solo per i = 2, con = 2. Perci`
o
v2 `e un autovettore, mentre v1 e v3 non lo sono.

2.6.35 Sia f 6= 0 un endomorfismo nilpotente di V. Dimostrare che Spec f = {0}.


Svolgimento. Per 6= 0, sia v V (f ): mostriamo che v = 0. Per ipotesi si
ha
= 0 per qualche m. Allora 0 = f m (v) = m v. Essendo m 6= 0, ne segue v = 0.
Pertanto lautospazio relativo a 6= 0 si riduce al solo vettore nullo. Lo spettro di f
` ora sufficiente mostrare che 0 `e effettivamente un autovalore.
contiene quindi, al pi`
u, 0. E
m1
Supponiamo ora che f
6= 0: ci`o non `e restrittivo, basta prendere come m il minimo
intero che annulla la corrispondente potenza di f . Il sottospazio W = Im f m1 non si
riduce allora al solo vettore nullo. Inoltre se w W si ha w = f m1 (v) per qualche
v V. Allora f (w) = f (f m1 (v)) = f m (v) = 0, quindi w ker f : segue W ker f .
fm

3.2 ESERCIZI CAPITOLO 2 - SOLUZIONI

111

Poiche ker f non `e altro che lautospazio relativo a 0, ci`o prova che questo non si riduce
al vettore nullo. Esistono quindi autovettori relativi a 0, dunque 0 Spec f = {0}.
2.6.36 Due matrici A e B di ordine 3 hanno autovettori r = [1, 0, 1]t , s = [1, 1, 1]t e
t = [0, 0, 1]t . Verificare che tutte le matrici A, B, AB e BA sono diagonalizzabili.
Svolgimento. Condizione necessaria e sufficiente per la diagonalizzabilit`a di una
matrice dordine n `e avere n autovettori indipendenti. In questo caso dobbiamo verificare
che il determinante della matrice P , le cui colonne sono gli autovettori, non sia nullo.
Infatti

1 1 0

det(P ) = 0 1 0 = 1 6= 0.
1 1 1
Quindi sia A che B sono diagonalizzabili. Con lo stesso ragionamento dellEsercizio 2.6.23,
si dimostra che r, s e t sono autovettori, corrispondenti ai medesimi autovalori, pure per
AB e BA. Quindi anche queste matrici sono diagonalizzabili.

2.6.37 Una matrice reale A di tipo (2, 2) soddisfa le condizioni


det(det(A)I A) = 0,

det( det(A)I A) = 0.

Calcolare gli autovalori di A e stabilire se `e diagonalizzabile.


Svolgimento. Per ipotesi, i numeri det(A) e det(A) sono radici del polinomio
caratteristico, quindi sono (tutti) gli autovalori di A. Non possono coincidere perche A `e
invertibile, quindi, essendo distinti, sono regolari ed A `e diagonalizzabile.

2.6.38 Verificare che ogni matrice quadrata di ordine 2 tale che A2 + I = O `e diagonalizzabile nel campo complesso.
Svolgimento.

Dallipotesi A2 + I = O , abbiamo
(A + i I)(A i I) = O.

(3.2.4)

Quindi, per il Teorema di Binet, det((A + i I)) det((Ai I)) = 0. Consideriamo tre casi.
(i) Se det(A + i I) = 0 e det(A i I) 6= 0, allora la matrice A i I `e invertibile.
Moltiplicando a destra per la sua inversa entrambi i membri della (3.2.4), abbiamo
A + i I = O, quindi A = i I `e scalare (quindi diagonalizzabile).
(ii) Se det(A+iI) 6= 0 e det(AiI) = 0, la matrice A+iI `e invertibile. Moltiplicando
a sinistra per la sua inversa entrambi i membri della (3.2.4), abbiamo A i I = O,
quindi A = i I, matrice scalare, `e diagonalizzabile.
(iii) Se det((A + i I)) = det((A i I)) = 0, i numeri 1 = i e 2 = i sono autovalori di
A, perch`e radici del polinomio caratteristico, sono regolari, perche semplici, quindi
A `e diagonalizzabile.

2.6.39 Determinare i valori di h R

1 0
A= 0 2
0 3

tali che le due matrici

0
1 3 0
3 ,
B= 0 5 0
2
0 0 h

112

SOLUZIONI DEGLI ESERCIZI


siano simili.
Svolgimento. La matrice B `e triangolare superiore. I suoi termini principali
t1 = 1, t2 = 5 e t3 = h coincidono con gli autovalori. Le radici del polinomio det(AtI) =
(1 t)(t 5)(t + 1), ovvero t1 = 1, t2 = 1 e t3 = 5, sono gli autovalori di A. Condizione
necessaria affinche A e B siano simili `e che abbiano gli stessi autovalori. Questo `e vero se e
solo se h = 1. In questo caso entrambe le matrici hanno gli stessi autovalori distinti, quindi
regolari. Sono entrambe diagonalizzabili e simili alla stessa matrice diagonale. Quindi sono
simili.

2.6.40 Determinare tutte le matrici che ammettono x1 = [1, 1]t e x2 = [1, 1]t come
autovettori.
Svolgimento.

Sia

A=

a b
c d

la matrice che ammette x1 e x2 come autovettori. Essendo questi indipendenti A `e


diagonalizzabile e la matrice di passaggio ha come colonne x1 e x2 stessi:

1 1
P =
.
1 1
Detti 1 e 2 gli autovalori rispettivi di x1 e x2 , si ha
A = P 1 DP,
con D = diag(1 , 2 ), ovvero P A = DP :

a+c b+d
1 1
=
.
ac bd
2 2

(3.2.5)

Ricordando che TrA = 1 + 2 = a + d, dalla (3.2.5), otteniamo

a + c = 1

b + d = 1
a c = 2

b d = 2

a + d = 1 + 2 ,
da cui a = d e b = c. Quindi

A=

a b
b a

Il fatto che A sia simmetrica `e in accordo col risultato dellEsercizio 2.6.19, dato che
U = 12 P `e ortogonale.

2.6.41 Stabilire se le seguenti matrici sono simili:

1 0 1
1 1 1
B = 0 1 1 .
A= 0 1 2
0 0 3
0 0 3

3.2 ESERCIZI CAPITOLO 2 - SOLUZIONI


Svolgimento. Sono entrambe triangolari superiori, con gli stessi termini principali, quindi con gli stessi autovalori. Esaminiamo la regolarit`a dellautovalore doppio
= 1. Per A, rk(A I) = 1, quindi = 1 `e regolare ed A `e diagonalizzabile. Siccome
rk(B I) = 2, lautovalore = 1 non `e regolare per la matrice B, che quindi non `e
diagonalizzabile. Essendo una diagonalizzabile, laltra no, le matrici A e B non possono
essere simili.

2.6.42 Mostrare che le seguenti matrici sono simili

1 2
1 0
A=
,
B=
0 1
1 1
e calcolare una matrice di passaggio.
Svolgimento. Sono entrambe triangolari, con gli stessi autovalori doppi, coincidenti coi termini principali. Verifichiamo la regolarit`a degli autovalori. Per A, siccome
rk(A I) = 1 6= 0, = 1 non `e regolare. Quindi A non `e diagonalizzabile. Lo stesso
discorso vale per B. Per stabilire se A e B sono simili, costruiamo direttamente la matrice
di passaggio

a b
P =
,
c d
tale che P A = BP . Questultima uguaglianza determina il sistema

a=a

2a + b = b
c=a+c

2c + d = b + d,
da cui a = 0, b = 2c, c = c e d = d. La matrice `e quindi:

a 2c
P =
.
c d
La similitudine si ha se P `e invertibile, ovvero se e solo se det(P ) = 2c2 6= 0, cio`e c 6= 0.

113

Indice analitico
Equazione Dimensionale, 17, 76
Teorema Spettrale, 47
Teorema dimensionale, 16
Teorema fondamentale delle applicazioni lineari, 11
applicazione lineare biunivoca, 6
applicazione lineare iniettiva, 6
applicazione lineare suriettiva, 6
applicazione lineare, 5
automorfismi, 6
automorfismo, 75
autospazio, 34, 38
autovalore regolare, 41
autovalore, 34
autovettore, 34
base ortonormale, 55
cambi di base, 22
campo base, 5
codominio, 5
dominio, 5
endomorfismi, 6
endomorfismo diagonalizzabile, 31
endomorfismo semplice, 31
endomorfismo simmetrico, 47
equazione caratteristica, 31
forma lineare, 6
immagine, 7
isomorfismi, 6
isomorfismo canonico, 13
matrice caratteristica, 31
matrice del cambio di base, 22
matrice di passaggio, 29
matrice di proiezione, 63
matrice diagonalizzabile, 31
matrice ortogonale, 49, 54
matrice pseudoinversa di Moore-Penrose, 62
matrici di proiezione, 62
matrici ortogonali speciali, 51, 54
molteplicit`
a algebrica, 40

molteplicit`
a geometrica, 40
norma, 47, 53
nucleo, 7
omomorfismo, 5
ortonormalizzazione di Gram-Schmidt, 55
polinomio caratteristico di una applicazione
lineare, 32
polinomio caratteristico, 31
prodotto scalare, 47
proiezione canonica, 18
similitudine, 29
singolare, 9
sistema ortonormale, 53
sottospazi ortogonali, 54
spettro, 31
trasformazioni ortogonali, 54
versore, 53
versori, 49
vettori normali, 53
vettori ortogonali, 47, 53

You might also like