You are on page 1of 209

Appunti di Matematica Discreta - Algebra

lineare
7 ottobre 2011

AVVISO: I presenti appunti possono contenere (anzi sicuramente conterranno) errori e/o
ripetizioni. Essi sono infatti opera di vari collage e, per ovvie questioni di tempo, non sono
stati rivisti. Pertanto non intendono sostituire alcun libro di teoria e/o esercizi
ma vogliono sopratutto essere un dettagliato programma del corso. Prego gli studenti di
prestare particolare attenzione nella loro lettura e di informarmi sia direttamente che per
e-mail (quattrocchi@dmi.unict.it) su qualunque errore (certo o sospetto) notato.
Cercher`o di correggere nel pi`
u breve tempo possibile qualunque errore trovato. Pertanto
questi appunti saranno continuamente aggiornati: la data dellultimo aggiornamento appare
in prima pagina. Consiglio infine agli studenti di non stamparli immediatamente ma
farlo il pi`
u tardi possibile (per lo meno alcuni giorni dopo che largomento sia stato trattato
a lezione).

Indice
1 Insiemi e operazioni su di essi

2 Applicazioni

3 Relazioni di equivalenza

4 Relazioni di ordinamento parziale

5 Cardinalit`
a di un insieme

11

6 Operazioni algebriche binarie

13

7 Gruppi

16

8 Campi

20

9 Omomorfismi fra strutture

21

10 Matrici: prodotto righe per colonne

23

11 Sistemi lineari e matrici ridotte per righe

30

12 Ancora sui sistemi lineari.

50

13 Sistemi lineari dipendenti da un parametro

54

14 Come ricavare la matrice inversa attraverso il metodo di riduzione.

59

15 Determinanti. Teorema di Cramer. Teorema di Rouch


e-Capelli

65

16 Vettori applicati del piano

79

17 Vettori applicati dello spazio

87

18 Vettori liberi

90

19 Rette del piano e loro equazioni

92

20 Coordinate omogenee nel piano

97

21 Isometrie e similitudini nel piano

100

22 Piani e rette dello spazio e loro equazioni

115

23 Punti e rette improprie nello spazio

121
2

24 Spazi vettoriali

128

25 Sottospazi Vettoriali

131

26 Base e dimensione di uno spazio vettoriale

141

27 Applicazioni lineari

162

28 Matrici e Applicazioni Lineari.

167

29 Autovalori ed autovettori

180

30 Ricerca degli autovalori e degli autospazi ad essi associati

183

31 Unapplicazione degli autovettori: il motore di ricerca Google

186

32 Endomorfismi semplici

189

33 Matrici diagonalizzabili

195

34 Similitudine fra matrici

200

Insiemi e operazioni su di essi

Per comodit`a dello studente richiamiamo alcuni concetti elementari di teoria degli insiemi.
Il concetto di insieme `e primitivo ed `e sinonimo di classe, totalit`a. Sia A un insieme di
elementi qualunque. Per indicare che a `e un elemento di A scriveremo a A. Se A e B sono
insiemi, diremo che A `e un sottoinsieme di B e scriveremo A B se ogni elemento di A `e
un elemento di B. Fra i sottoinsiemi di B ci sono in particolare B stesso e linsieme vuoto
che viene denotato con . Due insiemi A e B si dicono uguali, A = B, se hanno gli stessi
elementi. Cio`e:
A = B A B e B A.
Diremo che un sottoinsieme A di B `e proprio, se A 6= B e scriveremo A B.
Se A `e un insieme, denoteremo con P (A) l insieme i cui elementi sono tutti i sottoinsiemi
di A; P (A) si dice linsieme delle parti di A.
Esempio 1.1 Sia A = {1, 2, 3}. Allora P (A) = {b1 , b2 , . . . , b8 } essendo b1 = , b2 = {1},
b3 = {2}, b4 = {3}, b5 = {1, 2}, b6 = {1, 3}, b7 = {2, 3}, b8 = {1, 2, 3}.
Se A e B sono insiemi, diremo unione di A e B linsieme A B costituito dagli elementi
che stanno in A oppure in B, A B = {x | x A o x B}, diremo intersezione di A e B
linsieme A B costituito dagli elementi comuni ad A e B, A B = {x | x A e x B},
mentre diremo differenza di A e B linsieme A B degli elementi di A che non sono elementi
di B, A B = A \ B = {x | x A e x 6 B}. Due insiemi si dicono disgiunti se la loro
intersezione `e linsieme vuoto.
Se A `e sottoinsieme di B diremo complementare (o complemento) di A in B linsieme
B A e lo denoteremo con C B A. Se B `e linsieme ambiente il complementare di A in B
verr`a semplicemente denotato con C A.
Se A e B sono insiemi, definiamo prodotto cartesiano di A e B e lo denoteremo con AB,
linsieme i cui elementi sono le coppie ordinate (a, b) con a A e b B.
Propriet`a
1. A A = A, A A = A;
2. A B = B A, A B = B A (propriet`a commutativa);
3. A = A, A = ;
4. A (B C) = (A B) C, A (B C) = (A B) C (propriet`a associativa);
5. A (B C) = (A B) (A C) (propriet`a distributiva dellunione rispetto allintersezione);
6. A (B C) = (A B) (A C) (propriet`a distributiva dellintersezione rispetto
allunione);

7. C (A B) = C A C B, C (A B) = C A C B (formule di De Morgan).
Nel seguito denoteremo con N, Z, Q, R e C rispettivamente gli insiemi dei numeri naturali
(N = {0, 1, 2, . . . , n, . . .}),
n degli interi relativi (Z = {. . . , 3, 2, 1, 0, +1, +2, +3, . . .}), dei
numeri razionali (Q = m | n, m Z, m 6= 0 ), dei numeri reali e dei numeri complessi.

Applicazioni

Siano A e B insiemi non vuoti.


Definizione 2.1 Si dice applicazione (o funzione) di A in B, e si denota con f : A B,
una corrispondenza che associa ad ogni elemento x A uno ed un solo elemento f (x)
B.
Unapplicazione si dice:
iniettiva se ad elementi distinti di A corrispondono elementi distinti di B, cio`e se
x1 , x2 A, x1 6= x2 f (x1 ) 6= f (x2 ) o anche da f (x1 ) = f (x2 ) x1 = x2 ;
suriettiva (od anche: su tutto) se ogni elemento di B `e il corrispondente di qualche
elemento di A, cio`e se y B, x A tale che y = f (x);
biiettiva se `e iniettiva e suriettiva; una applicazione biiettiva di A in B `e detta pure
una corrispondenza biunivoca fra A e B.
Esempio 2.1 Siano N linsieme dei numeri naturali e R quello dei numeri reali. La legge
1
f (n) = n1
, non definisce unapplicazione f : N R, perch`e non esiste f (1). Essa pu`o per`o
essere vista come unapplicazione f : N \ {1} R.
Esempio 2.2 Sia R+ linsieme dei numeri reali non negativi. La legge f che ad ogni a R+
associa quel numero o quei numeri b R tali che b2 = a non e unapplicazione. Infatti, per
esempio, al numero 4 R+ , la f associa sia 2 che 2. Invece la legge g che ad ogni a R+
associa quel numero
R+ tali che b2 = a e unapplicazione g : R+ R+
o quei numeri b
+
definita da g(x) = x per ogni x R .
Esempio 2.3 Sia Z linsieme dei numeri interi relativi e sia Q linsieme delle frazioni, ridotte
ai minimi termini, m
con m, n Z e n 6= 0. La legge f : Q Z tale che f ( m
) = m + n, `e
n
n
unapplicazione. Si osservi che f non `e iniettiva. Infatti si ha 32 6= 32 ma f ( 23 ) = f ( 23 ).
Esempio 2.4 Lapplicazione iA : A A, definita dalla legge i(x) = x x A, dicesi
applicazione identica o unit`a, essa `e iniettiva e suriettiva pertanto `e biiettiva.
Esempio 2.5 Lapplicazione f : N N, definita dalla legge f (n) = n + 1 `e un applicazione
iniettiva ma non suriettiva perch`e lo 0 non proviene da nessun elemento.
5

Definizione 2.2 Sia f : A B unapplicazione; dicesi immagine di f e si indica con Imf ,


il sottoinsieme di B costituito dagli elementi che sono corrispondenti di qualche elemento di
A. Cio`e:
Imf = {y B | x A tale che y = f (x)}.
Chiaramente f `e suriettiva se e solo se Imf = B.
Sia f : A B unapplicazione. Se b B indicheremo con f 1 (b) linsieme degli elementi
a A tali che f (a) = b. Poniamo cio`e
f 1 (b) = {a | a A e f (a) = b}.
Ovviamente se b 6 Imf si ha f 1 (b) = .
Definizione 2.3 Prodotto di applicazioni. Siano f : A B, g : B C applicazioni.
Si definisce prodotto o composizione di f e g, lapplicazione di A in C ottenuta applicando
successivamente prima f e poi g; essa viene denotata con g f ed `e definita da
(g f )(x) = g(f (x)) x A.
Il prodotto di applicazioni gode della propriet`a associativa cio`e per f : A B, g : B C,
h : C D si ha h (g f ) = (h g) f .
Definizione 2.4 Applicazione inversa. Se l applicazione f : A B `e biiettiva allora
si pu`o definire lapplicazione inversa f 1 : B A come segue: y B, f 1 (y) `e l unico
elemento x A tale che f (x) = y.
Chiaramente `e:
f f 1 = iB ,
f 1 f = iA ,
(f 1 )1 = f .
Sulla composizione di due applicazioni si hanno vari risultati, alcuni dei quali sono richiamati nelle due seguenti proposizioni. La dimostrazione della Proposizione 2.1 `e lasciata
allo studente come esercizio.
Proposizione 2.1 Siano f : A B, g : B C applicazioni.
1. Se f e g sono iniettive allora g f `e iniettiva.
2. Se f e g sono suriettive allora g f `e suriettiva.
3. Se f e g sono biettive allora g f `e biiettiva.
4. Se g f `e suriettiva allora g `e suriettiva.
6

5. Se g f `e iniettiva allora f `e iniettiva.


6. Se g f `e biettiva allora f `e iniettiva e g `e suriettiva.
Proposizione 2.2 Siano f : A B, g : B A applicazioni, e inoltre f g = iB e
g f = iA , allora f e g sono entrambe biiettive e g = f 1 .
Dimostrazione. Proviamo che f `e biettiva, in modo analogo si prova la biettivit`a di g.
f `e suriettiva: Sia y B; si ha g(y) = x A, da cui f (x) = f (g(y)) = f g(y) =
iB (y) = y.
f `e iniettiva: Siano x1 , x2 A tali che f (x1 ) = f (x2 ). Allora g(f (x1 )) = g(f (x2 )),
g f (x1 ) = g f (x2 ), ia (x1 ) = iA (x2 ), x1 = x2 .
Proviamo che g = f 1 . Cio`e che per ogni y B, g(y) = f 1 (y). Sia x lunica soluzione
(nella variabile x) dellequazione f (x) = y. Cio`e y = f (x). Allora f 1 (y) = x. Quindi
g(y) = g(f (x)) = g f (x) = ia (x) = x.
Esercizio. Sia f : N Z lapplicazione cos` definita
n
+2
se n e0 pari
f (n) =
.
n+1
se n e0 dispari
2
Dire se f `e biunivoca oppure no.
Dati due insiemi non vuoti A e B possiamo considerare un nuovo insieme, denotato con
B A , costituito da tutte le applicazioni di A in B. Un caso particolarmente importante `e il
caso in cui B = {0, 1} `e linsieme costituito da due elementi 0, 1; denoteremo tale insieme
con il simbolo 2. Se f 2A , cio`e se f : A {0, 1}, allora x A si ha f (x) = 0 oppure
f (x) = 1.
Se A `e un insieme, per ogni suo sottoinsieme I, I A, possiamo definire unapplicazione
fI : A {0, 1} che caratterizza gli elementi di I, detta funzione caratteristica di I, nel
seguente modo:

0 se x 6 I
fI (x) =
.
1 se x I
Chiaramente fA : A {0, 1} `e definita da fA (x) = 1 x A, mentre f : A {0, 1} `e
definita da f (x) = 0 x A.
Teorema 2.1 Sia A un insieme. Esiste unapplicazione biunivoca fra gli insiemi 2A e P (A).
Dimostrazione. Definiamo due applicazioni , come segue: : 2A P (A) associa
ad ogni applicazione f : A 2 il sottoinsieme di A costituito dagli elementi x A tali che

f (x) = 1; : P (A) 2A associa ad ogni sottoinsieme B A lapplicazione f : A 2


definita da

0 se x 6 B
f (x) =
.
1 se x B
` facile verificare le seguenti uguaglianze: = iP (A) e = i2A . La Proposizione 2.2
E
completa la dimostrazione.
Faremo uso del seguente assioma della teoria degli insiemi:
Assioma della scelta o di Zermelo. Sia A un insieme non vuoto. Esiste allora una
applicazione che ad ogni sottoinsieme non vuoto B A associa un elemento appartenente a
B.

Relazioni di equivalenza

Definizione 3.1 Dicesi relazione binaria definita su un insieme non vuoto A, un sottoinsieme R A A.
Se (a, b) R scriviamo anche aRb e diciamo che a sta nella relazione R con b. Esempi di
relazioni binarie definite su A sono A A stesso e la relazione identica I definita da aIb se
e solo se a = b.
Si dice che una relazione binaria gode della propriet`a:
riflessiva se aRa per ogni a A,
transitiva se da aRb e bRc segue aRc per a, b, c A,
antisimmetrica se da aRb e bRa segue a = b per a, b A,
simmetrica se da aRb segue bRa per a, b A.
Definizione 3.2 Equivalenza. Una relazione binaria definita sullinsieme non vuoto A
si chiama relazione di equivalenza su A se gode delle propriet`
a riflessiva, simmetrica e
transitiva.
Se E `e una relazione di equivalenza, invece di aEb scriveremo a b (E) e leggeremo a
equivalente a b in E o, quando non c`e possibilit`a di equivoco, scriveremo semplicemente
a b e leggeremo a equivalente a b.
Definizione 3.3 Sia A un insieme non vuoto. Dicesi partizione di A una famiglia di sottoinsiemi non vuoti di A tale che ogni elemento di A sta in uno ed uno solo dei sottoinsiemi
della famiglia. I sottoinsiemi della famiglia si dicono le classi della partizione.
Teorema 3.1 Una partizione di A definisce una relazione di equivalenza su A e viceversa.
8

Dimostrazione. (Dimostrazione obbligatoria) Per dimostrare che una partizione di A


definisce una relazione di equivalenza su A, basta porre a b (E) quando a e b stanno nella
stessa classe della partizione: infatti si vede subito che gode delle tre propriet`a: riflessiva,
transitiva, simmetrica.
Viceversa, una relazione di equivalenza su A definisce una partizione di A. Infatti per
ogni a A, consideriamo il sottoinsieme C(a) A costituito dagli elementi equivalenti ad
a, cio`e C(a) = {x A | x a}; si vede subito che la famiglia {C(a) | a A} costituisce
una partizione di A: infatti a C(a) perch`e a a; inoltre se `e pure a C(b) si ha a b; se
allora x `e un elemento qualunque di C(b) `e x b e per le propriet`a simmetrica e transitiva
x a cio`e x C(a) da cui C(b) C(a); analogamente C(a) C(b). Ne segue che ogni
elemento di A sta in una e una sola classe della famiglia {C(a) | a A}.
Definizione 3.4 (Insieme quoziente). Sia E una relazione di equivalenza definita su
A. Dicesi insieme quoziente di A rispetto ad E linsieme, denotato con A/E, che ha come
elementi le classi della partizione di A associata ad E. Cio`e A/E = {C(a) | a A}.
Se ad ogni a A associamo la classe C(a) cui esso appartiene, otteniamo una applicazione
E : A A/E detta applicazione canonica associata ad E; si vede subito che E `e suriettiva
ed `e iniettiva se e solo se E = I.
Siano dati ora due insiemi A, B ed una applicazione f : A B tra essi, allora si pu`o
definire su A una relazione di equivalenza Ef ponendo a b (Ef ) se f (a) = f (b); tale
relazione si dice relazione di equivalenza associata ad f .

Relazioni di ordinamento parziale

Definizione 4.1 (Ordinamento parziale). Una relazione binaria definita su un insieme


A si chiama relazione di ordinamento parziale se gode delle propriet`
a riflessiva, transitiva,
antisimmetrica.
Un insieme A con una relazione R di ordinamento parziale definita su di esso, si dice
parzialmente ordinato, brevemente p.o..
Se R `e una relazione di ordinamento parziale definita su A, per a, b A scriveremo a b
invece che aRb e leggeremo a `e minore od uguale a b. Se `e a b ed a 6= b allora scriveremo
a < b e leggeremo a `e strettamente minore di b.
Sia A un insieme p.o. e a, b A. Se a b oppure b a allora i due elementi a e b si
dicono confrontabili . Un insieme p.o. in cui due qualunque elementi sono confrontabili, si
dice un insieme ordinato o linearmente ordinato o catena.
Un elemento a A si dice minimo (assoluto) di A se a x per ogni x A. Il minimo,
quando esiste, `e unico.
Un elemento a A si dice minimale o minimo relativo di A se non c`e nessun elemento
minore o uguale ad a distinto da a stesso, cio`e se da x a segue x = a.

Definizione 4.2 (Insieme ben ordinato). Un insieme p.o. si dice ben ordinato quando
ogni suo sottoinsieme ha il minimo. Un insieme ben ordinato `e anche ordinato.
In modo del tutto analogo si danno le nozioni di massimo e di massimo relativo.
Minoranti e maggioranti. Estremo inferiore ed estremo superiore. Sia A un
insieme p.o. e B un suo sottoinsieme. Si chiama minorante di B in A un elemento a A
tale che a x per ogni x B.
Si chiama estremo inferiore di B in A il massimo dei minoranti. Notiamo che non `e detto
che esistano minoranti di B in A e se ne esistono pu`o darsi che il loro insieme non abbia
massimo; pertanto lestremo inferiore non sempre esiste.
Lestremo inferiore a di B in A `e caratterizzato dalle seguenti due propriet`a:
(i) a A e a x per ogni x B;
(ii) se b A `e tale che b x per ogni x B allora b a.
Osserviamo che se l estremo inferiore di B in A esiste ed `e un elemento di B allora esso `e il
minimo di B; viceversa il minimo di B, se esiste, `e anche l estremo inferiore di B in A. In
modo analogo si danno le definizioni di maggioranti e di estremo superiore di B in A.
Un insieme p.o. si dice completo quando ogni suo sottoinsieme ha estremo superiore e
estremo inferiore. In particolare un insieme p.o. completo ha minimo e massimo.
Diagrammi di insiemi p.o. finiti. Assegnato un insieme p.o. finito (A; ) `e utile
considerare il diagramma di A, ottenuto nel seguente modo. Si disegnano tanti punti quanti
sono gli elementi dellinsieme, avendo laccortezza di disegnare a pi`
u in basso di b se a b; si
congiungono poi due elementi a, b con un segmento se a < b e non ci sono elementi maggiori
di a e minori di b. Dal grafico che si ottiene si possono leggere con facilit`a tutte le propriet`a
dellinsieme p.o. A.
Condizioni equivalenti all assioma di Zermelo. Le seguenti condizioni sono equivalenti allassioma di Zermelo:
(i) (Teorema di Zermelo). Ogni insieme pu`o essere ben ordinato.
(ii) (Lemma di Zorn). Se un insieme p.o. A gode della propriet`a che ogni catena in esso
contenuta ha un maggiorante allora A ha almeno un massimo relativo.

10

Cardinalit`
a di un insieme

Definizione 5.1 Si dice che due insiemi A e B hanno la stessa cardinalit`


a o sono equipotenti, e si scrive |A| = |B|, se esiste unapplicazione biunivoca fra A e B.
Esercizi.
1. Provare che N ha la stessa cardinalit`a dellinsieme dei numeri interi pari.
2. Provare che N ha la stessa cardinalit`a di N \ {0}.
3. Provare che N ha la stessa cardinalit`a di N \ {1, 3}.
Definizione 5.2 Si dice che A ha cardinalit`
a maggiore di B, e si scrive |A| > |B|, se B `e
equipotente ad un sottoinsieme di A ed A e B non sono equipotenti.
Proposizione 5.1 Sia X non vuoto. Lequipotenza induce una relazione di equivalenza su
P (X).
Definizione 5.3 Un insieme si dice numerabile se ha la stessa cardinalit`
a dellinsieme dei
numeri naturali N = {0, 1, 2, 3, . . .}.
Proposizione 5.2 Sia A un insieme numerabile. Allora A A `e pure numerabile.
Dimostrazione.
possiamo scrivere

Poich`e A `e numerabile possiamo numerare i suoi elementi. Quindi


A = {a1 , a2 , a3 , . . .}.

Disponiamo gli elementi di A A nel quadro:


(a1 , a1 ), (a1 , a2 ), (a1 , a3 ), . . .
(a2 , a1 ), (a2 , a2 ), (a2 , a3 ), . . .
(a3 , a1 ), (a3 , a2 ), (a3 , a3 ), . . .
........................................
e stabiliamo la corrispondenza f : N A A come segue:
f (1) = (a1 , a1 ), f (2) = (a1 , a2 ), f (3) = (a2 , a1 ), f (4) = (a1 , a3 ), f (5) = (a2 , a2 ), f (6) =
(a3 , a1 ), . . . e cos` via secondo il cosiddetto metodo diagonale di Cantor.
Proposizione 5.3 Linsieme N dei numeri naturali, linsieme Z dei numeri interi relativi
e linsieme Q dei numeri razionali hanno la stessa cardinalit`
a.
Proposizione 5.4 La cardinalit`
a di N `e minore di quella di R, cio`e |R| > |N|.

11

Dimostrazione. Osservato che N R basta provare che N ed R non sono equipotenti.


Supponiamo per assurdo che esista la biiezione f : N R cos` definita (i numeri reali sono
scritti in forma di numeri decimali illimitati non periodici di periodo 9):
f (0) = a0 , c01 c02 c03 . . . c0n . . .
f (1) = a1 , c11 c12 c13 . . . c1n . . .
................................................
f (n) = an , cn1 cn2 cn3 . . . cnn . . .
................................................
Considerato il numero = 0, c0 c1 . . . cn . . . con c0 6= 9, c01 , c1 6= 9, c12 , c2 6= 9, c23 , . . .,
cn 6= cn,n+1 ,9 . . . si ha che n N f (n) 6= . Ma questo `e un assurdo perch`e avevamo
supposto |N| = |R|.
Definizione 5.4 Un insieme si dice avere la cardinalit`
a o potenza del continuo se ha la
stessa cardinalit`
a dellinsieme R dei numeri reali.
Proposizione 5.5 Per ogni insieme A `e |A| < |P (A)| = |2A |.
Dimostrazione. Anzitutto P (A) contiene il sottoinsieme costituito dalle parti di A che
possiedono un solo elemento e quindi otteniamo una applicazione iniettiva di A in questo
sottoinsieme di P (A). Proviamo adesso che non pu`o esistere unapplicazione suriettiva di A
in P (A), e quindi A e P (A) non sono equipotenti. Supponiamo per assurdo che esista una
applicazione suriettiva f : A P (A); sia B = {a A | a 6 f (a)}. B `e un sottoinsieme di
A e quindi, per la suriettivit`a di f esiste b A tale che f (b) = B. Due casi sono possibili:
b f (b) = B allora per definizione deve essere b 6 B oppure b 6 f (b) = B allora per
definizione b B; in entrambi i casi si ha lassurdo.
Definizione 5.5 Un insieme si dice finito se `e vuoto oppure se, per qualche n N, `e
equipotente allinsieme {0, 1, 2, 3, . . . , n 1} formato dai primi n numeri naturali.
Definizione 5.6 Un insieme si dice infinito se non `e finito.
Proposizione 5.6 Sia A un insieme. Le seguenti condizioni sono equivalenti:
(i) A `e infinito.
(ii) A possiede un sottoinsieme numerabile.
(iii) A `e equipotente ad un suo sottoinsieme proprio.
Dimostrazione. (i) (ii). A non `e vuoto. Sia a1 A; `e {a1 } 6= A perch`e A `e infinito.
Sia a2 A con a2 6= a1 ; `e {a1 , a2 } 6= A. Sia a3 A con a3 6= a1 , a2 , e cos` via costruiamo un
sottoinsieme numerabile {a1 , a2 , a3 , . . .} A. Osserviamo che in questa prova si `e fatto uso
12

dellassioma di Zermelo.
(ii) (iii). Sia N A un sottoinsieme numerabile; indichiamo con a1 , a2 , . . . gli elementi
di N ; consideriamo il seguente sottoinsieme A0 di A, A0 = (A N ) {a2 , a4 , a6 . . .}. Si
ha A0 6= A perch`e a1 6 A0 ed inoltre A0 `e equipotente ad A: basta infatti considerare
lapplicazione f : A0 A definita da f (x) = x se x A N ed f (a2n ) = an per n = 1, 2, . . .
(iii) (i). Un insieme finito non `e equipotente ad un suo sottoinsieme proprio. Tale fatto,
che sembra piuttosto evidente, pu`o essere facilmente dimostrato mediante induzione.
Diamo un esempio di un insieme che si pu`o mettere in corrispondenza biunivoca con un
suo sottoinsieme proprio.

Siano: r una semiretta con origine in C, CE un segmento su r, CD un segmento perpendicolare ad r e tale che CD = CE ed s una retta parallela ad r e passante per D. Detti A
linsieme dei punti di CE diversi da E, e B linsieme dei punti di CD diversi da D, per ogni
punto P A, la circonferenza di centro C e raggio CP interseca CD in un punto (P ) B
e resta cos` definita unapplicazione : A B biiettiva. Proiettando da O i punti di CD
diversi da D su r si ottiene unapplicazione biiettiva dallinsieme B nellinsieme dei punti
di r; dunque risulta unapplicazione biiettiva dallinsieme dei punti del segmento CE
diversi da E nellinsieme dei punti di r.
Esercizio. Stabilire una corrispondenza biunivoca fra tutti i punti del segmento CE (E
compreso) e i punti della semiretta r.
Ipotesi del continuo. Lipotesi del continuo afferma che se un insieme infinito A ha
` stato provato che sia
cardinalit`a minore della potenza del continuo, allora A `e numerabile. E
lipotesi del continuo che la sua negazione sono entrambe compatibili con gli usuali assiomi
della teoria degli insiemi.

Operazioni algebriche binarie

Definizione 6.1 Dato un insieme M 6= , chiamiamo operazione algebrica binaria definita


su M una qualunque applicazione f che associa ad ogni coppia ordinata (a, b) M M uno
ed un solo elemento c appartenente ad M .
f : M M M

(a, b) M M
13

f (a, b) = c M.

Loperazione f viene indicata, a seconda del caso particolare che si sta studiando, con i
simboli: , , , , . . .. Per esempio si scrive a b = c invece di f (a, b) = c, ecc.
Esempi.
1. La somma e il prodotto introdotte in N sono operazioni algebriche binarie, mentre la
sottrazione e la divisione non lo sono.
2. Sia P = 2Z linsieme dei numeri pari e D quello dei numeri dispari, la somma `e
unoperazione algebrica binaria definita su P , mentre non lo `e su D.
3. Sono esempi di operazioni algebriche binarie definite su N

lapplicazione f che associa alla coppia (a, b), di elementi distinti o no, la potenza
che ha per base il primo elemento e per esponente il secondo elemento: f (a, b) = ab
cio`e a b = ab ;
lapplicazione f che associa alla coppia (a, b) Z Z il loro MCD: a b =
M.C.D.(a, b).
Si dice che loperazione definita su M gode della propriet`
a commutativa se:
a, b M si verifica che a b = b a.
Le operazioni + e sugli insiemi Z e Q sono commutative; le operazioni in Z e / in Q ,
come pure lelevamento a potenza in N non sono commutative.
Loperazione definita su M gode della propriet`
a associativa se:
a, b, c M si verifica che (a b) c = a (b c).
Le operazioni + e su N, Q e Z sono associative.
Le seguenti operazioni non sono associative:
lelevamento a potenza in N ; infatti ad esempio `e (2 3) 4 6= 2 (3 4), avendosi
(2 3) 4 = 23 4 = (23 )4 = 212 e 2 (3 4) = 2 34 = 2( 34 ) = 281.
la sottrazione in Z, infatti ad esempio `e 8 (5 2) 6= (8 5) 2, avendosi 8 (5 2) =
8 3 = 5 e (8 5) 2 = 3 2 = 1.
Esempi.
1. Sia M un insieme non vuoto e loperazione su di esso definita in modo tale che:
a, b M , a b = b. Tale operazione `e associativa, infatti `e (a b) c = a (b c),
avendosi (a b) c = b c = c e a (b c) = a c = c; ma non `e commutativa, a meno
che linsieme sia costituito da un unico elemento, cio`e |M | = 1.
1

I simboli N , Z , Q , R indicano gli insiemi dei numeri naturali, interi, razionali e reali privati dello 0.

14

2. Sia E un insieme e P (E) linsieme delle sue parti, le operazioni di e su P (E) sono
commutative e associative.
Definizione 6.2 Dicesi struttura algebrica un insieme non vuoto M su cui sono definite
una o pi`
u operazioni algebriche binarie , +, , . . ..
Indichiamo con (M, ) una struttura algebrica dove `e definita loperazione , con (M, , +)
una struttura algebrica dove sono definite le operazioni e +, (M, , +, , . . .) una struttura
algebrica dove sono definite le operazioni , +, , . . ..
N, Z, Q e R con le operazioni + e/0 sono strutture algebriche.
Definizione 6.3 Dicesi semigruppo una struttura algebrica (M, ), ove `e operazione associativa su M .
Definizione 6.4 Dicesi elemento neutro di (M, ) un elemento e M tale che a M si
ha: a e = e a = a.
Si osservi che
N, Z, Q, con loperazione di addizione + hanno lo 0 elemento neutro.
N, Z, Q, con loperazione di moltiplicazione hanno 1 come elemento neutro ed `e
chiamato elemento unit`a.
Q con loperazione di divisione / non ha elemento neutro, infatti a/1 = a mentre
1/a 6= a.
Definizione 6.5 Sia (M, ) una struttura algebrica avente elemento neutro e. Dicesi elemento simmetrico di a M un elemento a0 M tale che a a0 = a0 a = e.
Diremo che a `e simmetrizzabile se esiste lelemento a0 simmetrico di a.
Si ha
In N nessun elemento tranne lo 0 `e simmetrizzabile rispetto a +.
In (Z, +) qualsiasi elemento `e simmetrizzabile (il simmetrico di a `e a) cos` anche in
(Q , ) (il simmetrico di a `e a1 ).
Definizione 6.6 Dicesi monoide un semigruppo (M, ) dotato di elemento neutro. In altre
parole un monoide `e un insieme M dotato di unoperazione associativa in cui esiste un
elemento e tale che a e = e a = a per ogni a M .
(N, +) `e un monoide ove il numero zero `e lelemento neutro. (Z, ) `e un monoide ove il
numero 1 `e lelemento neutro. Sia X un insieme non vuoto. allora (X X , ) `e un monoide
ove lapplicazione identica iX `e lelemento neutro.
15

Gruppi

Definizione 7.1 Dicesi gruppo un insieme non vuoto M con una operazione algebrica binaria f : M M M (f (a, b) = a b) definita su di esso che gode delle seguenti tre
propriet`
a:
1. a, b, c M (a b) c = a (b c) (loperazione `e associativa);
2. e M tale che a e = e a = a a M (esistenza dellelemento neutro).
3. a M a0 M tale che a a0 = a0 a = e (ogni elemento a M `e simmetrizzabile).
Teorema 7.1 In un gruppo lelemento neutro `e unico.
Dimostrazione. Supponiamo per assurdo che esistano due elementi neutri e ed e0 . Per la
propriet`a dellelemento neutro si ha: a M a e = e a = a. Dunque:
e e0 = e0 e = e
e anche
e0 e = e e0 = e0
da cui e = e0 .
Teorema 7.2 In un gruppo ogni elemento a ammette un solo simmetrico a0 .
Dimostrazione. Sia (M, ) un gruppo. Supponiamo per assurdo che esista un a M
avente due elementi simmetrici a00 ed a0 . Si ha:
a0 = e a0 = (a00 a) a0 = a00 (a a0 ) = a00 e = a00 .
da cui a0 = a00 .
Definizione 7.2 Un gruppo (M, ) si dice abeliano o commutativo se loperazione gode della
propriet`
a commutativa: a b = b a per ogni a, b M .
Teorema 7.3 Sia (M, ) un gruppo. Per ogni coppia fissata a, b M esiste uno e un solo
x M tale che a x = b, oppure esiste uno e un solo y M tale che y a = b.
In altre parole in un gruppo le equazioni a x = b e y a = b hanno una e una solo
soluzione. Si noti che in generale non e detto che queste soluzioni siano uguali. Se invece il
gruppo e commutativo le due soluzioni coincidono.

16

Dimostrazione.
Sia a x = b, moltiplicando a destra entrambi i membri per a0 (il
simmetrico di a) si ha a0 (a x) = a0 b. Per la propriet`a associativa, (a0 a) x = a0 b,
e x = a0 b e quindi x = a0 b e lunica soluzione della equazione a x = b.
Analogamente (moltiplicando a sinistra per a0 ) si prova che lunica soluzione di y a = b
e y = b a0 .
Se il gruppo e abeliano abbiamo x = a0 b = b a0 = y.
Spesso loperazione algebrica binaria del gruppo `e indicata con (chiamata moltiplicazione) oppure con + (chiamata addizione). Nel primo caso il gruppo si dice moltiplicativo,
nel secondo additivo. Si usa la seguente terminologia:
In un gruppo moltiplicativo lelemento neutro verr`a indicato con 1 ed `e detto unit`
a,
1
mentre il simmetrico di a verr`a indicato con a , ed `e detto il reciproco.
` immediato verificare che: (a1 )1 = a e (a b)1 = b1 a1 .
E
In un gruppo additivo lelemento neutro verr`a indicato con 0 ed `e detto elemento nullo,
mentre il simmetrico di a verr`a indicato con a, ed `e detto lopposto.
` immediato verificare che: (a) = a e (a + b) = (b) + (a).
E
Il Teorema 7.3 pu`o essere riformulato nelle due seguenti forme:
Teorema 7.4 Se (G, ) `e un gruppo moltiplicativo, a, b G le due equazioni a x = b e
y a = b ammettono una sola soluzione (date da x = a1 b e y = b a1 , rispettivamente).
Se (G, +) `e un gruppo additivo, a, b G le due equazioni a + x = b e y + a = b ammettono
una sola soluzione (date da x = a + b e y = b a, rispettivamente).
Teorema 7.5 In un gruppo moltiplicativo (G, ) valgono le leggi di cancellazione a sinistra
e a destra, cio`e:
a, b, c G, da a b = a c segue che b = c;
a, b, c G, da b a = c a segue che b = c.
In un gruppo additivo (G, +) valgono le leggi di cancellazione a sinistra e a destra, cio`e:
a, b, c G, da a + b = a + c segue che b = c;
a, b, c G, da b + a = c + a segue che b = c.
Sono esempi di gruppi additivi abeliani (con le usuali operazioni di addizione +): (Z, +),
gruppo additivo degli interi relativi, (Q, +), gruppo additivo dei razionali, (R, +), gruppo
additivo dei reali. Si osservi che, se si considera lusuale operazione di prodotto , (Z \ {0}, )
non e un gruppo moltiplicativo (non esiste linverso di un elemento), mentre (Q \ {0}, ) e
(R \ {0}, ) sono gruppi moltiplicativi abeliani. Per dare qualche altro esempio di gruppo
introduciamo la nozione di matrice.

17

Definizione 7.3 Siano m e n due numeri naturali.


una tabella di numeri reali

a11 a12
a21 a22
A=


am1 am2

Una matrice A di tipo m n su R e

a1n
a2n


amn

dove aij R per i = 1, 2, . . . , m e j = 1, 2, . . . , n. Scriveremo anche


A = (aij ) , i = 1, 2, . . . , m, j = 1, 2, . . . , n.
Indicheremo con il simbolo M(m, n; R) linsieme delle matrici di tipo m n su R. Ogni
elemento aij della matrice e contrassegnato da due indici: il primo i denota la riga mentre il
secondo j la colonna alla quale lelemento appartiene. Si dice anche che aij e lelemento di
posto (i, j) nella matrice A.
Se m = n, allora la matrice A si dice quadrata di ordine n; in tal caso scriveremo M(n; R)
invece di M(m, n; R). Le matrici di tipo 1 n si diranno matrici riga e quelle di tipo m 1
matrici colonna. Li-esima riga della matrice A = (aij ) e la matrice di tipo 1 n
Ri = (ai1 , ai2 , . . . , ain ),
mentre la j-esima colonna di A e data dalla matrice di tipo m 1

a1j
a2j

Cj =
.
amj
Dicesi matrice nulla di M(m, n; R) la matrice di tipo mn i cui elementi sono tutti uguali
a 0. Cio`e

0 0 0
0 0 0

=
.
0 0 0
In M(m, n; R) definiamo loperazione di addizione nel seguente modo: per ogni A, B
M(m, n; R), A = (aij ) e B = (bij ), poniamo
(aij ) (bij ) = (aij + bij ) .
` facile verificare che ((M(m, n; R), ) e un gruppo abeliano.
E
Definizione 7.4 Un gruppo si dice finito se ha un numero finito di elementi. Il numero dei
suoi elementi si dice ordine del gruppo.
18

Talvolta, specialmente quando si tratta di gruppi abeliani, si usa la notazione additiva


invece di quella moltiplicativa. Cio`e: loperazione del gruppo si chiama addizione (invece di
moltiplicazione) e si scrive a + b (invece di a b), lelemento unit`a del gruppo si chiama zero
e si indica con 0 (invece di 1); linverso di un elemento a si chiama opposto e si indica con
a (invece di a1 ). Si pone inoltre a + (b) = a b.
Gruppo simmetrico. Sia M un insieme non vuoto. Linsieme delle applicazioni biiettive
di M in M `e un gruppo e si chiama il gruppo simmetrico su M . Se M `e finito e ha n
elementi, il gruppo simmetrico su M `e finito ed ha n! = 1 2 n elementi. In questultimo
caso il gruppo simmetrico si suole chiamare gruppo delle sostituzioni su n elementi. Se
M = {1, 2, . . . , n} allora la sostituzione f : M M tale che f (i) = ai e f (ai ) 6= f (aj ) per
ogni i, j M con i 6= j, viene spesso indicata con

1 2 ... n
a1 a2 . . . an
o, pi`
u semplicemente, con a1 , a2 , . . . , an e viene chiamata permutazione di 1, 2, . . . , n.
Definizione 7.5 Dicesi sottogruppo di un gruppo (G, ) un sottoinsieme A non vuoto di G
che risulta essere un gruppo rispetto alla stessa operazione definita in G.
In ogni gruppo (G, ) esistono almeno due sottogruppi, i cosiddetti sottogruppi banali o
impropri. Essi sono il gruppo stesso e il sottogruppo che ha come unico elemento lelemento
neutro di G; ogni altro sottogruppo `e detto proprio.
Teorema 7.6 Condizione necessaria e sufficiente affinch`e A (sottoinsieme non vuoto del
gruppo (G, )) sia un sottogruppo di G `e che siano verificate le seguenti due condizioni:
1. a, b A = a b A;
2. a A = a1 A.
Dimostrazione. Necessit`a. Supponiamo che A sia un sottogruppo di G. Allora A stesso
`e un gruppo e quindi le condizioni 1 e 2 sono verificate.
Sufficienza. Supponiamo che le condizioni 1 e 2 siano verificate. Per la 1, a, b A = ab A
e quindi `e anche unoperazione definita in A che verifica la propriet`a associativa in A
(a, b, c A si ha a (b c) = (a b) c) valendo essa in G. Poich`e le condizioni 1 e 2
valgono per ogni coppia di elementi di A, varranno in particolare per a e a1 a A. Allora
a a1 = e A, cio`e lelemento neutro di G appartiene pure ad A. Ed essendo anche che
per ogni a A anche a1 A, segue che (A, ) `e un gruppo, cio`e un sottogruppo di (G, ).
Le condizioni 1 e 2 sono equivalenti allunica condizione a, b A ab1 A.
Teorema 7.7 Intersezione di sottogruppi. Se S e H sono due sottogruppi di G, allora
S H `e un sottogruppo di G.
19

Dimostrazione. Si ha:
1. Se a S H, essendo S e H sottogruppi, abbiamo a1 S e a1 H quindi
a1 S H.
2. Se a, b S H, essendo S e H sottogruppi, abbiamo ab S e ab H. Quindi
ab S H.
1 e 2 provano la tesi.
Pi`
u in generale, se Gi , i I `e un insieme di sottogruppi di G, allora G0 = iI Gi (formato
dagli elementi comuni a tutti i sottogruppi Gi ) `e un sottogruppo di G.
Teorema 7.8 Unione di sottogruppi. Se S e H sono due sottogruppi di G, allora S H
non `e sottogruppo di G, tranne nel caso in cui H S oppure S H.
Dimostrazione. Sia a S H e b H S, facciamo vedere che ab 6 S H. Supponiamo
per assurdo che ab S H, ad esempio sia ab S. Avremo ab = s per qualche s S.
Moltiplicando ambo i membri a sinistra per a1 (si ricordi che a1 S), si avrebbe a1 ab =
a1 s S, da cui b = a1 s S. Ci`o `e assurdo perch`e b 6 S; analogamente se ab H si
perviene ad un assurdo.

Campi

Definizione 8.1 Dicesi campo K una terna (K, +, ) dove K `e insieme non vuoto mentre
+ e sono due operazioni binarie su K tali che:
K1) (Chiusura). Per ogni coppia a, b K, a + b K e a b K.
K2) (Associativit`
a). Comunque presi a, b, c K, a + (b + c) = (a + b) + c e a (b c) =
(a b) c.
K3) (Commutativit`
a). Per ogni coppia a, b K, a + b = b + a e a b = b a.
K4) (Identit`
a). Esistono due elementi in K, denotati con 0 e 1 e detti rispettivamente lo
zero e lunit`a del campo, tali che 0 6= 1 e, per ogni a K, a + 0 = a e a 1 = a.
K5) (Opposto). Per ogni a K, esiste un elemento b K (detto lopposto di a), tale che
a + b = 0.
(Inverso). Per ogni a K = K \ {0} esiste un elemento c K (detto linverso di a)
tale che a c = 1.
K6) (Distributivit`
a). Comunque presi a, b, c K, a (b + c) = a b + a c.
Ricordiamo che le condizioni K1), K2), K4) e K5) dicono che (K, +) `e un gruppo additivo
e (K , ) un gruppo moltiplicativo. Si pu`o provare che:
20

a b non `e mai uguale a 0 se a 6= 0 e b 6= 0;


linverso di a K `e sempre diverso da 0;
sia linverso che lopposto di a sono unici e si indicano, rispettivamente, con a1 e a.
Sono esempi di campi: (Q, +, ), (R, +, ), (C, +, ). Come `e ben noto, (Z, +, ) non `e un
campo.
Se (K, +, ) `e un campo e K `e un insieme finito, diremo che il campo `e finito. Si pu`o
dimostrare il seguente teorema.
Teorema 8.1 Se (K, +, ) `e un campo finito, esistono un numero primo p e un intero
positivo k tali che |K| = pk . Viceversa, per ogni primo p e intero positivo k, esiste un campo
finito avente pk elementi.
` anche noto che, a meno di isomorfismi, un campo finito `e unico. Esso `e denotato con
E
GF (pk ).
Un interessante esempio di campo finito e dato da (K, +, ) in cui K = {0, 1} e le
operazioni + e sono cos` definite:
0 + 0 = 0, 0 + 1 = 1, 1 + 0 = 1, 1 + 1 = 0;
0 0 = 0, 0 1 = 0, 1 0 = 0, 1 1 = 1.

Omomorfismi fra strutture

Definizione 9.1 Siano (G, ) e (G0 , ) due gruppi. Unapplicazione f : G G0 si dice un


omomorfismo di G in G0 quando, per ogni a, b G, `e f (a b) = f (a) f (b).
Un omomorfismo biiettivo fra G e G0 si dice un isomorfismo. Se G0 = G lisomorfismo si
dice automorfismo.
Teorema 9.1 Sia f : G G0 un omomorfismo fra gruppi. Allora
1. f (e) = e0 , essendo e ed e0 gli elementi unit`a rispettivamente di G e G0 ;
2. f (a1 ) = (f (a))1 ;
3. se H `e un sottogruppo di G allora f (H) = {a0 G0 | a H tale che f (a) = a0 } `e
un sottogruppo di G.
4. se H 0 `e un sottogruppo di G0 allora f 1 (H 0 ) = {a G | f (a) H 0 } `e un sottogruppo
di G.
21

Dimostrazione. (1) Si ha f (a) f (e) = f (a e) = f (a) e f (e) f (a) = f (e a) = f (a).


Dunque f (e) `e lelemento neutro di G0 .
(2) Da e0 = f (e) = f (a a1 ) = f (a) f (a1 ) e e0 = f (e) = f (a1 a) = f (a1 ) f (a), segue
che f (a1 ) `e linverso di f (a), cio`e f (a1 ) = (f (a))1 .
(3) Innanzitutto si osservi che f (H) non `e vuoto perch`e e0 = f (e) f (H). Inoltre se
a0 , b0 f (H) significa che a0 = f (a) e b0 = f (b) con a, b H; allora a0 b01 = f (a)(f (b))1 =
f (a) f (b1 ) = f (a b1 ) f (H) perch`e a b1 H essendo H un sottogruppo di G.
(4)Intanto f 1 (H 0 ) non `e vuoto perch`e e f 1 (H 0 ) in quanto f (e) = e0 H 0 . Inoltre
se a, b f 1 (H 0 ) significa f (a), f (b) H 0 ; allora a b1 f 1 (H 0 ) perch`e f (a b1 ) =
f (a) f (b1 ) = f (a) (f (b))1 H 0 essendo H 0 un sottogruppo di G0 .
Nucleo ed immagine di un omomorfismo. Sia f : G G0 un omomorfismo di gruppi.
Definiamo nucleo di f e lo denotiamo con Ker f il sottoinsieme di G cos` definito
Ker f = {a G | f (a) = e0 }.
Definiamo immagine di f e la denotiamo con Imf , il sottoinsieme di G0 cos` definito
Imf = {a0 G0 | esiste a G tale che f (a) = a0 }.
Teorema 9.2 Sia f : G G0 un omomorfismo di gruppi. Si ha
1. Ker f `e un sottogruppo di G.
2. Im f `e un sottogruppo di G0 .
3. f `e iniettiva se e solo se Ker f = {e}.
4. f `e suriettiva se e solo se Im f = G0 .
Definizione 9.2 Siano (K, +, ) e (K0 , , ) due campi. Unapplicazione f : K K0 `e un
omomorfismo di K in K0 se a, b K risulta:
1. f (a + b) = f (a) f (b),
2. f (a b) = f (a) f (b).
Un omomorfismo biiettivo si dice un isomorfismo fra K e K0 . Se K0 = K lisomorfismo si
dice automorfismo. Per gli omomorfismi tra campi valgono teoremi analoghi a quelli per gli
omomorfismi fra gruppi.

22

10

Matrici: prodotto righe per colonne

Nella Definizione 7.3 del paragrafo 7 abbiamo introdotto il concetto di matrice di tipo m n
ad elementi in R. Sempre nello stesso paragrafo abbiamo definito cosa si intende per somma
fra matrici e per matrice nulla e abbiamo lasciato al lettore il compito di verificare che
linsieme delle matrici m n con loperazione di somma forma un gruppo additivo abeliano.
In questo paragrafo vogliamo richiamare alcune definizioni e operazioni sulle matrici che ci
facile verificare che tutto quanto detto precedentemente per le
saranno utili in seguito. E
matrici ad elementi in R pu`o ripetersi per le matrici ad elementi in un generico campo K.
Sia M(m, n; K) linsieme delle matrici di tipo m n ad elementi in un campo K, i cui
elementi chiameremo scalari (qualora m = n porremo M(n, n; K) = M(n; K)).
Definizione 10.1 Dicesi prodotto di uno scalare K per una matrice A = (aij )
M(m, n; K) la matrice
A = (aij )
ottenuta moltiplicando per tutti gli elementi di A.
Definizione 10.2 Siano date le matrici A = (aij ) M(m, n; K) e B = (bij ) M(n, p; K)
(si noti che A e di tipo m n e B di tipo n p). Dicesi prodotto righe per colonne di A per
B la matrice
A B = (cij ) M(m, p; K)
definita, per ogni i = 1, 2, . . . , m e j = 1, 2, . . . , p, nel seguente modo:
cij =

n
X

ais bsj = ai1 b1j + ai2 b2j + . . . + ais bsj + . . . ain bnj .

s=1

Esempio 10.1 Siano

2
3
1

3 2 2
3 2 3 4

A=
M(2, 4; R) e B =
4 5 1 M(4, 3; R).
4 2 5 7
5 7 3
Allora A B e la matrice di tipo 2 3 data da

32+23+34+45
3(3) + 2 2 + 3 3 + 4 7
31+22+31+43
=
4 2 + 2 3 + 5 4 + 7 5 4(3) + 2 2 + 5 5 + 7 7 4 1 + 2 2 + 5 1 + 7 3

44 38 22
=
.
53 90 26

23

Esempio 10.2 Siano

2
3 2 4 1
3

5 2 7 3 M(3, 4; R) e B =
A=
4 M(4, 1; R).
2 3 4 6
5

Allora

32+23+44+15
33
A B = 5 2 + 2 3 + 4 7 + 3 5 = 56 .
22+33+44+65
59
Esempio 10.3 Siano

2 3
1 7
A=
M(2, 2; R) e B =
M(2, 2; R).
4 5
2 9
Allora

AB =

21+32 27+39
41+52 47+59

8 41
14 73

Si osservi che sia A che B sono quadrate di ordine n allora si possono fare entrambi i
prodotti A B e B A. In generale si ha
A B 6= B A.
Infatti siano A e B le matrici di ordine 2 definite nellEsempio 10.3. Si ha

30 38
2 3
1 7
6= A B.
=

BA=
38 51
4 5
2 9
Definizione 10.3 Dicesi matrice identica di ordine n la seguente matrice quadrata di ordine
n:

1 0 0 0
0 1 0 0

.
0
0
1

0
In =


0 0 0 1
Per loperazione di moltiplicazione fra matrici valgono le propriet`a elencate nel seguente
teorema di cui lasciamo al lettore la facile verifica. Dora in poi la somma fra le matrici A e
B sara`a indicata con A + B invece di A B.
Teorema 10.1 Siano A, B M(m, n; K), C, D M(n, p; K), E M(p, q; K) e K.
Allora:
24

1. (A + B) C = A C + B C;
2. A (C + D) = A C + A D;
3. (A C) = (A) C = A (C);
4. (A C) E = A (C E);
5. A In = Im A = A;
6. se C = D allora A C = A D;
7. se A = B allora A C = B C.
Si osservi che, in generale, la (6) e la (7) del Teorema 10.1 non possono essere invertite.
Infatti, posto nel primo caso

1 2
7 8
0 2 1 1

2 7
, e D = 2 7 ,
1 , C =
A= 0 2 1
3 1
3 1
0 3 1 2
5 8
5 8
abbiamo C 6= D e

2 7
A C = A D = 12 23 .
13 36

Analogamente, posto

A=

2 3
1 4

, B=

4 3
9 4

abbiamo A 6= B e

AC =BC =

, e C=

21 6
28 8

0 0
7 2

Definizione 10.4 Dicesi matrice diagonale una matrice quadrata A = (aij ) di ordine n tale
che aij = 0 i 6= j, ovvero se

a11 0
0 0
0 a22 0 0

0 a33 0
(1)
A=
0
.


0
0
0 ann
Conseguenza immediata del prodotto riga per colonna fra matrici e il seguente teorema.

25

Teorema 10.2 Sia A la matrice diagonale (1). Allora


k
a11 0
0
0 ak22 0

0 ak33
Ak =
0


0
0
0

0
0
0

aknn

Esempio 10.4 Sia

22
A2 = A A = 0
0

A3 = A A A =

2 0
0
A = 0 3 0 . Allora
0 0 1

0
0
4 0 0
(3)2
0 = 0 9 0 ,
0
(1)2
0 0 1

23
0
0
8 0
0
0 (3)3
0 = 0 27 0 .
0
0
(1)3
0 0 1

Definizione 10.5 Sia A = (aij ) M(m, n; K). Dicesi trasposta di A la matrice AT =


(bji ) M(n, m; K) tale che bji = aij per ogni i = 1, 2, . . . , m e j = 1, 2, . . . , n.
Esempio 10.5 Sia

Allora

1 2 3 4
A = 5 6 7 8 .
9 10 11 12

2
AT =
3
4

5 9
6 10
.
7 11
8 12

Per le matrici trasposte valgono le propriet`a elencate nel seguente teorema di cui lasciamo
al lettore la facile verifica.
Teorema 10.3 Siano A, B M(m, n; K), C M(n, p; K) e K. Allora:
1. (A + B)T = AT + B T ;
2. (A)T = (AT );
3. (A C)T = C T AT ;
4. (AT )T = A;
26

5. InT = In .
Definizione 10.6 Una matrice quadrata A di ordine n, cio`e A M(n; K) si dice simmetrica se AT = A, cio`e se aij = aji per ogni i, j = 1, 2, . . . , n.
Esempio 10.6 La seguente matrice e simmetrica

1 2 3 4
2 5 6 7

3 6 8 9
4 7 9 10

Se A = (aij ) M(n; K) allora gli elementi a11 , a22 , . . . , ann formano la diagonale principale di A.
Definizione 10.7 Una matrice quadrata A M(n; K) si dice invertibile se esiste una
matrice B M(n; K) tale che
A B = B A = In .
Esempio 10.7 Verificare se la matrice

A=

1 2
3 6

e invertibile.
SVOLGIMENTO. Essendo A M(2, ; R) bisogna verificare se esiste una matrice B
M(2; R) tale che A B = B A = I2 . Poniamo

x y
B=
z t
e cerchiamo di determinare x, y, z, t R in modo che

1 2
x y
1 0

=
.
3 6
z t
0 1
La precedente uguaglianza equivale a

x + 2z y + 2t
1 0
=
3x + 6z 3y + 6t
0 1
la quale e vera se e solo se il seguente sistema ammette soluzioni

x + 2z = 1

y + 2t = 0
.
3x + 6z = 0

3y + 6t = 1
Poich`e (2) non ha soluzioni, la matrice data A non e invertibile.
27

(2)

Esempio 10.8 Verificare se la matrice


A=

1 2
3 7

e invertibile.
SVOLGIMENTO. Essendo A M(2, ; R) bisogna verificare se esiste una matrice B
M(2; R) tale che AB = BA = I2 . Poniamo

x y
B=
z t
e cerchiamo di determinare x, y, z, t R in modo che

1 2
x y
1 0

=
.
3 7
z t
0 1
La precedente uguaglianza equivale a

x + 2z y + 2t
1 0
=
3x + 7z 3y + 7t
0 1
la quale e vera se e solo se il seguente sistema ammette soluzioni

x + 2z = 1

y + 2t = 0
.
3x + 7z = 0

3y + 7t = 1

(3)

Poich`e (2) ha lunica soluzione (x, y, z, t) = (7, 2, 3, 1), linversa di A e

7 2
.
B=
3 1
Infine non e difficile verificare che

7 2
1 2
1 0

=
= I2 .
BA=
3 7
0 1
3 1
Teorema 10.4 Sia A M(n; K) invertibile. Allora esiste una ed una sola matrice B
M(n; K) tale che
A B = B A = In .
Dimostrazione. Per definizione di matrice invertibile, esiste almeno una B M(n; K)
tale che A B = B A = In . Sia adesso C M(n; K) tale che A C = C A = In . Allora
C = C In = C (A B) = (C A) B = In B = B.
Per il precedente teorema la matrice B verr`a indicata con A1 e sar`a detta la matrice
inversa di A. Come proveremo nel Teorema 15.8, se esiste una matrice B tale che A B = In
allora esiste una matrice C M(n; K) tale che C A = In . Vale il seguente teorema.
28

Teorema 10.5 Sia A M(n; K). Se esistono B, C M(N ; K) tali che


A B = In

C A = In ,

allora C = B.
Dimostrazione. Si ha C = C In = C (A B) = (C A) B = In B = B.
Il seguente risultato e immediata conseguenza dei Teoremi 10.4, 10.5 e 15.8.
Teorema 10.6 Una matrice A M(n; K) e invertibile se e solo se esiste B M(n; K)
tale che A B = In .
Linsieme delle matrici invertibili A M(n; K) si indica con GL(n; K). In GL(n; K)
valgono le seguenti propriet`a.
Teorema 10.7 Siano A, B GL(n; K), allora si ha:
1. A B GL(n; K) e (A B)1 GL(n; K).
1

2. A1 GL(n; K) e (A1 ) = A.
1
T
3. AT GL(n; K) e AT
= (A1 ) .
4. In GL(n; K) e (In )1 = In .
Linsieme GL(n; K) con il prodotto righe per colonne costituisce un gruppo non commutativo, detto il gruppo lineare generale. Si osservi quindi che in GL(n; K) valgono le leggi di
cancellazione a sinistra ed a destra:
1. se C A = C B e A, B, C GL(n; K), allora A = B;
2. se A C = B C e A, B, C GL(n; K), allora A = B.
Si confronti la precedente affermazione con la (6) e la (7) del Teorema 10.1.
Teorema 10.8 Siano A, B M(m, n; K).
Sia C GL(m; K). Allora A = B se e solo se C A = C B.
Sia C GL(n; K). Allora A = B se e solo se A C = B C.
Dimostrazione. Sia C GL(m; K). Se A = B allora, per la (6) del Teorema 10.1, si ha
C A = C B. Sia, ora, C A = C B. Essendo C GL(m; K), esiste la matrice inversa C 1
di C. Allora, per il Teorema 10.1,
C 1 (C A) = C 1 (C B),
(C 1 C) A = (C 1 C) B,
A = B.
Se C GL(n; K), la dimostrazione e analoga.

29

11

Sistemi lineari e matrici ridotte per righe

Sia K un campo e siano aij K, i = 1, 2, . . . , m e j = 1, 2, . . . , n, tali che: 1) per ogni


i = 1, 2, . . . , m, se bi = 0 allora esiste almeno un ji {1, 2, . . . , n} per cui aiji 6= 0; 2) per
ogni j = 1, 2, . . . , n esiste almeno un ij {1, 2, . . . , m} per cui aij j 6= 0. Allora, posto bi K,
diremo che la scrittura

a11 x1 + a12 x2 + . . . + a1n xn = b1

a21 x1 + a22 x2 + . . . + a2n xn = b2


.
(4)
..........................................

am1 x1 + am2 x2 + . . . + amn xn = bm


rappresenta un sistema lineare di m equazioni nelle n variabili x1 , x2 , . . . , xn . Gli elementi
aij e bi si dicono rispettivamente i coefficienti e i termini noti di (4).
Definizione 11.1 Dicesi soluzione del sistema (4) una qualsiasi n-upla ordinata (1 , 2 , . . . , n )
di elementi di K tale che

a11 1 + a12 2 + . . . + a1n n = b1

a21 1 + a22 2 + . . . + a2n n = b2


.
..........................................

am1 1 + am2 2 + . . . + amn n = bm


Dato un sistema lineare, ad esso e associato il problema di determinare linsieme di tutte
le sue soluzioni. Ovviamente un sistema lineare potrebbe essere impossibile (cio`e non avere
alcuna soluzione). In tal caso linsieme delle sue soluzioni coincide con linsieme vuoto.
Definizione 11.2 Due sistemi lineari si dicono equivalenti se i loro insiemi di soluzioni
coincidono.
Definizione 11.3 Un sistema lineare si dice omogeneo se i suoi termini noti sono tutti
nulli.
Un sistema lineare omogeneo di m equazioni nelle n variabili x1 , x2 , . . . , xn si scrive quindi
nel seguente modo:

a11 x1 + a12 x2 + . . . + a1n xn = 0

a21 x1 + a22 x2 + . . . + a2n xn = 0


.
(5)
..........................................

am1 x1 + am2 x2 + . . . + amn xn = 0


Si ricordi che i coefficienti di (5) godono delle seguenti propriet`a: 1) per ogni i = 1, 2, . . . , m
esiste almeno un ji {1, 2, . . . , n} per cui aiji 6= 0; 2) per ogni j = 1, 2, . . . , n esiste almeno
un ij {1, 2, . . . , m} per cui aij j 6= 0.
Per determinare linsieme delle soluzioni di un sistema lineare (e in particolare di un
sistema lineare omogeneo) e ben noto il metodo di Gauss di eliminazione delle variabili.
Consideriamo dapprima i sistemi lineari omogenei. In tal caso il metodo di Gauss si basa
sul seguente teorema.
30

Teorema 11.1 Comunque fissati , K con 6= 0, e comunque presi i, j {1, 2, . . . , m}


con i 6= j, (5) e equivalente al sistema che si ottiene sostituendo lequazione i-esima con la
seguente:
(ai1 x1 + ai2 x2 + . . . + ain xn ) + (aj1 x1 + aj2 x2 + . . . + ajn xn ) = 0.

(6)

Dimostrazione. (Dimostrazione obbligatoria) Senza ledere la generalit`a, possiamo


supporre i = 1 e j = 2. Dobbiamo cos` dimostrare che (5) e equivalente al sistema

(a11 x1 + a12 x2 + . . . + a1n xn ) + (a21 x1 + a22 x2 + . . . + a2n xn ) = 0

a21 x1 + a22 x2 + . . . + a2n xn = 0


.
(7)
..........................................

am1 x1 + am2 x2 + . . . + amn xn = 0


immediato verificare che una soluzione di (5) e anche soluzione di (7). Viceversa, suppoE
niamo che (1 , 2 , . . . , n ) e soluzione di (7). Si ha

(a11 1 + a12 2 + . . . + a1n n ) + (a21 1 + a22 2 + . . . + a2n n ) = 0

a21 1 + a22 2 + . . . + a2n n = 0


..........................................

am1 1 + am2 2 + . . . + amn n = 0


e quindi, essendo a21 1 + a22 2 + . . . + a2n n = 0,

(a11 1 + a12 2 + . . . + a1n n ) = 0

a21 1 + a22 2 + . . . + a2n n = 0


.
..........................................

am1 1 + am2 2 + . . . + amn n = 0


Avendo supposto 6= 0, possiamo moltiplicare entrambi i membri della prima equazione per
1
ottenendo

a11 1 + a12 2 + . . . + a1n n = 0

a21 1 + a22 2 + . . . + a2n n = 0


,
..........................................

am1 1 + am2 2 + . . . + amn n = 0


cio`e (1 , 2 , . . . , n ) `e soluzione di (5).
Esempio 11.1 Risolvere il sistema

2x1 3x2 + 4x3 5x4 = 0

x1 2x2 + x3 x4 = 0
2x1 x2 + x3 2x4 = 0
,

x + x2 + x3 x4 = 0

1
x1 x2 + 2x3 + 4x4 = 0
31

a coefficienti in R, facendo uso del Teorema 11.1.


SVOLGIMENTO. Nel seguito scriveremo Ei Ei + Ej per indicare che, nel sistema
in considerazione, sostituisco lequazione i-esima con lequazione avente il primo membro
formato dalla somma del primo membro della i-esima con il primo membro della j-esima
rispettivamente moltiplicati per e .

2x

3x
+
4x

5x
=
0
2x1 3x2 + 4x3 5x4 = 0

1
2
3
4
E2 2E2 E1

x1 2x2 + x3 x4 = 0
x2 2x3 + 3x4 = 0
E3 E3 E1
2x1 x2 + x3 2x4 = 0
2x2 3x3 + 3x4 = 0

E
4 2E4 E1

x + x2 + x3 x4 = 0
5x 2x3 + 3x4 = 0

1
2
E5 2E5 E1
x1 x2 + 2x3 + 4x4 = 0
x2 + 13x4 = 0

2x1 3x2 + 4x3 5x4 = 0

E3 E3 + 2E2

x2 2x3 + 3x4 = 0
E4 7E4 12E3
E4 E4 + 5E2
7x3 + 9x4 = 0

E
5 7E5 2E3

12x3 + 18x4 = 0

E5 E5 + E2

2x3 + 16x4 = 0

2x1 3x2 + 4x3 5x4 = 0


2x1 3x2 + 4x3 5x4 = 0

x2 2x3 + 3x4 = 0
x2 2x3 + 3x4 = 0
7x3 + 9x4 = 0
7x3 + 9x4 = 0
E5 47E5 4E4
.

18x4 = 0
18x4 = 0

94x4 = 0
0=0
Che ha, come unica soluzione, (0, 0, 0, 0). Quindi il sistema assegnato ha una ed una sola
soluzione data da (0, 0, 0, 0).
Esempio 11.2 Risolvere il sistema

2x1 3x2 + 4x3 5x4 = 0


x1 2x2 + x3 x4 = 0
,

2x1 x2 + x3 2x4 = 0
a coefficienti in R, facendo uso del Teorema 11.1.
SVOLGIMENTO.

2x1 3x2 + 4x3 5x4 = 0


x1 2x2 + x3 x4 = 0

2x1 x2 + x3 2x4 = 0
E3 E3 + 2E2

E2 2E2 E1
E3 E3 E1

2x1 3x2 + 4x3 5x4 = 0


x2 2x3 + 3x4 = 0

2x2 3x3 + 3x4 = 0

2x1 3x2 + 4x3 5x4 = 0


x2 2x3 + 3x4 = 0
.

7x3 + 9x4 = 0
32

(8)

Posto x4 = , (8) equivale a

2x1 3x2 + 4x3 = 5


x2 2x3 = 3
.

7x3 = 9

Risolvendo per sostituzione, esso ammette infinite soluzioni date da 74 , 37 , 97 , per ogni
R.
Si noti che in (8) si pu`o prendere come parametro x3 invece di x4 . In tal caso, posto
x4 = , avremo

2x1 3x2 5x4 = 4


x2 + 3x4 = 2
,

9x4 = 7

che ha le soluzioni 49 , 13 , , 79 per ogni R. Si noti che

4 3 9
7
4 1
, , , | R =
, , , | R .
7 7 7
9 3
9
Per il Teorema 11.1, esse sono anche le soluzioni del sistema assegnato.
Osservazione 11.1 Sia

b11 x1 + b12 x2 + . . . + b1n xn = 0

b21 x1 + b22 x2 + . . . + b2n xn = 0


.
..........................................

bm1 x1 + bm2 x2 + . . . + bmn xn = 0

(9)

il sistema ottenuto da (5) mediante la trasformazione (6) per opportuni i, j, e con i 6= j


e 6= 0. Allora
1. In (9) lequazione i-esima potrebbe essere trasformata in una identit`a del tipo 0 = 0.
2. In (9) il numero delle variabili continua ad essere uguale ad n.
La prima osservazione e provata dallEsempio 11.1. Proviamo la seconda. Cio`e che,
comunque presa una variabile xj , j = 1, 2, . . . , n, esiste almeno una equazione di (9) in cui il
coefficiente di xj e diverso dallo zero. Per esempio consideriamo la variabile x1 e supponiamo
a11 6= 0. Se nella (6) e i 6= 1, avremo b11 = a11 6= 0 ed il risultato rimane provato. Per i = 1,
avremo b11 = a11 + aj1 con 6= 0 e j 6= 1. Se b11 6= 0 segue il risultato, invece se b11 = 0,
avremo a11 +aj1 = 0, aj1 = a11 6= 0, bj1 = aj1 6= 0 e il risultato rimane completamente
provato.
Nel definire il sistema (4) abbiamo supposto che esso non contenga variabili i cui coefficienti siano tutti nulli e nemmeno equazioni del tipo 0 = 0. Si noti che il metodo di
risoluzione del Teorema 11.1 continua a valere anche senza queste restrizioni sul sistema.
33

Definizione 11.4 Matrice ridotta per righe. Una matrice A = (aij ), i = 1, 2, . . . , m


j = 1, 2, . . . , n, si dice ridotta per righe se, per ogni i, e verificata una delle due seguenti
condizioni:
aij = 0 per ogni j = 1, 2, . . . , n, oppure
esiste almeno un t {1, 2, . . . , n} tale che ait 6= 0 e, se i < m, at = 0 per ogni
i + 1 m.
Esempio 11.3 La matrice

A=

1 1 2 0 2 0
7 0 3 1 1 0
0 0 0 0 0 0
0 0 1 0 0 1
0 0 0 2 0 4

e ridotta per righe.


Definizione 11.5 Elemento speciale. Sia A = (aij ), i = 1, 2, . . . , m j = 1, 2, . . . , n,
una matrice ridotta per righe. Per la Definizione 11.4, ogni riga Ri = (ai1 , ai2 , . . . , ain ) 6=
(0, 0, . . . , 0) contiene almeno un elemento ait 6= 0 tale che, se i < m, at = 0 per ogni
i + 1 m. Per ogni riga non nulla Ri si fissi, a piacere, uno solo di questi elementi.
Esso si chiama lelemento speciale relativo ad Ri .
Sia A la matrice ridotta dellEsempio 15.4. Gli elementi candidati ad essere di tipo
speciale sono quelli di posto (1, 2), (2, 1), (2, 5), (4, 3), (5, 4) e (5, 6) (si noti che la terza riga
non pu`o contenere alcun elemento speciale). Possiamo quindi scegliere come speciali quelli
di posto (1, 2), (2, 5), (4, 3) e (5, 4).
Teorema 11.2 Il numero di elementi speciali di una matrice ridotta m n e minore od
uguale al min{m, n}.
Dimostrazione. Sia r il numero degli elementi speciali in una matrice ridotta m n. Per
definizione, in ogni riga si pu`o fissare al pi`
u un elemento speciale, allora r m. Inoltre, come
si vede facilmente, due elementi speciali non possono mai trovarsi in una stessa colonna. Ne
segue r n.
Una qualsiasi matrice m n, A = (aij ), pu`o essere sempre vista come la matrice incompleta associata ad un sistema lineare omogeneo di m m equazioni (A potrebbe avere una
o pi`
u righe nulle, in tal caso conviene eliminare le identit`a 0 = 0) in n n incognite (A
potrebbe avere una o pi`
u colonne formate tutte da zeri). Ridurre per righe A equivale ad
applicare ripetutamente il Teorema 11.1 al sistema ad essa associato e a quelli equivalenti che
via via si ottengono e/o scambiare due equazioni fra loro. Il risultato e una matrice ridotta
il cui sistema omogeneo associato e equivalente al sistema associato alla matrice iniziale.
Mostriamo questo fatto nel seguente esempio.
34

Esempio 11.4 Vogliamo ridurre per righe

1 1
1
2

0
0

1 1
1 1

la matrice
2
1
0
1
2

0
0
0
0
0

1
2
0
2
1

2
1
0
1
1

Il sistema formalmente associato alla (10) e

x1 + x2 + 2x3 + x5 + 2x6 = 0

x1 + 2x2 x3 + 2x5 + x6 = 0
0=0
.

x
+
x
+
x
+
2x
+
x
=
0

1
2
3
5
6

x1 x2 + x3 + x5 + x6 = 0

(10)

(11)

Si noti che lidentit`a 0 = 0 sta ad indicare che la matrice associata ha una riga tutta formata
da zeri. Analogamente lassenza della variabile x4 in (11) indica che la quarta colonna della
matrice associata e tutta nulla. Applicando a (11) le riduzioni
E2 E2 + E1
otteniamo

E4 E4 E1

E5 E5 + E1 ,

x1 + x2 + 2x3 + x5 + 2x6 = 0

3x2 + x3 + 3x5 + 3x6 = 0


0=0
.

x
+
x
=
0

5
6

3
4x3 + 2x5 + 3x6 = 0

(12)

Ridurre il sistema (11) equivale a ridurre la matrice (10) nel modo seguente
R2 R2 + R1
Come risultato si ottiene la matrice

R4 R4 R1

1
0
0
0
0

1
3
0
0
0

2
1
0
1
4

0 1 2
0 3 3
0 0 0
0 1 1
0 2 3

R5 R5 + R1 .

il cui sistema omogeneo associato `e (12). Adesso applichiamo le riduzioni


E5 E5 4E4

35

R5 R5 4R4

(13)

rispettivamente al sistema (12) ed alla matrice (13). Abbiamo

x1 + x2 + 2x3 + x5 + 2x6 = 0
1 1 2 0 1
2

3x
+
x
+
3x
+
3x
=
0
0
3
1
0
3
3
2
3
5
6

0=0
0
e
0 0 0 0 0

x x5 + x6 = 0
0 0 1 0 1 1

3
6x5 x6 = 0
0 0 0 0 6 1

(14)

Questultima matrice e ridotta. Gli elementi speciali sono quelli di posto (1, 1), (2, 2), (4, 3)
e, a scelta, o quello di posto (5, 5) oppure quello di posto (5, 6). Tanto per fissare le idee
supponiamo che lelemento speciale nella quinta riga sia quello di posto (5, 5). Ci`o equivale
a considerare la variabile x6 come parametro arbitrario e le variabili x1 , x2 , x3 ed x5 come
incognite. Otteniamo cos` il sistema (non omogeneo)

x1 + x2 + 2x3 + x5 = 2x6

3x2 + x3 + 3x5 = 3x6


x3 x5 = x6

6x5 = x6
le cui soluzioni sono

7
8
5
1
x6 , x6 , x6 , x6 , x 6
18
9
6
6

per ogni x6 R.

Se nella quinta riga della matrice (14) prendiamo come elemento speciale quello di posto
(5, 6), otteniamo il sistema non omogeneo

x1 + x2 + 2x3 + 2x6 = x5

3x2 + x3 + 3x6 = 3x5


(15)
x3 + x6 = x5

x6 = 6x5
in cui x5 e assunto come parametro libero e x1 , x2 , x3 , x6 come incognite. Esso ha le 1
soluzioni

16
7
x5 , x5 , 5x5 , x5 , 6x5
per ogni x5 R.
3
3
Se nella quinta riga della matrice in (14) prendiamo come elemento speciale quello di posto
(5, 5), otteniamo il sistema non omogeneo

x1 + x2 + 2x3 + x5 = 2x6

3x2 + x3 + 3x5 = 3x6


(16)
x3 x5 = x6

6x5 = x6
in cui x6 e assunto come parametro libero e x1 , x2 , x3 , x5 come incognite. Esso ha le 1
soluzioni

7
8
5
1
7
16
x6 , x6 , x6 , x6 , x 6 | x6 R =
x5 , x5 , 5x5 , x5 , 6x5 | x5 R .
18
9
6
6
3
3
36

Si osservi che il numero di elementi speciali di una matrice ridotta coincide col numero delle
variabili assunte come incognite nel sistema ridotto ad essa associato.
Riassumendo, per ridurre una matrice, basta applicare opportunamente ad essa ed alle
matrici cia via ottenute, le seguenti
Regole di riduzione per righe:
1. Sostituire a tutti gli elementi della riga Ri i corrispondenti elementi di Ri moltiplicati
per 6= 0 e sommare ad essi i corrispondenti elementi della riga Rj , con j 6= i,
moltiplicati per . Possiamo riassumere questa regola come segue
Ri Ri + Rj , essendo 6= 0 e i 6= j.

(17)

2. Scambiare due righe fra loro. Cio`e


Ri Rj .

(18)

Questa regola e lecita in quanto equivale a scambiare, nel sistema associato, due
equazioni fra loro.
Esempio 11.5 Si consideri la matrice associata al

2 3 4
1 2 1

A=
2 1 1
1 1 1
1 1 2

sistema dellEsempio 11.2:

5
1

2
.
1
4

Ridurre per righe A equivale ad usare le stesse regole adoperate per trasformare il sistema
dato nellEsempio 11.2.

2 3 4 5
2
3
4
5
R2 2R2 R1
1 2 1 1
0 1 2 3 R3 R3 + 2R2
R
3 R3 R1
2 1 1 2
0 2 3 3

2 3 4 5
0 1 2 3 , la quale risulta ridotta (gli elementi sottolineati corrispondono agli
0 0 7 9
elementi speciali scelti).
Si osservi che la (17) pu`o essere usata scegliendo arbitrariamente coppie di valori e
(purch`e sia 6= 0) e coppie di righe i e j (purch`e sia i 6= j). Si capisce quindi che
riducendo una stessa matrice A si pu`o pervenire a matrici ridotte distinte. Tuttavia esse,
pur essendo distinte, conservano la stessa informazione: i sistemi lineari omogenei associati
37

sono equivalenti, cio`e hanno insiemi di soluzioni coincidenti. Il motivo segue immediatamente
dal Teorema 11.1 in quanto ogni sistema lineare omogeneo associato ad una matrice ridotta
dalla matrice A e equivalente al sistema lineare omogeneo associato alla matrice A stessa.
Illustriamo questo fatto con il seguente esempio.
Esempio 11.6 Sia

A=

1 1 2
1 4 2

3 1 1
.
2 1 1
1 1 4

Riduciamo A per righe in due modi diversi.


Riduzione

1
1

A=
3
2
1

1 1
0 5

0 0

0 0
0 0

numero 1.

1 2
1 1 2
R2 R2 R1
0 5
R3 5R3 2R2
4 2
0
R3 R3 3R1

1 1
R R 2R 0 2 5 R4 5R4 R2
4
4
1

1 1
0 1 3 R5 5R5 2R2
R5 R5 R1
1 4
0 2
2

2
1 1 2
0 5
0
0
R4 5R4 3R3

0 0 25 = B.
25

0 0
15 R5 5R5 + 2R3
0
10
0 0
0

Riduzione numero 2.

1 1 2
1 1 2
R2 R2 + 4R1
1 4 2
5 0 10 R3 10R3 + R2

R3 R3 R1

2 0 1 R4 10R4 + R2
3
1
1
A=

2 1 1 R4 R4 R1
1 0 1 R 5R 3R
5
5
2
R5 R5 + R1
1 1 4
2 0
6

1 1 2
1 1 2
5
5 0 10
0 10

R4 5R4 3R3

25 0 0
25 0 0 = C.

15 0 0 R5 5R5 + R3
0 0 0
5 0 0
0 0 0
Sia B che C sono matrici ridotte dalla A. Ma, come si vede facilmente, i sistemi a loro
associati sono equivalenti. Infatti si ha:
38

sistema associato a B:

sistema associato a C:

x y + 2z = 0
5y = 0
;

25z = 0

x y + 2z = 0
5x + 10z = 0 .

25x = 0

Entrambi questi sistemi hanno una e una sola soluzione, la banale, cio`e (x, y, z) =
(0, 0, 0).
Si noti che nellEsempio 11.6 sia B che C hanno lo stesso numero di elementi speciali.
Questo non e un caso ma in tutte le matrici ridotte da una stessa matrice fissata, il numero
degli elementi speciali e costante. Esso infatti coincide col numero delle incognite del sistema
ad essa associato (si noti che questo sistema potrebbe essere non omogeneo).
Si osservi ancora che, nellEsempio 11.6, il numero degli elementi speciali delle matrici
ridotte dalla A coincide col numero delle incognite del sistema lineare omogeneo associato
ad A e, questo sistema ammette solo la soluzione banale (0, 0, 0). Anche questo non e un
caso ma, come si verifica facilmente, un sistema lineare omogeneo ha come unica soluzione
quella banale se e solo se il numero degli elementi speciali della matrice ridotta associata alla
matrice incompleta coincide col numero delle incognite.
Vediamo ora, in alcuni esempi, cosa accade quando in un sistema lineare omogeneo il numero degli elementi speciali della matrice ridotta associata alla matrice incompleta e minore
del numero delle incognite.
Esempio 11.7 Studiare in R il sistema lineare omogeneo:

x + y + 2z + 3t = 0

x + y + z + t = 0
2x + 2y + 2z + 2t = 0

x+yzt=1

6x + 12y + 15z + 18t = 0


SVOLGIMENTO.

1 1 2
1 1 1

2 2 2
6 12 15

Riduciamo la matrice incompleta

3
R2 R2 + R1

1
R3 R3 2R1

2
R

6R
4
4
1
18

R4 R4 3R2

1
0

0
0

del sistema assegnato.

1 1 2
3
0 2 3
4

0 0 2 4
0 6 3
0

1 2
3
1

2 3
4
0
R4 R4 3R3
0
0 2 4
0 6 12
0
39

1 2
3
2 3
4

0 2 4
0 0
0

Questultima matrice risulta ridotta (possiamo prendere per elementi speciali quelli di
posto (1, 1), (2, 2) e (3, 3)). Assumendo come incognite le variabili i cui coefficienti concorrono
a formare le colonne contenenti gli elementi speciali (nel nostro esempio x, y, z) e le rimanenti
(nel nostro esempio solo la t) come parametri liberi, il sistema assegnato risulta equivalente
al seguente:

x + y + 2z = 3t
2y + 3z = 4t

2z = 4t
Si vede facilmente che questo sistema ha le 1 soluzioni
(x, y, z, t) = (0, t, 2t, t)
per ogni t R.
Esempio 11.8 Studiare in R il sistema lineare omogeneo:

x1 x2 + 2x3 + 3x4 + 4x5 + x6 = 0

2x1 x2 + x3 + x4 + 3x5 + x6 = 0
2x

1 + x2 x3 + x4 + x5 + x5 = 0

2x1 + x3 x4 + 3x5 = 0
SVOLGIMENTO.

1 1 2
2 1 1

2 1 1
2 0
1

Riduciamo la

3 4 1
1 3 1

1 1 1
1 3 0

1
0
R3 R3 3R2

0
R4 3R4 2R2
0

1
0
R4 4R4 R3
0
0

matrice incompleta del sistema assegnato.

1 1 2
3
4
1
R2 R2 2R1
0 1 3 5 5 1
R3 R3 2R1
0 3 5 5 7 1
R4 R4 2R1
0 2 3 7 5 2

1 2
3
4
1
1 3 5 5 1

0
4
10
8
2
0
1 11 1 4

1 2
3
4
1
1 3 5 5 1
.
0
4
10
8
2
0
0 54 12 18

Questultima matrice risulta ridotta (possiamo prendere per elementi speciali quelli di
posto (1, 1), (2, 2), (3, 3) e (4, 4)). Prendendo come incognite le variabili i cui coefficienti
concorrono a formare le colonne contenenti gli elementi speciali, il sistema assegnato risulta
equivalente al seguente:

40


x1 x2 + 2x3 + 3x4 = 4x5 x6

x2 3x3 5x4 = 5x5 + x6


4x

3 + 10x4 = 8x5 2x6

54x4 = 12x5 + 18x6


Si vede facilmente che questo sistema ha le 2 soluzioni

21x5 43x5 12x6 26x5 6x6 2x5 + 3x6


(x1 , x2 , x3 , x4 , x5 , x6 ) =
,
,
,
, x 5 , x6
9
9
9
9
per ogni x5 , x6 R.
In conclusione un sistema lineare omogeneo ammette sempre almeno una soluzione (quella
banale). Se il numero degli elementi speciali della matrice ridotta associata alla matrice
incompleta del sistema coincide col numero delle variabili, la banale e lunica soluzione del
sistema. Se il numero degli elementi speciali della matrice ridotta associata alla matrice
incompleta e minore del numero delle colonne, si hanno soluzioni, essendo uguale al
numero delle variabili meno il numero degli elementi speciali.
Consideriamo adesso il caso generale di un sistema lineare i cui termini noti non e detto
siano tutti nulli. Si noti che quanto diremo per determinare le soluzioni di questi sistemi si
pu`o applicare al caso dei sistemi omogenei. Non e comunque difficile rendersi conto che lo
studio sopra esposto dei sistemi lineari omogenei e una versione semplificata della seguente.
Sia dato il sistema lineare

a11 x1 + a12 x2 + . . . + a1n xn = b1

a21 x1 + a22 x2 + . . . + a2n xn = b2


(19)
..........................................

am1 x1 + am2 x2 + . . . + amn xn = bm


con aij , bi K, i = 1, 2, . . . , m e j = 1, 2, . . . , n, tali che: 1) per ogni i = 1, 2, . . . , m, se b1 = 0
allora esiste almeno un ji {1, 2, . . . , n} per cui aiji 6= 0; 2) per ogni j = 1, 2, . . . , n esiste
almeno un ij {1, 2, . . . , m} per cui aij j 6= 0 (come osservato per i sistemi omogenei, quello
che diremo in seguito vale anche se il sistema non soddisfi queste condizioni, cio`e anche nel
caso (19) contenga identit`a del tipo 0 = 0 oppure in cui una o pi`
u variabili di (19) abbia
coefficienti tutti nulli).
In modo del tutto analogo al Teorema 11.1 si prova il seguente risultato.
Teorema 11.3 Comunque fissati , K con 6= 0, e comunque presi i, j {1, 2, . . . , m}
con i 6= j, (19) e equivalente al sistema che si ottiene sostituendo lequazione i-esima con la
seguente:
(ai1 x1 + ai2 x2 + . . . + ain xn ) + (aj1 x1 + aj2 x2 + . . . + ajn xn ) = bi + bj .

41

(20)

Si ricordi che

a11 a22
a21 a22

am1 am2

a1n
a2n


amn

e detta la matrice incompleta del sistema (19), mentre

a11 a22 a1n


a21 a22 a2n

am1 am2 amn

b1
b2


bm

e detta la matrice completa di (19).


Per risolvere il sistema (19) conviene trasformarlo (usando ripetutamente il Teorema
11.3) in uno equivalente le cui matrici completa ed incompleta risultino ridotte per righe.
Per comodit`a conveniamo di separare nella matrice completa la colonna dei termini noti
dalle colonne dei coefficienti delle incognite. Scriveremo cio`e

a11 a22 a1n b1


a21 a22 a2n b2


am1 am2 amn bm
e applicheremo ripetutamente ad essa le regole di riduzione per righe in modo che, alla fine,
sia la matrice completa che quella incompleta risultino ridotte.
Esempio 11.9 Studiare in R il sistema lineare:

x + y + 3t = 1
x y + 2t = 2 .

x + y + 4t = 1
SVOLGIMENTO. Nella notazione seguita viene scritta la matrice completa, separando
con una linea verticale la colonna dei termini noti, cos` a sinistra si evidenzia la matrice
incompleta.

1 1 3 1
1
1
3
1
R2 R2 R1
1 1 2 2
0 2 1 1 .
R
3 R3 R1
1 1 4 1
0 0
1 2
Si osservi che sia la matrice incompleta che quella completa sono ridotte (gli elementi speciali sono quelli di posto (1, 1), (2, 2) e (3, 3)). Si ottiene cos` il seguente sistema, equivalente
a quello assegnato,

42


x + y + 3t = 1
2y 2t = 1 .

t = 2
In tal caso i coefficienti di tutte le variabili concorrono a formare le colonne contenenti gli
immediato
elementi speciali quindi tutte le variabili devono essere prese come incognite. E
, 3 , 2).
verificare che il sistema precedente ha una sola soluzione data da ( 11
2 2
Esempio 11.10 Studiare in R il sistema lineare:

x 2y + 3z + t = 1
7x 2y + 7z + 2t = 5 .

2x y + z + 3t = 2
SVOLGIMENTO. Nella notazione seguita viene scritta la matrice completa, separando
con una linea verticale la colonna dei termini noti, cos` a sinistra si evidenzia la matrice
incompleta.

1 2 3 1 1
1 2 3 1 1
R2 R2 + 7R1
7 2 7 2 5
0 12 14 5 2
R
3 R3 2R1
2 1 1 3 2
0 3 5 1 0

R3 4R3 + R1

1 2 3 1 1
0 12 14 5 1 .
0 0 6 9 2

Si ottiene cos` il seguente sistema, equivalente a quello assegnato,

x 2y + 3z + t = 1
12y + 14z + 5t = 2

6z + 9t = 2
Prendendo come incognite le variabili i cui coefficienti concorrono a formare le colonne
contenenti gli elementi speciali possiamo scrivere

x 2y + 3z = 1 t
12y + 14z = 2 5t

6z = 2 9t
Il sistema precedente ha le 1 soluzioni

21t + 16 39t 10 9t 2
(x, y, z, t) =
,
,
,t
18
18
6
per ogni t R.

43

Esempio 11.11 Studiare in R il sistema lineare:

x 2y + 3z + t = 4

xy+zt=2
x + 2y z + 3t = 0 .

x+yzt=1

2x + 3y z 3t = 5
SVOLGIMENTO. Nella notazione seguita viene scritta la matrice completa, separando
con una linea verticale la colonna dei termini noti, cos` a sinistra si evidenzia la matrice
incompleta.

1 2 3
1
1 2 3
1 4
4
R2 R2 R1
0 1 2 2 2
1 1 1 1 2
R3 R3 R1

1 2 1 3 0


R R R
0 4 4 2 4

4
4
1
0 3 4 2 3
1 1 1 1 1
R5 R5 2R1
2 3 1 3 5
0 7 7 5 3

1 2 3
1
4
R3 3R3 4R2
0 1 2 2 2

R4 R4 3R2
0
0
4
10
4

0 0
2
4
3
R5 R5 7R2
0 0
7
9 11

1 2 3
1
4
0 1 2 2 2

R4 2R4 + R3

4
0
0
4
10

R5 4R5 7R3
0 0
0
2
2
0 0
0 34 16

1 2 3
1
4
0 1 2 2 2

= B.
R5 R5 + 17R4
0
0
4
10
4

0 0
0
2
2
0 0
0
0 18
Si ottiene cos` il seguente sistema, equivalente a quello assegnato,

x 2y + 3z + t = 4

y 2z 2t = 2
4z + 10t = 4

2t = 2

0 = 51

44

Il precedente sistema e impossibile (cio`e non ha soluzioni) in quanto lultima delle sue
equazioni
0x + 0y + 0z + 0t = 51
non ha soluzioni. Quindi anche il sistema assegnato e impossibile.
NellEsempio 11.11 sia la matrice B che quella incompleta (cio`e la matrice ottenuta
eliminando lultima colonna della B) risultano ridotte ma il numero degli elementi speciali
della incompleta e minore del numero degli elementi speciali della completa B. Quando
accade questo fatto il sistema non ha mai soluzioni (e impossibile). Se invece il numero
degli elementi speciali della matrice incompleta e uguale al numero degli elementi speciali
della completa B, il sistema ammette soluzioni (vedasi Esempi 11.9 e 11.10). In tal caso
se il numero degli elementi speciali e uguale al numero delle variabili (Esempio 11.9), la
soluzione e unica, mentre se il numero degli elementi speciali e minore del numero delle
variabili (Esempio 11.10) avremo soluzioni, con dato dalla differenza fra il numero
delle variabili e quello degli elementi speciali.
Per risolvere il sistema lineare (19) possiamo procedere nel seguente modo:
1. Si riduca la matrice completa

a11 a22
a21 a22
B=

am1 am2

a1n b1
a2n b2



amn bm

in modo che anche quella incompleta

a11 a22
a21 a22
A=

am1 am2

a1n
a2n


amn

risulti ridotta. Siano rispettivamente A0 e B 0 le matrici ridotte della A e della B.


2. Se il numero degli elementi speciali di A0 e minore di quello di B 0 , il sistema e
impossibile.
3. Se il numero degli elementi speciali di A0 coincide con quello di B 0 il sistema ammette
soluzioni (si noti che in questo caso gli elementi speciali possono essere scelti in modo
che siano tutti contenuti in colonne di A0 ). Pi`
u precisamente, posto uguale ad r il
numero degli elementi speciali, si proceda nel seguente modo:
(a) Se r = n, cio`e il numero degli elementi speciali coincide con quello delle variabili
di (19), il sistema ha una ed una sola soluzione che si pu`o trovare risolvendo per
sostituzione il sistema ridotto avente B 0 come matrice completa.
45

(b) Se r < n, il sistema ammette nr soluzioni che possono trovarsi procedendo


come segue (si vedano gli Esempi 11.10 e 11.12). Si scriva il sistema avente B 0
come matrice completa e si scartino le eventuali identit`a del tipo 0 = 0. Il risultato
e un sistema di r equazioni. In esso si mettano a termine noto tutti i monomi
contenenti le variabili i cui coefficienti non concorrono a formare le colonne di A0
dove si trovano gli elementi speciali (queste variabili saranno considerate come
parametri arbitrari di K). Si ottiene cos` un nuovo sistema di r equazioni in r
incognite che pu`o essere risolto per sostituzione.
Esempio 11.12 Studiare in R il sistema lineare:

x1 + 2x2 x3 + 3x4 + 4x5 + 5x6 = 1

3x1 + x2 + 2x3 + 3x4 + 4x5 + x6 = 3


.
2x

1 x2 + 3x3 + x6 = 2

5x1 + 3x2 + 5x3 + 6x4 + 8x5 + 11x6 = 4


SVOLGIMENTO. Nella notazione
con una linea verticale la colonna
incompleta A.

1 2 1 3 4 5 1
3 1
2 3 4 6 3

2 1 3 0 0 1 2
5 3
5 6 8 11 4

1 2
2 1
R3 R3 R2

0 0
R4 R4 R2
1 0

seguita viene scritta la matrice completa B, separando


dei termini noti, cos` a sinistra si evidenzia la matrice

1 2 1 3 4 5
2 1 3 0 0 1
R2 R2 R1

2 1 3 0 0 1
R4 R4 2R1
3 1 7 0 0 1

1 3 4 5 1
3 0 0 1 2
= B0.
0 0 0 0 0
4 0 0 0 0

1
2

2
2

In B 0 gli elementi speciali sono sottolineati. Si ottiene cos` il seguente sistema, equivalente
a quello assegnato,

x1 + 2x2 x3 + 3x4 + 4x5 + 5x6 = 1

2x1 x2 + 3x3 + x6 = 2
0=0

x1 + 4x3 = 0

x1 + 2x2 x3 + 3x4 + 4x5 + 5x6 = 1


2x1 x2 + 3x3 + x6 = 2
ovvero
.

x1 + 4x3 = 0

Prendendo come incognite le variabili i cui coefficienti concorrono a formare le colonne


contenenti gli elementi speciali (cio`e le colonne 3, 4 e 6) otteniamo il seguente sistema di tre
equazioni nelle tre incognite x3 , x4 e x6 :

x3 + 3x4 + 5x6 = 1 x1 2x2 4x5


3x3 + x6 = 2 2x1 + x2

4x3 = x1
46

al variare dei parametri reali x1 , x2 e x5 . Esso ha le 1 soluzioni

5
5
7
4
1
x1 , x2 , x1 , 2 x1 + x2 , 3 + x1 x2 x5
4
4
3
3
3
comunque presi x1 , x2 , x5 R.
Posto
A = (aij ) , i = 1, 2, . . . , m, j = 1, 2, . . . , n,

b1
x1
b2 2
x2

X=
e B = ,



bm
xm
il sistema (4) pu`o scriversi nella seguente forma vettoriale
A X = B.

(21)

Se C e una matrice quadrata di ordine m invertibile, per il Teorema 10.8, il sistema (21) e
equivalente al seguente
(C A) X = C B.
(22)
Di fatto, il metodo di riduzione di Gauss precedentemente esposto consiste nel determinare
(attraverso le successive riduzioni) una matrice invertibile C di ordine m per cui il sistema
(22) si risolva pi`
u facilmente di (21). Illustriamo adesso con alcuni esempi come si costruisce
C. Innanzitutto si ricordi che il metodo di riduzione per righe si basa sulla successiva
applicazione di una delle due regole (17) o (18). Se poniamo D = (drs ) ove, per r =
1, 2, . . . , m e s = 1, 2, . . . , m, si ha

1
se r = s 6= i

6= 0 se r = s = i
,
drs =
0
se r 6= s e (r, s) 6= (i, j)

se (r, s) = (i, j)
allora applicare a (21) la regola (17) equivale a moltiplicare entrambi i membri di (21) per
D (si noti che, avendo supposto 6= 0, D e invertibile). Analogamente la regola (18)
equivale a moltiplicare entrambi i membri di (21) per F , essendo F la matrice che si ottiene
scambiando la riga i con la riga j nella matrice identica Im (si osservi che F 1 = F ). Il
sistema dellEsempio 11.10, in forma vettoriale, e


x
1 2 3 1
1

7 2 7 2 y = 5 .
(23)
z
2 1 1 3
2
t
47

Applicare ad esso la regola R2 R2 + 7R1


(23) per la matrice

1
G1 = 7
0
Infatti

1 0 0
1 2 3
7 1 0 7 2 7
0 0 1
2 1 1

1 2 3
0 12 14
2 1 1

equivale a moltiplicare entrambi i membri di

0 0
1 0 .
0 1

x
1
1
y

2
7
=
z
3
0
t

x
1
1
y
= 2
5
z
3
2
t


0 0
1

1 0
5 ,

0 1
2

Ora applichiamo la riduzione R3 R3 2R1 , cio`e moltiplichiamo entrambi i membri di


questultimo sistema per

1 0 0
G2 = 0 1 0 ,
2 0 1

x
1
1 0 0
1 2 3 1
1 0 0
y
0 1 0 0 12 14 5 = 0 1 0 2 ,
z
0
2 0 1
2 1 1 3
2 0 1
t


x
1 2 3 1
1
y
0 12 14 5 = 2 .
z
0 3 5 1
0
t
Si perviene al sistema ridotto applicando la regola R3
entrambi i membri per

1 0 0
G3 = 0 1 0 ,
1 0 4

x
1 0 0
1 2 3 1

0 1 0 0 12 14 5 y =
z
1 0 4
0 3 5 1
t

x
1 2 3 1

0 12 14 5 y =
z
0 0 6 9
t
48

4R3 + R1 , cio`e moltiplicando


1 0 0
1
0 1 0 2 ,
1 0 4
0

1
1 .
2

Si osservi che questo sistema si ottiene moltiplicando entrambi i membri di (23) per la matrice
C = G3 G2 G1 .
Si osservi che nellesempio precedente abbiamo moltiplicato entrambi i membri di (23) per
G1 . Avremmo potuto, pi`
u semplicemente, scrivere (23) in forma matriciale e poi moltiplicare
per G1 , cio`e

1 0 0
1 2 3 1 1
1 2 3 1 1
7 1 0 7 2 7 2 5 = 0 12 14 5 2
0 0 1
2 1 1 3 2
2 1 1 3 2
e procedere analogamente con le matrici G2 e G3 .
Come secondo esempio risolviamo il sistema

x1 x2 + 3x3 = 2

x1 + 2x2 + x3 + 2x4 = 1
.
3x1 x2 + x3 = 1

x1 + x2 + 2x3 + x4 = 1
Come ormai dovrebbe essere chiaro, (24) pu`o

2 1
1 2

3 1
1 1

scriversi
3
1
1
2

0
2
0
1

2
1
.
1
1

Riduciamo la precedente matrice mediante le seguenti regole:


1. R1 R4 cui corrisponde la matrice

0
0
G1 =
0
1
2. R2 R2 R1 cui corrisponde la matrice

1
2
G2 =
0
0
3. R2 R3 cui corrisponde la matrice

1
0
G3 =
0
0
49

0
1
0
0

0
1
0
0

0
0
1
0

0
0
1
0

0
0
1
0

0
1
0
0

1
0
;
0
0

0
0
;
0
1

0
0
;
0
1

(24)

4. R4 R4 R2 cui corrisponde la matrice

1
0
G4 =
0
0

0
1
0
1

5. R4 R4 + R3 cui corrisponde la matrice

1
0
G5 =
0
0

0
1
0
0

Essendo

0
0
G5 G4 G3 G2 G1 =
0
1

il sistema (24) si riduce al seguente

0 0 0
1
0 0 1
0

0 1 0 2
1 1 1 2
cio`e

12

0
0
1
0

0
0
1
1

0
0
;
0
1

0
0
.
0
1

0 0
1
0 1
0
,
1 0 2
1 1 2

2 1 3 0 2
1 2 1 2 1

3 1 1 0 1 ,
1 1 2 1 1

1 1
2 1 1
3 1 1 0 1

.
1
0 3 0 1
0
0 1 0 0

Ancora sui sistemi lineari.

Il metodo di risoluzione di un sistema lineare illustrato alla fine del Paragrafo 11, trasforma
il sistema assegnato, quando ha soluzioni, in uno ridotto formato da una equazione avente
esattamente una incognita, una equazione avente al pi`
u due incognite, una equazione avente
al pi`
u tre incognite ... e cos` via fino ad esaurire tutte le incognite del sistema ridotto.
Ovviamente un tale sistema si risolve facilmente. Nell Esempio 11.10, il sistema

x 2y + 3z + t = 1
7x 2y + 7z + 2t = 5

2x y + z + 3t = 2
50

e stato ridotto nel seguente

x 2y + 3z = 1 t
12y + 14z = 2 5t .

6z = 2 9t

(25)

possibile usare ancora


Sebbene esso si risolva facilmente, ci poniamo la seguente domanda: E
il metodo di riduzione in modo da ottenere direttamente le soluzioni? Per esempio il sistema
(25) ha come matrice

1 2 3
1t
0 12 14 2 5t .
(26)
0 0 6 2 9t
Applicando il metodo di riduzione
Ri Ri + Rj , 6= 0, i 6= j,
dal basso verso lalto trasformiamo la (26) nella matrice identica:

1 2 3
1t
4

11t
2
4
0
R1 2R1 + R3
0 12 14 2 5t
0 36 0 20 78t
R

3R
+
7R
2
2
3
0 0 6 2 9t
0 0 6 2 9t

1
R1
R1 18
18 0
0 16 + 21t
1
R1 9R1 + R2 0 36 0
20 78t R2 36 R2
0
0 6
2 9t
R3 16 R3

1 0 0 1621t
18
0 1 0 39t10
18
0 0 1 9t2
6

da cui otteniamo le soluzioni


(x, y, z, t) =

21t + 16 39t 10 9t 2
,
,
,t
18
18
6

per ogni t R.
In generale, per risolvere completamente un sistema lineare si pu`o procedere riducendo
la matrice ad esso associata procedendo dallalto verso il basso in modo da ottenere gli
elementi speciali e cos` verificare se il sistema e possibile o impossibile. Nel primo caso si pu`o
proseguire col metodo di riduzione procedendo dal basso verso lalto in modo da trasformare
la matrice ridotta in una verificante le seguenti condizioni: 1) tutti gli elementi speciali sono
uguali ad 1; 2) gli elementi delle colonne contenenti un elemento speciale sono tutti nulli,
facendo ovviamente eccezione per lelemento speciale stesso. Da una tale matrice si ricavano
immediatamente le soluzioni del sistema. Illustriamo questo procedimento con alcuni esempi.
51

Esempio 12.1 Studiare in R il sistema lineare:

3x 2y + 4z = 3
xy+z =1
.

2x + 4y + 2z = 1
SVOLGIMENTO. Scriviamo le matrici completa e incompleta del sistema come fatto precedentemente e applichiamo il metodo di riduzione dallalto verso il basso in modo da ottenere
gli elementi speciali e vedere quindi se il sistema e possibile o no.

3 2 4 3
3 2 4
3
R2 3R2 + R1
1 1 1 1
1
0
0 1
R
3 3R3 2R1
2 4 2 1
0 16 2 3

R3 R3 16R2

3 2 4
3
1
0
0 1
0 0 18 3

Abbiamo cos` ridotto la matrice. Gli elementi speciali sono quelli di posto (1, 1), (2, 2) e
(3, 3). Essi appaiono tutti nella matrice incompleta (quella che ha come colonne i coefficienti
delle incognite) pertanto il sistema e possibile. Infine, essendo il numero degli elementi
speciali uguale al numero delle incognite, la soluzione e unica. Per determinarla procediamo
col metodo di riduzione dal basso verso lalto:

3
21
3 2 4
27
18
0
R1 9R1 + 2R3
0 1
1
0
0
3
0 18
R
2 18R2 + R3
0 0 18 3
0
0 18 3

R1 R1 + R2

1
R1
R1 27
27 0
0
18
1 0 0 23
1
R2 0 1 0 16 .
3 R2 18
0 18 0
1
0 0 18 3
0 0 1 16
R3
R3 18

Quindi la soluzione del sistema assegnato e

2 1 1
(x, y, z) =
, ,
.
3 6 6
Esempio 12.2 Studiare in R il sistema lineare:

2x 3y + 4z + 3t = 1

2x + 6z + 4t = 3
.
x+yzt=2

x + 2y + 3z + 2t = 0
SVOLGIMENTO. Scriviamo le matrici completa e incompleta del sistema e applichiamo il
metodo di riduzione dallalto verso il basso in modo da ottenere gli elementi speciali e vedere
quindi se il sistema e possibile o no.
52

2 3 4
3 1
2
0
6
4 3

1
1 1 1 2
1 2
3
2 0

R3 2R3 5R2

R4 2R4 + R2

R4 R4 R3

2
2

0
0

2 3 4 3
2 0 6 4
R3 3R3 + R1

5 0 1 0
R4 3R4 + 2R1
1 0 17 12

2 3 4
3
1
3
2 0
6
4

0 0 28 20 1
0 0 28 20 1

3 4
3
1
0
6
4
3
.
0 28 20 1
0
0
0
0

1
3

7
2

Abbiamo cos` ridotto la matrice. Gli elementi speciali fissati sono quelli di posto (1, 2),
(2, 1) e (3, 3) (invece di questultimo si potrebbe scegliere quello di posto (3, 4) e procedere di
conseguenza). Gli elementi speciali sono tutti appartenenti alla matrice incompleta pertanto
il sistema e possibile. Infine, essendo il numero degli elementi speciali (=3) minore del
numero delle variabili (=4), abbiamo 1 soluzioni al variare del parametro libero t. Per
determinarle procediamo col metodo di riduzione dal basso verso lalto:

3
1
2 3 4
0 3 2 1 2
2 0

6
4
3
6
4
3

R1 R1 2R2 2 0

0 0 28 20 1
0 0 28 20 1
0 0
0
0
0
0 0
0
0
0

0 42 0
6 27
28 0
R1 14R1 + R3
0
4 39


0 0 28 20 1
R2 14R2 + 3R3
0 0
0
0
0

1
9
1
0
1
0

R1 42 R1
7
14
1 0 0 1 39
1
7
28 .

R2 28 R2
5
1
0
0
1
7
28
1
R3 28
R3
0 0 0 0 0
Quindi le soluzioni del sistema assegnato sono

1 1
5
39 1 9
+ t,
+ t,
t, t
t R.
(x, y, z, t) =
28 7 14 7 28 7
Si osservi che, similmente a quanto visto alla fine del Paragrafo 11, applicare ad una
matrice le regole di riduzione dal basso verso lalto equivale a moltiplicarla per una opportuna
matrice invertibile.
53

13

Sistemi lineari dipendenti da un parametro

Dedichiamo questo paragrafo ad alcuni esempi di risoluzione di sistemi lineari dipendenti da


un parametro reale. Risolveremo tali sistemi usando sempre il metodo di riduzione illustrato
nei paragrafi precedenti. Lunica differenza e la presenza del parametro che per certi valori
potrebbe annullare elementi della matrice candidati ad essere speciali.
Esempio 13.1 Studiare, al variare del parametro reale k, il sistema lineare:

kx + y + z = 1

x + ky + z = k
.
x + y + kz = k 2

kx + (2 k)y + kz = k 2 k + 1
SVOLGIMENTO. Scriviamo le matrici completa e incompleta del sistema e applichiamo il
metodo di riduzione dallalto verso il basso in modo da ottenere gli elementi speciali e vedere
quindi, al variare di k R, se il sistema e possibile o no.

k
1
1
1
R2 R2 R1
1

k
1
k

R3 R3 kR1
1

1
k
k2
R4 R4 kR1
k 2 k k k2 k + 1

k
1
1k k1

1 k2 1 k
k k 2 2 2k

1
1

0
k1
=B

0
k2 k
2
0 k 2k + 1

Se k = 1, B diventa

1
0

0
0

1
0
0
0

1
0
0
0

1
0
,
0
0

quindi, per k = 1, il sistema ha le 2 soluzioni (y z + 1, y, z) per ogni y, z R.


Consideriamo ora k 6= 1. In tal caso la matrice B non e ancora ridotta.

k
1
1
1
1k k1 0
R3 R3 + R2
k1

2
2
1k
R4 R4 + 2R2
k k
1k 0
k k 2 2 2k 0 k 2 2k + 1

k
1
1
1
1k
k1 0 k1

R4 R4 R3
2 k k2
0
0 k2 1
2 k k2
0
0 k2 1
54

k
1
1k
k1

2 k k2
0
0
0

1
1
0 k1
= C.
0 k2 1
0
0

Se 2 k k 2 = 0, cio`e se k = 1 oppure se k = 2, la terza riga della matrice incompleta


e formata da elementi nulli. Poich`e stiamo studiando il sistema per k 6= 1, lunica soluzione
accettabile dellequazione 2kk 2 = 0 e k = 2. Per tale valore di k, essendo k 2 1 = 3 6= 0,
il sistema e impossibile.
Sia ora k 6= 2, 1. Per questi valori di k, essendo 2 k k 2 6= 0, la matrice ha tre
elementi speciali tutti appartenenti alla matrice incompleta. Poich`e le incognite sono tre il
sistema ha una ed una sola soluzione. Gli elementi speciali sono quelli di posto (1, 3), (2, 2)
e (3, 1) (si ricordi che k 6= 2, 1). Per determinarla procediamo col metodo di riduzione dal
basso verso lalto (si osservi che nella matrice C possiamo eliminare lultima riga):

k
1
1
1
R1 (1 k)(k + 2)R1 kR3

1k
k1 0 k1

R
2
2 (k + 2)R2 R3
(1 k)(k + 2)
0
0 k 1

0
(1 k)(k + 2) (1 k)(k + 2) (1 k)(k + 2) k(k 2 1)

0
(k 1)(k + 2)
0
(k 1)(k + 2) k 2 + 1
(1 k)(k + 2)
0
0
k2 1
R1 R1 + R2

0
0
(1 k)(k + 2) (k 1)(k + 1)2

0
(k 1)(k + 2)
0
k1
(1 k)(k + 2)
0
0
k2 1

R2

1
R
(1k)(k+2) 1
1
R
(k1)(k+2) 2

R3

1
R
(1k)(k+2) 3

R1

2
0 0 1 (k+1)
k+2
1
.
0 1 0
k+2
k+1
1 0 0 k+2

Quindi le soluzioni del sistema assegnato sono

1
k+1
(k + 1)2
(x, y, z) =
,
,
.
k+2 k+2 k+2
Esempio 13.2 Studiare, al variare del parametro reale k, il sistema lineare omogeneo:

(1 k)x + y + z = 0
2x + (2 k)y + 2z = 0 .

x + y + (1 k)z = 0
SVOLGIMENTO. Essendo il sistema omogeneo scriviamo solo la matrice incompleta e
applichiamo ad essa il metodo di riduzione dallalto verso il basso.
55

1k
1
1
2
2k
2
1
1
1k

R3 R3 + R2

1k
1 1
R2 R2 2R1
2k
k 0

R3 R3 + (k 1)R1
2
k + 2k k 0

1k
1 1
2k
k 0 = B.

2
k + 4k 0 0

Se k 2 + 4k = 0, cio`e k = 0, 4, la terza riga di B ha tutti gli elementi nulli. Inoltre si ha:


Se k = 0 allora

1 1 1
B= 0 0 0
0 0 0

e quindi, per k = 0, si hanno le 2 soluzioni (y z, y, z) per ogni y, z R.


Se k = 4 allora

3 1 1
B = 8 4 0 .
0
0 0

Questa matrice risulta ridotta con elementi speciali quello di posto (1, 3) e quello di posto
(2, 2). Riduciamo B verso lalto (si osservi che possiamo eliminare la terza riga di B)

3 1 1
4 0 4
R1 4R1 + R2
8 4 0
8 4 0
R1 14 R1

R2 41 R2

1 0 1
2 1 0

e quindi, per k = 4, si hanno le 1 soluzioni (x, 2x, x)

per ogni x R.
Sia ora k 6= 0, 4. Allora k 2 + 4k 6= 0 e B ha tre elementi speciali. In tal caso il sistema,
avendo tre incognite ed essendo omogeneo, ha lunica soluzione banale (0, 0, 0).
Esempio 13.3 Studiare, al variare del parametro reale k, il sistema lineare:

x+y+z =1

kx + y + z = k
.
x y + kz = 2

2x + 3y + z = k 1
SVOLGIMENTO. Scriviamo le matrici completa e incompleta del sistema e applichiamo il
metodo di riduzione dallalto verso il basso in modo da ottenere gli elementi speciali e vedere
quindi, al variare di k R, se esso e possibile o no.
56

1 1 1
1
R2 R2 R1
k 1 1

R3 R3 + R1
1 1 k
2
R4 R4 3R1
2 3 1 k1

1
1
1
1
k1 0
k1
0

=B
2
0 k+1
3
1 0 2 k 5
Se k = 1, B diventa

1
1
1 1 1
1 1 1
0 0 0

0 0 0
0
0

R4 2R4 + R3
2 0 2

3
2 0 2
3
1 0 2 4
0 0 2 5

Quindi, per k = 1, il numero degli elementi speciali coincide con quello delle incognite.
Inoltre gli elementi speciali sono nella matrice incompleta. Pertanto il sistema ha una sola
soluzione. Determiniamola procedendo col metodo di riduzione dal basso verso lalto applicato alla matrice ridotta in cui abbiamo eliminato la seconda riga perch`e formata tutta da
zeri.

1 1 1
1
2 2 0 3
R2 R2 + R3
2 0 2
3
2 0 0 2
R
1 2R1 + R3
0 0 2 5
0 0 2 5

R1 21 R1
0 2 0 4
0 1 0 2
2 0 0 2 R2 21 R2 1 0 0 1 .
0 0 2 5
0 0 1 52
R3 12 R3

R1 R1 R2

Quindi per k = 1 abbiamo lunica soluzione (1, 2, 25 ).


Sia ora k 6= 1.

1
k1
B=
2
1

2 k k2
1

Allora

1
1
1
0
0
k1
R2 1 R2
k1
0 k+1
3
0 2 k 5

1
1
1
0
0
1
R3 R3 2R2
0
0
k2 1

3 R4 R4 + R2
0 k+1
0 2
k5
57

1
1

0
0
Se k

1
1

0
0

1
1
1
0
0
1
.
0 k+1
1
0 2 k 4
= 1, il sistema e impossibile. Sia k 6= 1, +1. Allora

1
1
1
1

0
0
1
1
R4 (k + 1)R4 + 2R3

0 k+1
0
1
0 2 k 4
0

1
1
1

0
0
1
.

0 k+1
1
2
0
0
k 3k 2

Se k 2 3k 2 6= 0 il sistema e impossibile. Supponiamo k 2 3k 2 = 0, cio`e k = 32 17 ,


allora lultima riga della matrice precedente
e formata tutta da elementi nulli. Eliminando

3 17
quesultima riga e ricordando che k = 2 , la matrice diventa

1 1
1
1
k+1 k+1
0
k
1 0

0
1

R1 (k + 1)R1 R3 1
0
0
1
0 0 k+1

1
0
0
k+1 1
0 0
0
k 2 3k 2

1
0 k+1
0
0
0
R1 R1 (k + 1)R2 1
1
0
0
k+1 1

1
0
1
0

1
k+1
R1 R1 k+1 R1
1
1 0 0
1
R3 R3 k+1 R3
1
0 0 1
k+1

dalla quale, ricordando che k = 32 17 , otteniamo le soluzioni

2
2
2
2
,

1,
e
1,
.
5 + 17 5 + 17
5 17 5 17
Esempio 13.4 Studiare, al variare del parametro reale k, il sistema lineare:

x + ky t = k
(k + 1)x + y + t = 1 .

2x + y + kt = 2
SVOLGIMENTO. Scriviamo le matrici completa e incompleta del sistema e applichiamo il
metodo di riduzione dallalto verso il basso in modo da ottenere gli elementi speciali e vedere
quindi, al variare di k R, se esso e possibile o no.

1
k 1 k
R2 R2 (k + 1)R1
k+1 1 1 1

R3 R3 2R1
2
1 k 2
58

1
k
1
k
0 k 2 k + 1 k + 2 k 2 k + 1 = B
0
1 2k
k+2
2 2k
Se k = 2, B diventa

1 2 1 2
1 2 1 2
0 1 0 1 R3 R3 + 5R2 0 1 0
1 .
0 5
0
6
0 0
0
1
Quindi per k = 2 il sistema e impossibile.
Sia adesso k 6= 2.

1
k
0 k 2 k + 1
0
1 2k

1
k
0 k 2 k + 1
0
k2 k

Abbiamo

1
k
k + 2 k 2 k + 1 R3 R3 R2
k+2
2 2k

1
k
k + 2 k 2 k + 1 .
0
k2 k + 1

Se k = 0, 1 sia la matrice incompleta che la completa sono ridotte ma la matrice incompleta ha due elementi speciali (per esempio, quelli di posto (1, 1) e (2, 3)) mentre la completa
ha tre elementi speciali (per esempio, quelli di posto (1, 1), (2, 3) e (3, 4)). Quindi per k = 0, 1
il sistema e impossibile.
Se k 6= 0, 1 la matrice incompleta e la completa hanno tre elementi speciali (nei posti
(1, 1), (2, 3) e (3, 2)). Poich`e il sistema ha tre incognite si ha una sola soluzione. Lasciamo
al lettore la determinazione di questa soluzione.

14

Come ricavare la matrice inversa attraverso il metodo di riduzione.

Ricordiamo che per il Teorema 10.6, una matrice A di ordine n e invertibile se e solo se esiste
una matrice B di ordine n tale che A B = In , essendo In la matrice identica di ordine n. In
questo paragrafo mostreremo come sia possibile, mediante il metodo di riduzione, verificare
se una matrice A e invertibile e, in tal caso, determinarne linversa.
Esempio 14.1 Determinare leventuale inversa

1 2

1 1
A=
2 1

59

della matrice:

1
1 .
3

SVOLGIMENTO. A e invertibile se esiste una matrice

x1 x2 x3
B = y1 y2 y3
z1 z2 z3
tale che A B = I3 , cio`e

1 2 1
x1 x2 x3
1 0 0
1 1 1 y1 y2 y3 = 0 1 0
2 1 3
z1 z2 z3
0 0 1
la quale equivale a


x1 + 2y1 z1 x2 + 2y2 z2 x3 + 2y3 z3
1 0 0
x1 + y1 + z1
x2 + y 2 + z 2
x3 + y3 + z3 = 0 1 0 .
0 0 1
2x1 + y1 + 3z1 2x2 + y2 + 3z2 2x3 + y3 + 3z3

(27)

Uguagliando nella (27) la prima, seconda e terza colonna della matrice a primo membro
rispettivamente con la prima, seconda e terza colonna di quella a secondo membro, deduciamo
che A ha inversa se i seguenti tre sistemi lineari

x + 2y z = 1
x + 2y z = 0
x + 2y z = 0
x+y+z =0
x+y+z =1
x+y+z =0
,
,

2x + y + 3z = 0
2x + y + 3z = 0
2x + y + 3z = 1
hanno soluzione. Tali soluzioni, se esistono, costituiscono le tre colonne dellinversa B.
Poich`e i precedenti sistemi differiscono solamente nelle colonne dei termini noti possiamo
risolverli, in modo pi`
u compatto, nel seguente modo. Si riduca per righe la seguente matrice
formata nella prima parte dai coefficienti delle incognite (uguali per tutti e tre i sistemi) e,
nella seconda parte, dalle tre colonne dei termini noti:

1 2 1 1 0 0
R2 R2 + R1
1 1 1 0 1 0

R
3 R3 2R1
2 1 3 0 0 1

1 2 1 1
0 0
0 1 2 1 1 0
0 3 5 2 0 1

1 2 1 1 0 0
0 1 2 1 1 0
0 0 1 1 3 1

1 2 0
0
3 1
0 1 0 1 5 2
0 0 1 1 3 1

R3 R3 + 3R2

R1 R1 R3

R2 R2 2R3

R1 R1 2R2
60

1 0 0
2 7 3
0 1 0 1 5 2 R3 R3
0 0 1 1 3 1

1 0 0 2 7 3
0 1 0 1 5 2 .
0 0 1 1 3 1
Le soluzioni dei tre sistemi sono quindi
(x1 , y1 , z1 ) = (2, 1, 1), (x2 , y2 , z2 ) = (7, 5, 3), (x3 , y3 , z3 ) = (3, 2, 1)
e la matrice inversa della A e

2 7 3
B = 1 5 2 .
1 3 1

Dallesempio precedente se ne deduce che

1
A=
2
e invertibile se, mediante il metodo di

1
1
2

la matrice

2 1
1 1
1 3

riduzione, e possibile trasformare la matrice

2 1 1 0 0
1 1 0 1 0
1 3 0 0 1

(28)

in modo che la sottomatrice che nella (28) e a sinistra della | (quella coincidente con A)
coincida con la matrice identica. In tal caso, la sottomatrice che otterremo a destra della |
fornisce linversa di A. Nel nostro esempio abbiamo trasformato la (28) nella

1 0 0 2 7 3
0 1 0 1 5 2 ,
0 0 1 1 3 1
pertanto

2 7 3
1 5 2
1 3 1

e linversa di A.

61

Possiamo schematizzare quanto detto nel seguente modo. Sia data la matrice A di ordine
n. Si vuole sapere se essa e invertibile e, al tempo stesso, determinarne linversa (se esiste).
Si pu`o procedere nel seguente modo.
Metodo per determinare leventuale inversa di una matrice A:
1. Si formi la matrice (A | In ), in cui In denota la matrice identica di ordine n.
2. Si applichi il metodo di riduzione a (A | In ) sia dallalto verso il basso che, eventualmente, dal basso verso lalto:
(a) se, mediante il metodo di riduzione, non e possibile trasformare A nella matrice
In allora A non e invertibile;
(b) se, mediante il metodo di riduzione, A viene trasformata in In avremo trasformato
(A | In ) in (In | B). In tal caso A e invertibile e B e la sua inversa.
Esempio 14.2 Determinare linversa della matrice:

1
2 1 0
1 1 3 2

5 0 1
A=
1
4 1 0 0
0
3 0 0

4
0
0
0
0

SVOLGIMENTO. La matrice assegnata e ridotta. Applichiamo il metodo di riduzione dal


basso verso lalto alla matrice (A | I5 ) in modo da trasformarla nella (I5 | A1 ):

1
2 1 0 4 1 0 0 0 0
R4 3R4 + R5
1 1 3 2 0 1 0 0 0 0

R3 3R3 5R5
5 0 1 0 0 0 1 0 0
(A | I5 ) =

4 1 0 0 0 0 0 0 1 0 R2 3R2 R5
R1 3R1 2R5
0
3 0 0 0 0 0 0 0 1

3 0 3 0 12 3 0 0 0 2
3 0 9 6 0 0 3 0 0 1 R3 4R3 R4

3 0 0 3 0 0 0 3 0 5 R2 4R2 + R4

12 0 0 0 0 0 0 0 3 1 R 4R R
1
1
4
0 3 0 0 0 0 0 0 0 1

0 0 12 0 48 12 0 0 3 9
0 0 36 24 0 0 12 0 3 3

0 0 0 12 0 0 0 12 3 21 R2 R2 2R3

12 0 0 0 0 0 0 0 3
1
0 3 0 0 0 0 0 0 0
1
62

0
0
0
12
0
0
0
0
12
0

0
0

1
0

0 3 9
0 12 0 48 12 0
0 36 0 0 0 12 24 9
39

0 0 12 0 0 0 12 3 21
R1 3R1 R2
0 0 0 0 0 0
0
3
1
3 0 0 0 0 0
0
0
1
R1 1 R1
144
0 0 0 144 36 12 24 18 66
1
R2 36
R2
0 36 0
0
0 12 24 9
39

0 0 12 0
0
0
12 3 21 R3 12 R3
0 0 0
0
0
0
0
3
1 R4 1 R4
12
3 0 0
0
0
0
0
0
1
R5 31 R1

0 0 0 1 14 12 16 18 11
24
13
0 1 0 0 0 13 23 14
12
1
0 0 1 0 0 0
1 4 74

1
1

0 0 0 0 0 0
0
4
12
1
1 0 0 0 0 0
0
0
3

da cui, scambiando opportunamente le righe fra loro, otteniamo

1
1
1 0 0 0 0 0 0
0
4
12
1
0 1 0 0 0 0 0

0
0
3

1
2
1
13
1
0 0 1 0 0 0
. Pertanto A =
3 4
3
12

0 0 0 1 0 0 0

1 41 74
1
1
1
1
11
0 0 0 0 1 4 2 6 8 24

0
0
0
0
1
4

0
0
1
3

0
12

1
1
0
4
12
1
0
0
3
2
1
13
3 4
12
1 14 74
1
81 11
6
24

Esempio 14.3 Determinare leventuale inversa della matrice:

1 2 1
A = 1 1 3 .
1 5 5
SVOLGIMENTO. Applichiamo il precedente metodo.

1 2 1 1 0 0
R2 R2 + R1
(A | I3 ) = 1 1 3 0 1 0
R3 R3 R1
1 5 5 0 0 1

1 2 1 1 0 0
1
0 3 4 1 1 0 R3 R3 R2 0
0 3 4 1 0 1
0

2 1 1
0 0
1 0 .
3 4 1
0 0 2 1 1

evidente che A non pu`o mai essere trasformata nella I3 , pertanto non e invertibile.
E
63

Esempio 14.4 Dire per quali valori del parametro reale k la seguente matrice e invertibile
e, per questi, determinarne linversa:

1
k 1
2
1 .
A= 1
1 4 k
SVOLGIMENTO. Applichiamo il precedente metodo.

1
k 1 1 0 0
R2 R2 R1
2
1 0 1 0
(A | I3 ) = 1

R
3 R3 + R1
1 4 k 0 0 1

1
k
1
1 0 0
0 2k
2
1 1 0 R3 2R3 (k 1)R2
0 k4 k1 1 0 1

1
k
1
1
0
0
0
2k
2
1
1
0 .
0 k2 k 6 0 k + 1 1 k 2
Se k 2 k 6 = 0, cio`e k = 2, 3, la matrice non e invertibile.
Sia, per il momento, k = 2. Allora


1
k
1
1
0
0
1 2 1 1
0
0
2k
2
1
1
0 = 0 0
2 1 1
0 k2 k 6 0 k + 1 1 k 2
0 4 0
3 1

2
0
2
5
1
2
R1 2R1 + R3
0 4 2 2 0 2 R3 R3 R2
R2 R2 + R3
0 4 0 3 1 2

0
0
2

2 0 2 5 1 2
2
0
0
4
0
2
R1 R1 R3
0 4 2 2 0 2
0 4 0 3 1 2
R
2 R2 + R3
0 0 2 1 1 0
0 0 2 1 1 0

R1 12 R1
1 0 0 2 0 1
R2 41 R2 0 1 0 43 14 12 .
0 0 1 21 12 0
R3 21 R1
Allora, per k = 2, la matrice A e invertibile e la sua inversa e

2 0 1
3 1 1 .
4
4
2
21 12 0
64

Consideriamo adesso k 6= 2, 2, 3.

1
k
1
1
0
0
0
2k
2
1
1
0 R3 (k 2)R3 + (k 2 k 6)R2
0 k2 k 6 0 k + 1 1 k 2

1
0
0
1
k
1
0 2k
R1 (k 2)R1 + kR2
2
1
1
0
2
0
0
2(k k 6) 4 2(k 4) 2(k 2)

k2
0
k+2
2
k
0
0

2k
2
1
1
0
2
0
0
2(k k 6) 4 2(k 4) 2(k 2)
R1 2(k 2 k 6)R1 (k + 2)R3

R2 (k 2 + k + 6)R2 + R3

0 0 4k 2 + 16 2k 3 4k 2 8k + 16 2k 2 + 8
0 0 k2 k 2
k 2 + 3k 2
2k 4
0 0
4
2k 8
2k 4
(essendo = 2k 3 6k 2 8k + 24, = k 3 3k 2 4k + 12 e = 2k 2 2k 12)
1
R
2(k2)(k2 k6) 1
1
R2 (k2)(k2 k6) R2
1
R3
R3 2(k2 k6)

R1

1 0 0

0 1 0
0 0 1

2(k+2)
k2 k6
k+1
k2 k6
2
k2 k6

k2 4
k2 k6
1k
k2 k6
k4
k2 k6

k2k+2
k6
2
k2 k6
k2
k2 k6

Allora, per k 6= 2, 2, 3, la matrice A e invertibile e la sua inversa e


2(k+2)

k2 4
k2k+2
k2 k6
k2 k6
k6
1k
2
2k+1
.
k k6
k2 k6
k2 k6
2
k2 k6

15

k4
k2 k6

k2
k2 k6

Determinanti. Teorema di Cramer.


Rouch
e-Capelli

Teorema di

Definizione 15.1 Sia A = (aij ) una matrice n m. Per ogni i {1, 2, . . . , n} e j


{1, 2, . . . , m} dicesi minore complementare dellelemento aij la matrice (n 1) (m 1) che
si ottiene dalla A sopprimendo in essa la riga i-esima e la colonna j-esima.

65

Esempio 15.1 Sia

1 10 20 4 3
8
0 5 9 11 2
4
8 7 12 4
8
2
5 9 19 21 3 5
56 1 45 34
0 7

A=

Il minore complementare di a34 e

1 10 20 3
8
0 5 9 2
4

5 9 19 3 5 .
56 1 45 0 7

Vogliamo ora definire per ricorrenza una funzione di M (n; K) in K che ad ogni matrice
quadrata A di ordine n associa un elemento det A K, detto il determinante di A.
Passo 1. Sia A = (a11 ) una matrice quadrata di ordine n = 1. In tal caso poniamo
det A = det (a11 ) = a11 .
Passo 2. Sia

A=

a11 a12
a21 a22

In tal caso poniamo

det A = det
Passo 3. Sia

a11 a12
a21 a22

= a11 a12 a12 a21 .

a11 a12 a13


A = a21 a22 a23 .
a31 a32 a33

In tal caso poniamo

a11 a12 a13


det A = det a21 a22 a23 = a11 a22 a33 +a12 a23 a31 +a13 a21 a32 a13 a22 a31 a12 a21 a33
a31 a32 a33
a11 a23 a32 .
Passo 4. Supponiamo che sia stato definito det A per una matrice quadrata A di ordine
n 1. Definiamo det A per una matrice quadrata A di ordine n. Innanzitutto diamo la
seguente definizione.

66

Definizione 15.2 Sia A = (aij ) una matrice quadrata di ordine n. Per ogni i {1, 2, . . . , n}
e j {1, 2, . . . , m} dicesi complemento algebrico dellelemento aij , e si indica con Aij , il
numero (1)i+j moltiplicato per il determinante del minore complementare dellelemento aij
(si noti che questo minore e una matrice quadrata di ordine n 1 di cui si suppone ne sia
stato definito il determinante).
Per esempio, posto

2 3 1
A = 1 4 0 ,
1 3 5

il complemento algebrico dellelemento a23 e

2 3
2+3
(1) det
= (6 3) = 3.
1 3
Vale, in generale, il seguente teorema di cui omettiamo la dimostrazione.
Teorema 15.1 (Teorema di Laplace) Fissata una linea qualsiasi (riga o colonna) di una
matrice quadrata A di ordine n 2, la somma dei prodotti degli elementi della linea per i
rispettivi complementi algebrici e un valore che e indipendente dalla linea scelta.
In altre parole il teorema precedente afferma che comunque si scelgano due linee differenti
(non necessariamente parallele), la somma dei prodotti degli elementi di una linea per i
rispettivi complementi algebrici e uguale per entrambe le lineee scelte.
Definizione 15.3 (Definizione ricorsiva di determinante) Data una matrice quadrata
A di ordine n 2, si dice determinante di A (e si scrive det A oppure |A|) la somma dei
prodotti di una linea qualsiasi di A per i rispettivi complementi algebrici.
Come esempio facciamo vedere che, quando A ha ordine 2 oppure 3, le definizioni di
det A date ai Pass1 2 e 3 coincidono con quella ricorsiva del Passo 4.
Sia n = 2 e sia

a11 a12
A=
.
a21 a22
Fissata come linea la prima riga abbiamo

a11 a12
= a11 A11 +a12 A12 = a11 (1)1+1 det (a22 )+a12 (1)1+2 det (a21 ) =
det A = det
a21 a22
a11 a12 a12 a21 .
Sia n = 3 e sia

a11 a12 a13


A = a21 a22 a23 .
a31 a32 a33

67

Fissata come linea la prima riga abbiamo

a11 a12 a13


a
a
22
23
1+1
det A = det a21 a22 a23 = a11 A11 +a12 A12 +a13 A13 = a11 (1) det
+
a32 a33
a31 a32 a33

a21 a23
a21 a22
1+2
1+3
a12 (1) det
+ a13 (1) det
= a11 (a22 a33 a32 a23 )
a31 a33
a31 a32
a12 (a21 a33 a23 a31 ) + a13 (a21 a32 a31 a22 ) = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 a13 a22 a31
a12 a21 a33 a11 a23 a32 .
Esempio 15.2 Calcolare il det A, essendo

1
0
A=
3
1

2 1 1
0 2 1
.
1 1 0
1 0 0

SVOLGIMENTO. Fissando la terza riga abbiamo

2 1 1
1 1 1
det A = 3(1)3+1 det 0 2 1 + 1(1)3+2 det 0 2 1 +
1 0 0
1 0 0

1 2 1
1 2 1
1(1)3+3 det 0 0 1 + 0(1)3+4 det 0 0 2 = 3(3) (3) + 1 = 13.
1 1 0
1 1 0
Propriet`
a dei determinanti. Sia A una matrice quadrata di ordine n 2. Allora
1. Se in A esiste una linea con gli elementi tutti nulli, det A = 0.
2. Se si scambiano fra loro di posto due lineee parallele si ottiene una nuova matrice A0
per la quale si ha det A0 = det A.
3. Se in A vi sono due lineee parallele uguali, allora det A = 0.
4. Se si moltiplicano tutti gli elementi di una linea di A per K, si ottiene una nuova
matrice A0 per la quale si ha det A0 = det A.
5. Se in A vi sono due linee parallele proporzionali, allora det A = 0.

68

6. Se gli elementi di una linea di A sono binomi, allora det A = det B + det C, essendo B
e C rispettivamente le matrici ottenute da A sostituendo ad ogni binomio il suo primo
addendo ed il suo secondo addendo.
Per esempio se

b11 + c11 b12 + c12 b13 + c13

a21
a22
a23
A=
a31
a32
a33

si ha

c11 c12 c13


b11 b12 b13
det A = det a21 a22 a23 + det a21 a22 a23 .
a31 a32 a33
a31 a32 a33

7. Se agli elementi di una linea di A si aggiungono gli elementi corrispondenti di altre


linee parallele, moltiplicate per costanti qualsiasi, il valore del det A non cambia.
8. Se in A tutti gli elementi al di sopra (o al di sotto) della diagonale principale sono tutti
nulli, allora il det A e uguale al prodotto degli elementi della diagonale principale.
Per esempio se

a11 0
0
A = a21 a22 0
a31 a32 a33

a11 a12 a13


oppure A = 0 a22 a23
0
0 a33

si ha det A = a11 a22 a33 .


9. La somma dei prodotti degli elementi di una linea di A per i complementi algebrici
degli elementi corrispondenti di unaltra linea ad essa parallela, e 0.
10. Il determinante di A coincide col determinante della sua trasposta, cio`e det A =
det AT .
Le precedenti propriet`a (in particolare la 7) si rivelano utili quando si debba effettuare il
calcolo del determinante di una matrice quadrata A di ordine n 4. Data la matrice A, per
la definizione ricorsiva di determinante, bisogna prima scegliere una linea e moltiplicare poi i
allora evidente che conviene scegliere
suoi elementi per i rispettivi complementi algebrici. E
una linea nella quale figuri il maggior numero possibile di zeri. Se in nessuna linea ce un
sufficiente numero di zeri, mediante la propriet`a 7, e possibile costruire una nuova matrice
A0 , avente il determinante uguale a quello di A, la quale possieda in una sua linea il massimo
numero possibile di zeri. Illustriamo quanto detto con un esempio. Sia

1 2 1 3
4 1
2 1

A=
3 1 2 1 .
1 1 0
3
69

Applichiamo la propriet`a 7 (ovviamente Ci denota

1 2 1 3
4 1

2 1

3 1 2 1 R2 R2 R3
1 1 0
3

1 0 1 3
1 0
0
0

C2 C2 2C1
3 7 2 1 .
1 3 0
3
Le matrici ottenute hanno

1 0
1 0
det A = det
3 7
1 3

la colonna i-esima):

1 2 1 3
1 2
0
0

3 1 2 1
1 1 0
3

tutte lo stesso determinante. Pertanto

1 3
0 1 3

0
0
= 1(1)2+1 det 7 2 1 = 6.
2 1
3 0
3
0
3

Del seguente teorema omettiamo la dimostrazione.


Teorema 15.2 Teorema di Binet. Siano A e B due matrici quadrate di ordine n. Il
determinante della matrice prodotto A B e uguale al prodotto dei determinanti di A e di B.
Cio`e
det A B = det A det B.
Teorema 15.3 Sia A una matrice quadrata di ordine n e sia A0 una matrice ridotta per
righe della A mediante le regole di riduzione (17) e (18). Allora det A 6= 0 se e solo se
det A0 6= 0. In generale per`
o non e detto che A ed A0 hanno gli stessi determinanti.
Dimostrazione.
Per le propriet`a dei determinanti abbiamo che se ad A si applica la
regola di riduzione Ri Ri + Rj (con 6= 0 e i 6= j) si ottiene una matrice B tale che
det B = det A. Analogamente, se ad A si applica la regola Ri Rj si ottiene una matrice
B tale che det B = det A.
Adesso ci poniamo la seguente domanda: Sia A una matrice quadrata di ordine n. Esistono matrici A0 ridotte per righe della A tali che det A0 = det A? La risposta a questo
quesito e positiva e segue dalla propriet`a 7 dei determinanti che possiamo enunciare come
Regola di riduzione in senso stretto:
Ri Ri + Rj , K, i 6= j.

(29)

Diremo che la matrice A0 e la matrice ridotta in senso stretto della A se A0 pu`o essere
ottenuta dalla A mediante la regola (29).
70

Teorema 15.4 Sia A una matrice quadrata di ordine n e sia A la matrice ridotta in senso
stretto della A. Allora det A = det A.
Dimostrazione. Si veda la propriet`a 7 dei determinanti.
Definizione 15.4 Sia A una matrice m n e sia h min{m, n}. Scelte in A h righe e h
colonne qualsiasi, gli h2 elementi in cui esse si intersecano formano una matrice quadrata
che prende il nome di minore di ordine h della matrice A.
Definizione 15.5 Si dice rango o caratteristica di una matrice A di tipo m n, lordine
massimo dei minori di A aventi determinante diverso da zero. Il rango di A si indica con
r(A).
Dalla propriet`a 10 dei determinanti si ottiene facilmente il seguente risultato.
Teorema 15.5 Il rango di una matrice A coincide con quello della sua trasposta AT .
Sia A una matrice ridotta. Fissati in A gli elementi speciali, sia M il minore ottenuto
prendendo in A gli elementi in cui si intersecano le righe e le colonne passanti per gli elementi
speciali. Allora, per le propriet`a 2 e 8 dei determinanti, det M 6= 0. Per esempio si consideri
la matrice ridotta

3 1 1 2
1 2
0
0
0 0 0 0

5
14 5 5 7
A= 0
.
0 8 14 6 1 0
0
0
0 0 0 0
Si ha

1 3 2
14 7 .
M = 0
0 14 0

Scambiando fra loro in M le colonna 2 e 3, abbiamo

1 2 3
M 0 = 0 7 14
0 0 14
che e una matrice triangolare. Pertanto det M = det M 0 = (1) 7 (4) 6= 0.
Teorema 15.6 Il rango di una matrice A coincide col numero degli elementi speciali di una
qualsiasi matrice ridotta dalla A mediante il metodo di riduzione per righe.

71

Dimostrazione. Sia M un minore di ordine h, h min{m, n}, della matrice A di tipo


m n. Il metodo di riduzione per righe trasforma A in una matrice A0 . Sia M 0 il minore
ottenuto scegliendo nella A0 le righe e le colonne corrispondenti (nella A) a quelle di M . Per
le propriet`a 2, 4, 6 e 7 dei determinanti si ottiene che det M 0 = 0 se e solo se det M = 0.
Sia ora B la matrice ridotta dalla A mediante il metodo di riduzione per righe e supponiamo che B ha h elementi speciali. Indichiamo infine con C il minore ottenuto scegliendo in
B le h righe e le h colonne occupate dagli elementi speciali. Allora C e un minore di ordine
massimo, infatti B ha esattamente h righe non tutte nulle. Inoltre, come osservato prima,
per le propriet`a 2 e 8 dei determinanti, si ha det C 6= 0.
Esempio 15.3 Determinare il rango della matrice

1 2 3 1
2 4 6 2

A=
3 1 5 2
1 1 1 2
4 2 6 4

1
2
2
1
3

2
4
1
1
2

SVOLGIMENTO. Per il Teorema 15.6, il rango di A coincide col numero degli elementi
speciali di una sua matrice ridotta per righe.

1 2 3 1 1 2
1 2 3 1 1 2
R2 R2 2R1
0 0 0 0 0 0
2 4 6 2 2 4

R3 R3 + 3R1
0 5 14 5 5 7
3 1 5 2 2 1

0 1 4 3 2 3
1 1 1 2 1 1 R4 R4 + R1
R5 R5 + 4R1
0 6 18 8 7 10
4 2 6 4 3 2

1 2
3 1 1 2
0
0
0 0 0 0

R4 7R4 3R3
R6 R6 R3
0
5
14
5
5
7

R5 7R5 10R3
0 8 14 6 1 0
0 8 14 6 1 0

3 1 1 2
1 2
0
0
0 0 0 0

0
. Pertanto il rango di A e 3.
5
14
5
5
7

0 8 14 6 1 0
0
0
0 0 0 0
Si osservi il numero degli elementi speciali di una matrice ridotta A0 coincide col numero
delle sue righe non nulle. Pertanto abbiamo il seguente
Metodo per determinare il rango di una matrice: Il rango di una matrice A e dato
dal numero di righe non nulle di una sua qualsiasi matrice ridotta per righe.
72

Definizione 15.6 Matrice ridotta per colonne. Una matrice A = (aij ), i = 1, 2, . . . , m


j = 1, 2, . . . , n, si dice ridotta per colonne se, per ogni j, e verificata una delle due seguenti
condizioni:
aij = 0 per ogni i = 1, 2, . . . , n, oppure
esiste almeno un t {1, 2, . . . , m} tale che atj 6= 0 e, se j < n, at = 0 per ogni
j + 1 n.
Esempio 15.4 La matrice

A=

1
1
2
0
2
0

7
0
3
1
1
0

0
0
0
0
0
0

0
0
1
0
0
1

0
0
0
2
0
4

e ridotta per colonne.


Definizione 15.7 Elemento speciale di una matrice ridotta per colonne. Sia A =
(aij ), i = 1, 2, . . . , m j = 1, 2, . . . , n, una matrice ridotta per colonne. Per la Definizione 11.4,
ogni colonna Cj = (a1j , a2j , . . . , amj ) 6= (0, 0, . . . , 0) contiene almeno un elemento atj =
6 0 tale
che, se j < n, at = 0 per ogni j + 1 n. Per ogni colonna non nulla Cj si fissi, a
piacere, uno solo di questi elementi. Esso si chiama lelemento speciale relativo a Cj .
La dimostrazione del seguente teorema e immediata.
Teorema 15.7 Ridurre per colonne la matrice A equivale a ridurre per righe la sua trasposta
AT . Inoltre, se A0 e una matrice ridotta per colonne di A, esiste una matrice ridotta per
righe di AT che coincide con (A0 )T .
Esempio 15.5 Sia

1
2
A=
3
4

1 1
2 1
.
1 2
1 1

Determinare una matrice A0 ridotta per colonne della A. Cercare una matrice ridotta per
righe della AT che coincida con (A0 )T .

1 0 0
1 1 1
2 4 1
2 2 1
C2 C2 + C1

A=
3 4 1 C3 4C3 + C2
3 1 2 C3 C3 + C1
4 5 3
4 1 1

73

2
A0 =
3
4

0 0
4 0
dove gli elementi sottolineati sono stati scelti come speciali. Adesso
4 0
5 7

riduciamo per righe la trasposta di A:

1 2 3 4
1
2
3
4
R2 R2 + R1
AT = 1 2 1 1
0 4 4 5
R

R
+
R
3
3
1
1 1 2 1
0 1 1 3

1 2 3 4
0 4 4 5 .
0 0 0 7
Sia dato il sistema

R3 4R3 + R2

a11 x1 + a12 x2 + . . . + a1n xn = b1

a21 x1 + a22 x2 + . . . + a2n xn = b2


.
..........................................

am1 x1 + am2 x2 + . . . + amn xn = bm

Diremo che lequazione


aj1 x1 + aj2 x2 + . . . + ajn xn = bj
e combinazione lineare delle rimanenti se esistono m 1 scalari i K, i = 1, . . . , m, i 6= j,
per cui le due seguenti uguaglianze siano verificate per ogni (x1 , x2 , . . . , xn ) Kn :
aj1 x1 + aj2 x2 + . . . + ajn xn =

m
X

i (ai1 x1 + ai2 x2 + . . . + ain xn ) ,

(30)

i=1

i6=j

e
bj =

m
X

i bi .

(31)

i=1

i6=j

Consideriamo adesso il sistema lineare di n equazioni in n variabili

a11 x1 + a12 x2 + . . . + a1n xn = b1

a21 x1 + a22 x2 + . . . + a2n xn = b2


.
..........................................

an1 x1 + an2 x2 + . . . + ann xn = bn

(32)

Supponiamo che (32) abbia infinite soluzioni. Come visto nel Paragrafo 11, applicando
ripetutamente il Teorema 11.3 e possibile ridurre (32) ad un sistema in cui almeno una fra
le sue equazioni (supponiamo la j-esima) coincida con lidentit`a 0 = 0. Questo equivale a
dire che lequazione j-esima di (32) e combinazione lineare delle rimanenti.
74

Teorema 15.8 Sia A M(n; K). Supponiamo che esista una matrice B M(n; K) tale
che A B = In . Allora esiste una matrice C M(n; K) tale che C A = In .
Dimostrazione. Siano

a11 a12
a21 a22
A=

an1 an2

a1n
b11 ab2

a2n
b21 b22
, e B=

ann
bn1 bn2

b1n
b2n
.

bnn

Consideriamo gli n sistemi

a11 x1 + a12 x2 + . . . + a1n xn = 1

a21 x1 + a22 x2 + . . . + a2n xn = 0


(1)
,
..........................................

an1 x1 + an2 x2 + . . . + ann xn = 0

a11 x1 + a12 x2 + . . . + a1n xn = 0

a21 x1 + a22 x2 + . . . + a2n xn = 1


,
(2)
..........................................

an1 x1 + an2 x2 + . . . + ann xn = 0


...............................................................

a11 x1 + a12 x2 + . . . + a1n xn = 0

a21 x1 + a22 x2 + . . . + a2n xn = 0


(n)
..........................................

an1 x1 + an2 x2 + . . . + ann xn = 1


Essendo A B = In , per j = 1, . . . , n, (b1j , b2j . . . , bnj ) e una soluzione del sistema (j).
Proviamo adesso che, per ogni j, questa soluzione e unica. Supponiamo per esempio che
(1) abbia pi`
u di una soluzione, quindi infinite. Come osservato precedentemente, almeno
una delle sue equazioni e combinazione lineare delle rimanenti. Per la (31), essa non pu`o
coincidere con la prima. Supponiamo sia la j-esima per qualche 2 j n. Allora, per le
(30) e (31),
aj1 x1 + aj2 x2 + . . . + ajn xn =

n
X

i (ai1 x1 + ai2 x2 + . . . + ain xn )

i=2

i6=j

per ogni (x1 , x2 , . . . , xn ) Kn . Ricordando che (b1j , b2j , . . . , bnj ) e una soluzione del sistema
(j), abbiamo
P
P
1 = a1j b1j +a2j b2j +. . .+anj bnj = ni=2 i (ai1 b1j + ai2 b2j + . . . + ain bnj ) = ni=2 i 0 = 0. Imi6=j

i6=j

possibile, quindi per j = 1, 2, . . . , n il sistem (j) ammette lunica soluzione (b1j , b2j , . . . , bnj ).
Allora, come esplicitamente osservato nel Paragrafo 11, il numero degli elementi speciali della
75

matrice ridotta della A e uguale ad n (in altre parole il rango di A e n). Per i Teoremi 15.5
e 15.6, anche AT ha rango n. Ne segue che esiste una ed una sola matrice Y M(n; K)
tale che AT Y = In (si osservi che li-esima colonna di Y e lunica soluzione del sistema

T
AT Xi = Fi ). Quindi AT Y
= InT = In , da cui Y T A = In . Pertanto la matrice cercata
T
e C = Y .
Il seguente risultato fornisce una formula per calcolare la matrice inversa quando essa
esiste.
Teorema 15.9 Una matrice A di ordine n e invertibile se e solo se det A 6= 0. Posto inoltre
A = (aij ) e A1 = (bij ), si ha
Aji
bij =
det A
essendo Aji il complemento algebrico dellelemento aji di A (si veda la Definizione 15.2).
Esempio 15.6 Sia data la matrice

1 2 4
A = 3 1 2 .
1 1 1
Dire se A e invertibile e, in caso affermativo, determinare linversa A1 .
SVOLGIMENTO. Si ha det A = 11 6= 0. Pertanto A e invertibile. Abbiamo quindi A1 =
(Bij ) essendo:

1
2
2
4
(1)1+1 det
(1)2+1 det
1 1
1 1
3
2
b11 =
= , b12 =
= ,
11
11
11
11

3 2
2 4
(1)1+2 det
(1)3+1 det
1 2
1 1
8
1
b13 =
= , b21 =
= ,
11
11
11
11

1 4
1 4
(1)2+2 det
(1)3+2 det
1 1
3 2
3
10
b22 =
= , b23 =
= ,
11
11
11
11

3 1
1 2
(1)1+3 det
(1)2+3 det
1 1
1 1
4
1
b31 =
= , b32 =
= ,
11
11
11
11

1 2
(1)3+3 det
3 1
7
= .
b33 =
11
11
76

Pertanto

A1

3
2
11
11
1
3
11
= 11
4
11

1
11

8
11
10
11
7
11

Si consideri il seguente sistema lineare di n equazioni in n incognite (un sistema lineare


il cui numero di equazioni coincide col numero delle incognite si dice quadrato):

a11 x1 + a12 x2 + . . . + a1n xn = b1

a21 x1 + a22 x2 + . . . + a2n xn = b2


.
(33)
..........................................

an1 x1 + an2 x2 + . . . + ann xn = bn


Si ricordi che

a11 a22
a21 a22
A=

an1 an2

a1n
a2n


ann

e detta la matrice incompleta del sistema (33). Per la risoluzione dei sistemi lineari, oltre al
metodo di riduzione illustrato nei paragrafi precedenti, si possono applicare i seguenti due
importanti teoremi di cui omettiamo la dimostrazione.
Teorema 15.10 (Teorema di Cramer). Se det A 6= 0, allora il sistema (33) ha ununica
soluzione data da

det A1 det A2
det An
,
,...,
det A det A
det A
essendo Ai , i = 1, 2, . . . , n, la matrice che si ottiene sostituendo nella matrice incompleta A
del sistema la colonna i-esima con la colonna

b1
b2


bn
dei coefficienti. Per esempio

b1 a22
b2 a22
A1 =

bn an2

77

a1n
a2n
.

ann

Teorema 15.11 (Teorema di Rouch


e-Capelli). Il sistema lineare completo di m equazioni in n incognite

a11 x1 + a12 x2 + . . . + a1n xn = b1

a21 x1 + a22 x2 + . . . + a2n xn = b2


(34)
..........................................

am1 x1 + am2 x2 + . . . + amn xn = bm


ammette soluzioni se e solo se la sua matrice incompleta

a11 a22 a1n


a21 a22 a2n
A=

am1 am2 amn

e la sua matrice completa

a11 a22
a21 a22
B=

am1 am2

a1n b1
a2n b2



amn bm

hanno lo stesso rango. In tal caso, posto r(A) = r(B) = h min{n, m} e indicato con
H un minore di A di ordine h avente determinante diverso da zero, (34) e equivalente
ad un sistema di h equazioni in h incognite avente come equazioni quelle i cui coefficienti
concorrono a formare le righe di H (le altre equazioni si scartano) e come incognite quelle i
cui coefficienti concorrono a formare le colonne di H (le altre incognite si portano a termine
noto). Il sistema cos` ottenuto si pu`o risolvere mediante il Teorema di Cramer.
Esempio 15.7 Studiare, applicando il Teorema di Rouche-Capelli, il sistema lineare:

x 2y + 3z + t = 1
7x 2y + 7z + 2t = 5 .

2x y + z + 3t = 2

SVOLGIMENTO. Come visto nellEsempio 11.10 la matrice incompleta e la matrice completa hanno lo stesso numero di elementi speciali, cio`e hanno lo stesso rango pertanto il sistema
ammette soluzioni. Il massimo ordine di un minore della matrice incompleta A del sistema
assegnato e 3. Infatti il minore formato dalle prime tre colonne di A ha determinante 18.
Quindi, per il Teorema di Rouche-Capelli, il sistema assegnato equivale al seguente

x 2y + 3z = 1 t
7x 2y + 7z = 5 2t

2x y + z = 2 3t

78

che, per il Teorema di Cramer, ha soluzione

1 1t 3
1 2 1 t
1 t 2 3
det 5 2t 2 7 det 5 5 2t 7 det 7 2 5 2t

2 3t 1 1
2 2 3t 1
2 1 2 3t

.
,
,

18
18
18

16

Vettori applicati del piano

Definizione 16.1 Sia O un punto fissato del piano. Si chiama vettore applicato in O un
segmento orientato OP , dove P e un punto del piano diverso da O.

Un vettore applicato e individuato da tre elementi:


la direzione, cio`e la retta passante per i punti O e P ;
il verso, che e quello che va da O a P (indicato dalla freccia);
il modulo, cio`e il numero reale non negativo che misura la lunghezza del segmento (non
orientato) OP .
Il vettore che ha modulo uguale a zero e direzione e verso indeterminati dicesi vettore
~
nullo e si indica con O.
Definizione 16.2 Due vettori applicati in O sono uguali se e solo se o entrambi hanno
modulo zero, oppure hanno la stessa direzione, lo stesso verso e lo stesso modulo.

Un vettore si indica con OP oppure, pi`


u semplicemente, con ~v . Il modulo di un vettore

si indica con | OP |, oppure | ~v |.



Definizione 16.3 Somma di vettori. Siano OP e OQ due vettori applicati in O. Vogliamo definire il vettore

OR = OP + OQ

detto somma di OP e OQ. Procediamo nel seguente modo:
~
~ ~
Se OP = O,
porremo OR = O
+ OQ = OQ + O = OQ.
~
~ ~
Analogamente, se OQ = O, porremo OR = O
+ OP = OP + O = OP .
79


Se OP e OQ sono entrambi diversi dal vettore nullo ed hanno direzioni pure diverse,
costruiamo il seguente parallelogramma OP RQ


Il vettore OR definisce la somma OP + OQ.

Siano ora OP e OQ due vettori entrambi diversi dal vettore nullo ed aventi la stessa
direzione (cio`e giacenti sulla stessa retta).

1. Se OP e OQ hanno lo stesso verso, si definisce OP + OQ il vettore OR che ha

la stessa direzione e verso dei due vettori dati e modulo uguale a | OP | + | OQ |.




2. Se OP e OQ hanno verso opposto e moduli diversi, si definisce OP + OQ come

quel vettore OR che ha la stessa direzione dei vettori dati, lo stesso verso del
vettore che ha modulo maggiore, e modulo uguale alla differenza dei moduli (il
maggiore meno il minore).


3. Se OP e OQ hanno verso opposto e lo stesso modulo, si definisce OP + OQ il
~
vettore nullo O.
~ il vettore avente la stessa direzione e lo
Definizione 16.4 Dicesi opposto del vettore ~v 6= O
~ = O.
~
stesso modulo di ~v , ma verso opposto. Lopposto di ~v si indica con ~v . Porremo O
Definizione 16.5 Dati due vettori ~v e w
~ si chiama differenza di ~v e w
~ (e si indica con
~v w)
~ il vettore ~v + (w)
~
Si pu`o verificare che linsieme dei vettori applicati in un punto, con loperazione di somma,
risulta essere un gruppo abeliano.
Definizione 16.6 Prodotto di un numero per un vettore.
Siano ~v un vettore non nullo e a R, a 6= 0. Dicesi prodotto di a per ~v il vettore (che
si indica con a~v ) cos` definito:
1. il modulo di a~v e uguale a |a||~v |;
2. la direzione di a~v e quella di ~v ;
80

3. il verso di a~v e quello di ~v se a > 0, oppure e il verso opposto a quello di ~v se


a < 0.
~ = O.
~
Per convenzione si pone 0~v = a O
Proposizione 16.1 Il prodotto di un numero, detto scalare, per un vettore gode delle seguenti propriet`
a:
Distributiva rispetto agli scalari: ( + )~v = ~v + ~v .
Distributiva rispetto ai vettori: (~v + w)
~ = ~v + w.
~
Associativa: (~v ) = ()~v .
Esistenza dellelemento neutro: 1~v = ~v .
Si pu`o provare che
~v = (1)~v .
Nel piano fissiamo un sistema di coordinate cartesiane O~x~y e consideriamo i vettori di
applicati in O.

Definizione 16.7 Componenti di un vettore applicato. Sia ~v = OP . Le coordinate


(a, b) del punto P si chiamano le componenti di ~v (rispetto al sistema di coordinate fissato
O~x~y ).
Valgono le seguenti propriet`a:
1. Due vettori sono uguali se hanno le componenti ordinatamente uguali.

vx
2. Le componenti di ~v si indicano con vx e vy e scriveremo ~v =
.
vy

p
vx
3. Se ~v =
allora si ha | ~v | = vx2 + vy2 .
vy
Definizione 16.8 Versore. Dicesi versore un vettore di modulo 1.
Quindi ~v e un versore se e solo se vx2 + vy2 . Si ha inoltre che per ogni vettore non nullo ~v
esiste uno ed un solo versore avente la stessa direzione e lostesso verso di ~v , esso e dato da
1
~v , si chiama versore associato a ~v e si indica con vers ~v .
| ~v |


1
0
~
~
I vettori i =
ej=
sono due versori, detti i versori fondamentali del sistema
0
1
di coordinate O~x~y .

81

Teorema 16.1 Scomposizione. Per ogni vettore ~v si ha


~v = vx~i + vy~j.
Cio`e ogni vettore si pu`o scomporre in modo unico nella somma di un vettore avente la
direzione dellasse ~x e di un vettore avente la direzione dellasse ~y ; e questi due vettori si
ottengono moltiplicando i versori fondamentali per le componenti di ~v .
Proposizione 16.2 Siano ~v = vx~i + vy~j e w
~ = wx~i + wy~j e sia a R. Allora:
1. a~v = (avx )~i + (avy )~j;
2. ~v + w
~ = (vx + wx )~i + (vy + wy )~j.

Definizione 16.9 Vettori paralleli. Siano ~v = OP e w


~ = OQ due vettori non nulli. Essi
si dicono paralleli (e si scrive ~v //w)
~ se hanno la stessa direzione (cio`e se i punti O, P e Q
giacciono sulla stessa retta).
~ e parallelo ad ogni vettore ~v .
Per convenzione O
Proposizione 16.3 Siano ~v e w
~ due vettori non nulli. Allora:
1. ~v //w
~ se e solo se esiste t R, t 6= 0, tale che w
~ = t~v . Si ha inoltre che t =
w
~ hanno lo stesso verso, oppure t =

|| w~v~ ||

|w
~|
| ~v |

se ~v e

se ~v e w
~ hanno verso opposto.

2. ~v //w
~ se e solo se vx wy vy wx = 0.
Esempio 16.1 Siano ~v = 3~i + 4~j e w
~ = 6~i + h~j. Trovare, se esistono, i valori di h R per
cui ~v //w.
~
SVOLGIMENTO. Per la (2) della Proposizione 16.3 deve essere vx wy vy wx = 3h 24 = 0.
Quindi h = 8.
Pi`
u in generale e possibile provare il seguente risultato.
Teorema 16.2 Siano ~u e ~v due vettori non nulli e non paralleli del piano. Allora, comunque
si fissi un vettore w
~ nel piano esiste una ed una sola coppia ordinata (a, b) R2 tale che
w
~ = a~u + b~v .
Vogliamo ora stabilire una condizione necessaria e sufficiente affinch`e due vettori non
nulli del piano siano ortogonali. A tale scopo richiamiamo alcuni importanti risultati della
geometria euclidea.
Teorema 16.3 Teorema di Pitagora. In un triangolo rettangolo, il quadrato costruito
sullipotenusa e equivalente alla somma dei quadrati costruiti sui cateti.
82

Dimostrazione.
LGH in figura.

(Dimostrazione obbligatoria) Si consideri il triangolo rettangolo

Vogliamo provare che LG = LH + HG . Costruiamo due quadrati ACF H e LP RT come


nella figura seguente.

Entrambi questi quadrati hanno lato uguale a LH + HG. Si osservi inoltre che i triangoli
LHG, GEF , BCE, ABL (contenuti nel primo quadrato) sono equivalenti fra loro, e i
triangoli LHG, LN G, GQR, GRS (contenuti nel secondo quadrato) sono pure equivalenti
2
fra loro. Pertanto LG = As(LBEG) = As(ACF H) As(LHG) As(GEF ) As(BCE)
As(ABL) = As(LP RT ) As(LHG) As(LN G) As(GQR) As(GRS) = As(N P QG) +
2
2
As(HGST ) = LH + HG .
b si ha che
Teorema 16.4 Sia P OQ un triangolo qualsiasi. Posto = P OQ
2

1. P O + QO > P Q se e solo se 0 < < 2 ;


2. P O + QO = P Q se e solo se = 2 ;
3. P O + QO < P Q se e solo se

< < .

Dimostrazione.
(Dimostrazione obbligatoria) Se = 2 , allora per il teorema di
2
2
2
b e retto, per il teorema di
Pitagora, P O + QO = P Q . Sia 0 < < 2 . Se langolo P QO
2
2
2
2
2
b non sia
Pitagora abbiamo P Q = OP OQ < OP + OQ . Supponiamo ora che P QO
retto. Allora si ha uno dei due casi mostrati nella figura seguente
83

In ogni caso il piede H della perpendicolare condotta da P al lato OQ appartiene alla


2
semiretta avente origine in O e contenente il punto Q. Quindi QH = (OQ OH)2 . Da cui
2
2
2
2
2
2
2
2
2
2
P Q = QH +HP = OQ +OH 2OHOQ+HP = OQ +OP 2OH OQ < OQ +OP .
Sia ora 2 < < . Allora abbiamo

e quindi P Q = QH + HP = (OH + OQ)2 + HP = HP + OH + OQ + 2OH OQ =


2
2
2
2
OP + OQ + 2OH OQ > OP + OQ .
2
2
2
Viceversa, supponiamo che vale lequazione OP + OQ = P Q , allora = 2 . Infatti se
2
2
2
0 < < 2 si ha, come abbiamo provato sopra, OP + OQ > P Q . Mentre se 2 < < ,
2
2
2
2
2
2
abbiamo OP + OQ < P Q . Analogamente si prova che se OP + OQ > P Q , allora
2
2
2
0 < < 2 mentre se OP + OQ < P Q , allora 2 < < .

Siano ~v = OP e w
~ = OQ due vettori non nulli e non paralleli. Langolo in O del triangolo
OP Q (non orientato e di misura in radianti compreso fra 0 e ) si chiama langolo formato
dai due vettori non nulli ~v e w
~ e si denota col simbolo ~vc
w.
~

Nel seguito confonderemo ~vc


w
~ con la sua misura in radianti.
Se ~v e w
~ sono non nulli e paralleli poniamo ~vc
w
~ = 0 se ~v e w
~ hanno lo stesso verso, ~vc
w
~ =
se ~v e w
~ hanno verso opposto.
Si osservi che ~vc
w
~ = 2 se e solo se ~v w
~ (~v e w
~ sono ortogonali).
Teorema 16.5 Siano ~v e w
~ due vettori. Allora
84

1. |~v |2 + |w|
~ 2 > |~v w|
~ 2 se e solo se 0 ~vc
w
~ < 2 ;
2. |~v |2 + |w|
~ 2 = |~v w|
~ 2 se e solo se ~vc
w
~ = 2 ;
3. |~v |2 + |w|
~ 2 < |~v w|
~ 2 se e solo se

~vc
w
~ .

Dimostrazione. (Dimostrazione obbligatoria) Se ~vc


w
~ = 0 o ~vc
w
~ = , la tesi segue

~
~
facilmente. Sia ora ~v 6= O e w
~ 6= O. Posto ~v = OP e w
~ = OQ si ha |~v w|
~ = P Q e il
risultato segue dal Teorema 16.4.

0
~ =
Convenendo che il vettore nullo O
pu`o essere considerato sia parallelo che
0
ortogonale ad un qualsiasi altro vettore w,
~ il seguente corollario e conseguenza immediata
del Teorema 16.5 e della definizione di modulo di un vettore.

vx
wx
Corollario 16.1 Siano ~v =
ew
~=
. Allora
vy
wy
1. 0 ~vc
w
~<
2. ~vc
w
~=
3.

se e solo se vx wx + vy wy > 0;

se e solo se vx wx + vy wy = 0;

~vc
w
~ se e solo se vx wx + vy wy < 0.

vx
wx
Definizione 16.10 Prodotto scalare. Siano ~v =
ew
~=
due vettori del
vy
wy
piano. Dicesi prodotto scalare o prodotto interno di ~v e w
~ il numero reale ~v w
~ cos` definito:

wx
~v w
~ = vx vy
= vx wx + vy wy .
wy
Teorema 16.6 Si ha

~v w
~ = |~v ||w|
~ cos ~vc
w.
~

vx
wx
Dimostrazione. Poniamo ~v = OP =
e w
~ = OQ =
. Nel caso in cui
vy
wy
~ e w
~
uno dei due vettori e nullo il teorema segue facilmente. Supponiamo ~v 6= O
~ 6= O.

Dimostriamo il teorema solo nel caso in cui ~v = OP e w


~ = OQ siano come nella figura
seguente lasciando al lettore gli altri casi.

85

b
b
c~
c~ c
b c~
Si ha vx = |~v | cos ~v~i, vy = |~v | sin ~v~i, wx = |w|
~ cos w
~ i, wy = |w|
~ sin w
~ i e ~v w
~ = ~v~i w
~ i. Quindi
b c~
b
c~
b
c~ vx wx +vy wy
cos ~vc
w
~ = cos(~v~i w
~ i) = cos ~v~i cos w
~ i + sin ~v~i sin w
~ i = |~v||w|
, da cui la tesi.
~
Si osservi che questo risultato si pu`o ottenere come conseguenza del teorema di Carnot.
Infatti, considerando il triangolo OP Q, si ha P Q = |~v w|
~ e, per il teorema di Carnot,
|~v w|
~ 2 = |~v |2 + |w|
~ 2 2|~v ||w|
~ cos ~vc
w,
~
cio`e

(vx wx )2 + (vy wy )2 = vx2 + vy2 + wx2 + wy2 2|~v ||w|


~ cos ~vc
w,
~

da cui la tesi.
Si osservi che, nel corso della dimostrazione del precedente teorema, e stata ottenuta la
seguente rilevante uguaglianza per due vettori non nulli ~v e w:
~
cos ~vc
w
~=

~v w
~
vx wx + vy wy
p
=p 2
.
|~v ||w|
~
vx + vy2 wx2 + wy2

(35)

Si osservi che ~v ~v = | ~v |2 , ~i ~i = ~j ~j = 1 e ~i ~j = ~j ~i = 0. Dal Corollario 16.1


segue infine che:
1. ~v w
~ > 0 se e solo se 0 ~vc
w
~ < 2 ;
2. ~v w
~ = 0 se e solo se ~vc
w
~ = 2 ;
3. ~v w
~ < 0 se e solo se

< ~vc
w
~ .

Proposizione 16.4 Il prodotto scalare gode delle seguenti propriet`


a:
1. Associativa: (a~v ) w
~ = a(~v w).
~
2. Commutativa: ~v w
~ =w
~ ~v .
3. Distributiva: ~v (~u + w)
~ = ~v ~u + ~v w.
~
86

17

Vettori applicati dello spazio

Analogamente ai vettori applicati del piano possiamo definire i vettori applicati dello spazio. Omettiamo di ripetere (perch`e del tutto equivalenti) le definizioni di vettore applicato,
vettore nullo, uguaglianza fra vettori, somma di vettori, vettore opposto, prodotto di uno
scalare per un vettore.

Ovviamente se ~v = OP e un vettore e nello spazio fissiamo un sistema di coordinate


cartesiane O~x~y~z, le coordinate (a, b, c) di P si chiamano le componenti di ~v e si indicano con
vx , vy e vz . Il modulo di ~v e quindi
q
| ~v | = vx2 + vy2 + vz2 .
I versori fondamentali sono

1
~i = 0 ,
0

0
~j = 1 ,
0

0
~k = 0 .
1

Teorema 17.1 Scomposizione. Per ogni vettore ~v si ha


~v = vx~i + vy~j + vz~k.
Cio`e ogni vettore si pu`o scomporre in modo unico nella somma di un vettore avente la
direzione dellasse ~x, di un vettore avente la direzione dellasse ~y e di un vettore avente la
direzione dellasse ~z; e questi tre vettori si ottengono moltiplicando i versori fondamentali
per le componenti di ~v .

87

Se ~v = vx~i + vy~j + vz~k, w


~ = wx~i + wy~j + wz~k e a R, si ha
~v + w
~ = (vx + wx )~i + (vy + wy )~i + (vz + wz )~k,
a~v = (avx )~i + (avy )~j + (avz )~k.
Due vettori non nulli ~v e w
~ sono paralleli se e solo se esiste t R, t 6= 0, tale che w
~ = t~v
(cio`e wx = tvx , wy = tvy e wz = tvz ). Si vede facilmente che
~v //w
~ vx wy vy wx = vy wz vz wy = vx wz vz wx = 0.
Le definizione di angolo e di prodotto scalare fra due vettori applicati coincidono con
quelle date nel piano. Ovviamente si ha
~v w
~ = vx wx + vy wy + vz wz ,
cos ~vc
w
~=

~v w
~
vx wx + vy wy + vz wz
p
.
=p 2
| ~v || w
~|
vx + vy2 + vz2 wx2 + wy2 + wz2

In particolare ~v e w
~ sono ortogonali se e solo se vx wx + vy wy + vz wz = 0.
Definizione 17.1 Coseni direttori. Sia ~v un vettore non nullo. Si dicono coseni direttori
di ~v i coseni che ~v forma con gli assi coordinati. Abbiamo quindi
vx
,
vx2 + vy2 + vz2

b
cos ~v~i = p

b
cos ~v~j = p

vx2

c
cos ~v~k = p

vx2

vy
,
+ vy2 + vz2
vz
.
+ vy2 + vz2

Corollario 17.1 La somma dei quadrati dei coseni direttori di un vettore non nullo e uguale
ad 1.
Definizione 17.2 Prodotto vettoriale. Siano ~v e w
~ due vettori. Dicesi prodotto vettoriale di ~v e w
~ il vettore ~v w
~ coincidente col vettore nullo se ~v e w
~ sono paralleli oppure, se
non sono paralleli, con il vettore avente modulo uguale a | ~v || w
~ | sin ~vc
w,
~ direzione ortogonale
al piano individuato da ~v e w
~ e verso come indicato nella seguente figura

88

Si osservi che, se ~v e w
~ sono non nulli, il verso di ~v w
~ e determinato dalla Regola della
mano sinistra: si dispongano le tre dita della mano sinistra pollice, indice e medio in modo
che lindice sia ortogonale al piano formato dal pollice e dal medio. Se il pollice indica il
verso di ~v e il medio quello di w,
~ allora lindice indicher`a il verso di ~v w.
~
Si ha

~i

~j

~k

~i

~
O

~k

~j

~j

~k

~
O

~i

~k

~j

~i

~
O

Proposizione 17.1 Il prodotto vettoriale gode delle seguenti propriet`


a:
~ se e solo se ~v //w.
1. Se ~v e w
~ sono non nulli, allora ~v w
~ =O
~ Abbiamo quindi che ~v e
w
~ sono paralleli se e solo se vx wy vy wx = vy wz vz wy = vx wz vz wx = 0.
89

2. (a~v ) w
~ = a(~v w)
~ e ~v (aw)
~ = a(~v w).
~
3. ~v (w
~ + ~u) = ~v w
~ + ~v ~u e (~v + w)
~ ~u = ~v ~u + w
~ ~u.
4. ~v w
~ = (w
~ ~v ).
Si noti che, in generale, il prodotto vettoriale non gode della propriet`a associativa.
Teorema 17.2 Siano ~v = vx~i + vy~j + vz~k e w
~

~i

~v w
~ = vx
wx

= wx~i + wy~j + wz~k, allora

~j ~k

vy vz .
wy wz

Dimostrazione. Ricordando la Proposizione 17.1, abbiamo

vx vy
vx vz
vy vz
~
~

~
~i
~v w
~ = (vx~i + vy~j + vz k) (wx~i + wy~j + wz k) =
wx wz j + wx wy =
wy wz

~i ~j ~k

= vx vy vz .
wx wy wz
Definizione 17.3 Prodotto misto. Dicesi prodotto misto dei tre vettori ~u, ~v e w
~ (e si
denota con ~u ~v w),
~ il numero reale che si ottiene facendo il prodotto scalare fra ~u e ~v w.
~
Se almeno uno dei tre vettori e nullo oppure se ~v //w
~ allora ~u ~v w
~ = 0. Si ha inoltre
Teorema 17.3 Il prodotto misto ~u ~v w
~ e uguale a zero se e solo se i tre vettori sono
complanari.
Teorema 17.4 Se ~u = ux~i + uy~j + uz~k, ~v = vx~i + vy~j + vz~k e w
~ = wx~i + wy~j + wz~k, allora

ux uy u z

~u ~v w
~ = vx vy vz .
wx wy wz

18

Vettori liberi

Un vettore libero e un segmento orientato libero di muoversi nello spazio senza cambiare
lunghezza, direzione e verso. Se AB e un segmento orientato da A a B, esso rappresenta
un vettore libero. Un altro segmento CD orientato da C a D rappresenta lo stesso vettore
libero se e solo se i due segmenti giacciono su rette parallele (o sulla stessa retta), hanno la
stessa lunghezza e sono orientati concordemente.
90

Il vettore libero ~v rappresentato dal segmento AB si denota col simbolo B A o anche


con le stesse notazioni dei vettori applicati.
Indicato con V linsieme di tutti i vettori applicati dello spazio, definiamo su di esso la

seguente relazione L: il vettore applicato AB e in relazione L col vettore applicato CD se e


solo se essi giacciono su rete parallele (o sulla stessa retta), hanno lo stesso modulo e sono
orientati concordemente.
Si vede facilmente che L e una relazione di equivalenza su V e ogni classe di equivalenza
pu`o essere identificata con un vettore libero.

Se ~v = B A e un vettore libero e R e un punto qualsiasi dello spazio, esiste un unico


punto S tale che ~v = S R. In particolare, se O e un punto fissato dello spazio, ogni vettore
libero ~v si pu`o scrivere come P O (per un opportuno punto P ). Cio`e a ~v corrisponde il

vettore OP applicato in O.
Il modulo di un vettore libero e la lunghezza di uno qualunque dei segmenti che lo
rappresentano.
Si faccia attenzione a non confondere il vettore libero P O col vettore applicato in O,

OP , che lo rappresenta.
Per effettuare una qualunque operazione con i vettori liberi basta applicarli in uno stesso
punto, effettuare la corrispondente operazione fra i vettori applicati, e prendere il risultato
ottenuto convenendo che, se il risultato e un vettore, bisogna considerarlo come libero. Vale
inoltre la seguente proposizione.
Proposizione 18.1 Regola della poligonale. Per sommare due o pi`
u vettori liberi,
~v1 , ~v2 , . . . , ~vn (n 2, si scrive ~v1 = P1 P0 , ~v2 = P2 P1 , . . ., ~vn = Pn Pn1 , e si
91

somma formalmente
~v1 + ~v2 + . . . + ~vn = (P1 P0 ) + (P2 P1 ) + . . . + Pn Pn1 = Pn P0 .
Se ~v = B A e un vettore libero con A (x1 , y1 , z1 ) e B (x2 , y2 , z2 ), le componenti
del vettore libero ~v sono
vx = x2 x1 ,
Risulta
| ~v | = |AB| =

19

vy = y2 y1 ,

vz = z2 z1 .

(x2 x1 )2 + (y2 y1 )2 + (z2 z1 )2 .

Rette del piano e loro equazioni

Una retta r del piano si pu`o individuare assegnando per esempio:


1. un punto P0 di r e un vettore ~v non nullo ortogonale ad r; oppure
2. un punto P0 di r e un vettore w
~ non nullo parallelo ad r; oppure
3. due punti distinti P1 e P2 di r.
Caso 1: Equazione
cartesiana della retta. Siano P0 (x0 , y0 ) un punto di r e ~v =

a
un vettore ortogonale ad r. Un punto P (x, y) del piano appartiene ad r se
b
e solo se il vettore P P0 e ortogonale a ~v . Cio`e se e solo se
~v (P P0 ) = 0.

(36)

La (36) si chiama equazione vettoriale della retta. Da essa segue

x x0
a b
= 0,
y y0
a(x x0 ) + b(y y0 ) = 0,
ax + by ax0 by0 = 0.
ove, posto c = ax0 by0 , si ha
ax + by + c = 0 con (a, b) 6= (0, 0),

(37)

detta equazione cartesiana della retta.


Si osservi che per ogni k R, k 6= 0, lequazione kax + kby + kc = 0 (con (a, b) 6= (0, 0))
e la (37) rappresentano la stessa retta. Viceversa, se ax+by+cz = 0 e a0 x+a0 y+b0 z = 0
92

rappresentano una stessa retta, allora esiste un numero reale k 6= 0 tale che a0 = ka,
b0 = kb e c0 = kc.
Se b 6= 0, la (37) pu`o scriversi

a
c
y = x ,
b
b
c
a
la quale, posto m = b e n = b , diventa
y = mx + n
e viene detta lequazione esplicita della retta.
Caso 2: Equazioni parametriche della retta. Sia
r la
retta passante per il punto P0
l
(x0 , y0 ) e parallela al vettore non nullo w
~ =
= l~i + m~j. Il punto P (x, y)
m
appartiene adr se e solo
~ cio`eP P
~ (vedasi Proposizione 16.3).
se P P0 //w,
0 = tw
x x0
tl
Quindi si ha
= P P0 = tw
~=
, da cui
tm
y y0

x = x0 + lt
,
(38)
y = y0 + mt
dette le equazioni parametriche di r. Si osservi che, per t = 0, il punto P coincide con
P0 .
Per passare dalla rappresentazione parametrica a quella cartesiana di r basta eliminare
il parametro t tra le (38). Cio`e:
0
0
(1) Se l 6= 0 e m 6= 0 si ha t = xx
e t = yy
e quindi lequazione cartesiana di r e
l
m
x x0
y y0
=
.
l
m
(2) Se l = 0 e quindi, essendo w
~ 6= 0, m 6= 0 le (38) diventano

x = x0
,
y = y0 + mt
da cui lequazione cartesiana di r e x = x0 .
(3) Se m = 0 e quindi l 6= 0 si ha, analogamente al caso precedente, la seguente
equazione cartesiana
y = y0 .
Viceversa il passaggio dalla rappresentazione cartesiana alla parametrica si pu`o fare
nel seguente modo. Essendo ~v = a~i + b~j ortogonale ad r, w
~ = b~i + (a)~j e ortogonale
~ e parallelo ad r. Inoltre:
a ~v (vedasi (35)). Quindi w

93

(1) Se b 6= 0 si ha che P0 (0, cb ) e un punto della retta r di rappresentazione


cartesiana ax + by + c = 0 e, in tal caso, le equazioni parametriche di r sono

x = bt
.
y = cb at
(2) Se a 6= 0, allora P0 ( ac , 0) e un punto della retta r di rappresentazione cartesiana
ax + by + c = 0 e, in tal caso, le equazioni parametriche di r sono

x = ac + bt
.
y = at
Caso 3: Retta r per i due punti distinti
A (x1 , y1 ) e B (x2 , y2 ). Un vetto
x2 x1
re parallelo ad r e w
~ = BA =
. Quindi r ha le seguenti equazioni
y2 y1
paramentriche

x = x1 + t(x2 x1 )
,
y = y1 + t(y2 y1 )
dalle quali si pu`o ricavare, col procedimento descritto sopra, lequazione cartesiana.
Quindi lequazione della retta r passante per i due punti distinti A (x1 , y1 ) e B
(x2 , y2 ) e:

xx1
x2 x1

yy1
y2 y1

se x2 x1 6= 0 e y2 y1 6= 0;

x = x1 se x2 x1 = 0 (quindi y2 y1 6= 0);
y = y1 se y2 y1 = 0 (quindi x2 x1 6= 0).
Riassumendo lequazione della retta del piano passante per i due punti distinti A
(x1 , y1 ) e B (x2 , y2 ) e

x y 1

x1 y1 1 = 0.

x2 y2 1
La seguente tabella riassume le condizioni di parallelismo e perpendicolarit`a fra due rette
r e r0 .

94

RETTE

r) ax + by + c = 0

a
b

r0 ) a0 x + b0 y + c0 = 0

r) ax + by + c = 0
r0 )

r)

r)

a
b

x = x0 + lt
y = y0 + mt

x = x0 + lt
y = y0 + mt

//

a0
b0

cio`e

a
b

ab0 a0 b = 0

`
ORTOGONALITA

PARALLELISMO

l
m

x = x00 + l0
y = y00 + m0

l
m

//

l0
m0

a0
b0

cio`e

aa0 + bb0 = 0

cio`e

a
b

al + bm = 0

//

l
m

cio`e

am bl = 0

cio`e

lm0 ml0 = 0

l
m

l0
m0

cio`e

ll0 + mm0 = 0

Esempio
19.1 Scrivere lequazione della retta r passante per P0 (1, 3) e parallela a
2
w
~=
.
1
SVOLGIMENTO. Si ha

da cui (eliminando t)

x1
2

x = 1 + 2t
,
y = 3 + t

= y + 3.

Esempio 19.2 Scrivere lequazione della retta s passante per P0 (1, 3) ed ortogonale a
~v = (2, 1). Scrivere le equazioni parametriche di s.

x1
SVOLGIMENTO. Si ha ~v (P P0 ) = 0, 2 1
= 0. Quindi lequazione di s
y+3
e 2(x 1) + y + 3 = 0. Per trovare le sue equazioni parametriche basta scrivere la precedente

95

equazione come x 1 = y+3


e porre
2

x1=t
,
y+3
=t
2

da cui

x=1+t
y = 3 2t

Esempio 19.3 Scrivere lequazione della retta r passante per i punti A (1, 3) e B
(1, 4).
SVOLGIMENTO. I due punti hanno la stessa ascissa. Quindi r ha equazione x = 1.
Esempio 19.4 Determinare lintersezione fra le due rette distinte r) ax + by + c = 0 e
s) a0 x + b0 y + c0 = 0.
SVOLGIMENTO. Lintersezione fra r ed r0 e data dallinsieme dei punti P le cui coordinate
sono soluzioni del sistema lineare

ax + by + c = 0
.
(39)
a 0 x + b0 y + c0 = 0

a
0
0
Supponiamo dapprima che ab a b = 0, cio`e che il vettore ~v =
(ortogonale ad r) e
b
0
a
parallelo al vettore w
~ =
(ortogonale ad r0 ). In tal caso il sistema (39) o ha infinite
b0
soluzioni oppure e impossibile (si veda il Teorema 15.11). Pi`
u precisamente, posto

a b
a b c
A=
e B=
,
a 0 b0
a0 b0 c0
si ha, nella nostra ipotesi, r(A) = 1 (vedasi Definizione 15.5). Se anche r(B) = 1 il sistema
(39) ha infinite soluzioni e quindi r coincide con r0 . Se r(B) = 2, (39) e impossibile, quindi
r r0 = . In entrambi i casi diremo che r e r0 sono parallele.
Sia ora ab0 a0 b 6= 0. Per il teorema di Cramer 15.10, (39) ha una ed una sola soluzione.
Essa fornisce le coordinate dellunico punto intersezione fra le rette r ed r0 .
Teorema 19.1 La distanza fra il punto P0 (x0 , y0 ) dalla retta r di equazione ax + by +
cz + d = 0 e data da
|ax0 + by0 + c|

d(P0 , r) =
.
a 2 + b2
Se b 6= 0 lequazione della retta r)ax + by + c = 0 pu`o essere scritta nella forma esplicita
a
c
y = x .
b
b
Il numero m = ab dicesi coefficiente angolare di r. Se b = 0 r non ha coefficiente angolare.
Si pu`o dimostrare che m = tan essendo langolo fra il semiasse positivo delle ascisse
e la retta r rappresentato in figura:

96

Se A (x1 , y1 ) e B (x2 , y2 ) con x1 6= x2 allora la retta r passante per A e B ha


coefficiente angolare dato da
y2 y1
m=
.
x2 x1
Teorema 19.2 Le due rette r) y = mx + n e r0 ) y = m0 x + n0 sono ortogonali se e solo se
mm0 = 1.

20

Coordinate omogenee nel piano

Si definisca su R3 \ {(0, 0, 0)} la seguente relazione R:


(, , ) R (0 , 0 , 0 ) esiste k R, k 6= 0 tale che 0 = k, 0 = k, 0 = k.
Si verifica facilmente che la relazione R sopra definita e di equivalenza. Ad ogni (, , )
R3 \ {(0, 0, 0)} resta cos` associata la classe di equivalenza

[(, , )] = (0 , 0 , 0 ) R3 \ {(0, 0, 0)} | (0 , 0 , 0 )R(, , ) .


Ogni punto P del piano, rispetto al sistema O~x~y , viene identificato tramite le sue coordinate (x, y); esse verranno dette le coordinate non omogenee del punto P e P viene detto
punto proprio. Ad ogni punto P (x, y) possiamo associare [(x, y, 1)] = {(t0 x, t0 y, t0 ) | t0
R, t0 6= 0}. Ognuna delle terne (x0 , y 0 , t0 ) [(x, y, 1)] viene detta coordinate omogenee di P .
Si osservi che se (x0 , y 0 , t0 ) sono le coordinate omogenee del punto P (x, y), allora
0
x = t0 x e y 0 = t0 y. Possiamo quindi dire che ad ogni terna (x0 , y 0 , t0 ) con t0 6= 0 corrisponde
0
0
il punto P ( xt0 , yt0 ). Ovviamente questa corrispondenza e suriettiva ma non iniettiva.
Se consideriamo una terna (x0 , y 0 , 0), ad essa non corrisponde alcun punto proprio P del
piano. Diremo per definizione che alla terna (x0 , y 0 , 0) R3 \ {(0, 0, 0)} corrisponde un nuovo
punto P del piano, detto punto improprio.
Ovviamente nella rappresentazione cartesiana i punti impropri non possono essere rappresentati. Per esempio ogni terna di [(1, 2, 0)] rappresenta un punto improprio del piano.
97

Si consideri la retta r di equazione ax+by +c = 0. Sia P (x, y) r. Rappresentando P


in coordinate omogenee abbiamo P (t0 x, t0 y, t0 ) qualunque sia t0 R \ {0}. Posto x0 = t0 x
0
0
e y 0 = t0 y, lequazione di r diventa a xt0 + b yt0 + c = 0, da cui
ax0 + by 0 + ct0 = 0,

(40)

che e detta lequazione omogenea della retta r.


Si osservi che il punto improprio (b, a, 0) verifica la (40) (sostituendo ovviamente b al
posto di x0 , a al posto di y 0 e 0 al posto di t0 ). Si vede facilmente che tutte le soluzioni
diverse da (0, 0, 0) del sistema
0
t =0
ax0 + by 0 + ct0 = 0
sono date da k(b, a, 0) per ogni k R \ {0}.
Linsieme di tutti i punti impropri del piano viene chiamato retta impropria e, ovviamente,
la sua equazione e data da t0 = 0. Si ricordi che non tutte le soluzioni (, , ) dellequazione
t0 = 0 sono le coordinate di un punto improprio.
Siano date le due rette distinte r ed r0 , di equazioni omogenee rispettivamente ax0 + by 0 +
0
ct = 0 e a0 x0 + b0 y 0 + c0 t0 = 0. Allora (bc0 b0 c, ca0 ac0 , ab0 a0 b) 6= (0, 0, 0), altrimenti le
rette sarebbero coincidenti. Per trovare i punti comuni si deve risolvere il sistema formato
dalle loro equazioni
0
ax + by 0 + ct0 = 0
.
(41)
a0 x0 + b0 y 0 + c0 t0 = 0
Ricordando la teoria riguardante i sistemi lineari, si vede che (41) oltre alla soluzione banale
ha le seguenti soluzioni
((bc0 b0 c), (ca0 ac0 ), (ab0 a0 b))

(42)

con parametro arbitrario non nullo. Le (42) sono le coordinate omogenee di uno stesso
punto (proprio o improprio) del piano. Quindi due rette distinte hanno sempre un solo punto
a comune di cui le (42) sono le coordinate omogenee.
Se ab0 a0 b 6= 0 le due rette si incontrano nel punto proprio di coordinate non omogenee
bc0 b
0 c a0 cac0
,
, e le due rette si dicono incidenti.
ab0 a0 b ab0 a0 b
Se invece ab0 a0 b = 0 il punto comune alle due rette e improprio. Ed allora, se una delle
rette, per esempio r0 , e la retta impropria, esse si incontrano, come abbiamo visto, nel punto
improprio (b, a, 0) della retta r.
Se entrambe le rette sono proprie, la condizione ab0 a0 b = 0 e la condizione di parallelismo
ed in tal caso, ponendo a0 = a e b0 = b, il sistema (41) ammette la soluzione (b, a, 0).
In conclusione due rette distinte e proprie si incontrano in uno e un sol punto, che e
improprio se e solo se le rette sono parallele.
Siano date le due rette distinte r ed r0 , di equazioni omogenee rispettivamente ax0 + by 0 +
ct0 = 0 e a0 x0 + b0 y 0 + c0 t0 = 0. Definiamo fascio di rette individuato da r e r0 la totalit`a delle
98

rette la cui equazione si ottiene facendo una combinazione lineare delle equazioni delle due
rette con e parametri non entrambi nulli:
(ax0 + by 0 + ct0 ) + (a0 x0 + b0 y 0 + c0 t0 ) = 0.

(43)

Per individuare una retta del fascio bisogna fissare e a meno di un fattore di poporzionalit`a (cio`e bisogna fissare o oppure ).
Talvolta e utile scrivere lequazione del fascio usando un solo parametro. Per esempio se
6= 0 (43) pu`o scriversi, posto = h,
(ax0 + by 0 + ct0 ) + h(a0 x0 + b0 y 0 + c0 t0 ) = 0.
Questa equazione contiene tutte le rette del fascio ad eccezione della retta
a0 x0 + b0 y 0 + c0 t0 = 0.
Si pu`o dimostrare che le rette del fascio individuato dalle rette (distinte) r ed r0 sono
tutte e sole le rette passanti per il punto P = r r0 . In particolare se P e un punto proprio
allora le rette del fascio sono tutte e sole le rette passanti per esso, detto centro del fascio;
se P e improprio allora r ed r0 sono parallele e le rette del fascio sono tutte le rette parallele
alle rette date.
In coordinate non omogenee possiamo scrivere che lequazione del fascio di rette passanti
per P0 (x0 , y0 ) e (x x0 ) + (y y0 ) = 0 per ogni , R con 2 + 2 6= 0. Mentre
lequazione del fascio di rette parallele alla retta ax + by + c = 0 e ax + by + = 0 per ogni
R.
Esempio 20.1 Trovare, se esistono, le equazioni delle rette s passanti per P0 (1, 1) e
che formano con gli assi un triangolo di area assegnata uguale a 21 .
SVOLGIMENTO. La retta s, qualora esista, appartiene al fascio
(x + 1) + (y 1) = 0.
Poich`e s interseca entrambi gli assi cartesiani possiamo scrivere la precedente equazione nel
seguente modo
k(x + 1) + y 1 = 0
ove si e posto k =

6= 0. Le intersezioni di s con gli assi cartesiani sono pertanto


A (0, 1 k), B (

1k
, 0).
k

Posto O (0, 0) si ottiene il triangolo rettangolo OAB la cui area e data da

1 k
|OA||OB|
1
.
= |1 k|
2
2
k
99

Abbiamo quindi

1 k 1
1
= ,
|1 k|
2
k 2

(1 k)2

= 1,

k
(1 k)2
= 1,
|k|
k 2 2k + 1 = |k|

e, ricordando che k 6= 0, abbiamo due casi:


Caso k > 0. Si ha k 2 3k + 1 = 0 da cui

3 5
k=
.
2
Per k =

3+ 5
2

otteniamo i punti

Per k =

3 5
2

!
1+ 5
0,
,
2

otteniamo i punti

!
1 + 5
A 0,
,
2

1 5
,0 .
3+ 5

1 + 5
,0 .
3 5

Caso k < 0. Si ha k 2 k + 1 = 0 che non ha alcuna soluzione reale.

21

Isometrie e similitudini nel piano

(Tutte le dimostrazioni presentate in questo paragrafo sono obbligatorie anche


se non appaiono sotto forma di teorema)
Unisometria piana e unapplicazione del piano in se che conserva la distanza. Se denotiamo il piano con R2 , unapplicazione f : R2 R2 e unisometria se e solo se comunque
presi due punti P e Q in R2 , si ha d(f (P ), f (Q) = |f (P )f (Q)| = |P Q| = d(P, Q).
Proposizione 21.1 Sia f unisometria piana. Allora:
f e biunivoca e continua;
se i punti P , Q ed R giacciono su una stessa retta, allora anche i punti corrispondenti
f (P ), F (Q), F (R) giacciono su una stessa retta;
100

due segmenti corrispondenti sono uguali;


due triangoli corrispondenti sono uguali;
due angoli corrispondenti sono uguali.
Linsieme delle isometrie del piano, con loperazione di composizione (prodotto di due
applicazioni) e un gruppo, giacch`e:
- la composizione di due isometrie e un isometria;
- la composizione di due isometrie e associativa;
- lidentit`a e unisometria;
- per ogni isometria esiste la sua inversa.
Sono esempi di isometrie piane: la traslazione di un vettore ~v ; la rotazione di centro un
punto P0 e angolo ; la riflessione rispetto a una retta r; la glissoriflessione di asse r e vettore
~v .
Sia f : R2 R2 unapplicazione del piano in se. Un punto P R2 si dice fisso sotto
lazione della f se f (P ) = P (il punto P viene mandato in se stesso).
Una retta r R2 si dice fissa sotto lazione della f se f (P ) r se e solo se P r; in
tal caso scriveremo f (r) = r.
Traslazione di un vettore ~v . La traslazione di un vettore ~v e quellapplicazione, tv , che

ad ogni punto P del piano associa il punto P1 = tv (P ) tale che P P1 = ~v .

Due segmenti corrispondenti sotto lazione di una traslazione oltre ad essere uguali sono
pure paralleli (sono equipollenti).
Se ~v 6= 0, tv non ha punti fissi, mentre ogni retta parallela a ~v e fissa.
Fissato nel piano il sistema di riferimento cartesiano ortogonale O~x~y e posto ~v = (a, b),
la traslazione piana tv : R2 R2 fa corrispondere al punto P (x, y) il punto P1 (x1 , y1 )
tale che x1 = x + a e y1 = y + b. Convenendo di rappresentare sia i vettori che le coordinate
di un punto come vettori colonna, possiamo scrivere

x+a
a
x
x1
x1
=
, essendo ~v =
.
= tv
, ovvero
y1
y+b
b
y1
y
101

Riassumendo la traslazione tv pu`o essere rappresentata nel seguente modo


x1
x
a
=
+
.
(44)
y1
y
b

2
Esempio 21.1 Sia ~v =
e sia r la retta di equazione 3x + 2y = 12. Determinare
0
lequazione della retta traslata di r sotto lazione di tv o, in altre parole, lequazione di tv (r).
SVOLGIMENTO. Si ha

tv

da cui

x
y

x1
y1

x1 = x + 2
,
y1 = y

x+2
y

x = x1 2
,
y = y1

e, sostituendo nellequazione di r i valori trovati, otteniamo


tv (r)) 3(x1 2) + 2y1 = 12.
Da cui, cambiando nome alle variabili, si ha che lequazione richiesta e
3x + 2y = 18.
Un altro modo per risolvere il precedente problema consiste nel determinare due punti
A, B r, calcolare A1 = tv (A) e B1 = tv (B) e quindi
della
retta

scriverelequazione
4+2
0
4
, A1
,B
passante per i punti A1 e B1 . Per esempio si ha A
0+0
6
0

0+2
. Lequazione della retta passante per A1 e B1 e
e B1
6+0
x6
y
= , ovvero 3x + 2y = 18.
4
6

1
Esempio 21.2 Sia ~v =
e sia r la retta di equazione 2x + 3y = 6. Determinare
3
lequazione della retta traslata di r sotto lazione di tv o, in altre parole, lequazione di tv (r).
SVOLGIMENTO. Procediamo come nellEsempio 21.1. Si ha

x+1
x
x1 1
x1
=
=
=
.
y1
y+3
y
y1 3
Quindi lequazione di tv (r) e
2(x1 1) + 3(y1 3) = 6,
102

2x + 3y = 17.
Risolviamo lo stesso esercizio usando il secondo metodo. Due punti distinti di r sono:


3
0
A
, B
.
0
2
I traslati di A e B sono

3+1
0+3

0+1
2+3

Lequazione della retta passante per A1 e B1 e


y3
x4
=
, ovvero 2x + 3y = 17.
14
53
Come visto negli esercizi precedenti, vale la seguente proposizione.

a
x
x1
Proposizione 21.2 Siano ~v =
e P1 = tv (P ). Posto P
e P1
, si
b
y
y1
ha

x
x1 a
=
.
(45)
y
y1 b
Come usualmente considerato in trigonometria, un angolo orientato e langolo generato
dalla rotazione di una semiretta intorno alla propria origine; viene convenzionalmente considerato positivo se la rotazione avviene in verso antiorario, negativo in caso contrario. La
semiretta di partenza e quella di arrivo si chiamano primo e secondo lato dellangolo.
Rotazione di centro un punto P0 ed angolo . La rotazione di centro P0 ed angolo e
quellapplicazione P0 , : R2 R2 che ad ogni punto P R2 associa il punto P1 = P0 , (P )
tale che |P0 P | = |P0 P1 | e P\
P0 P1 = .
Si osservi che, sotto lazione di P0 , , lunico punto fisso e P0 mentre si hanno rette fisse
se e solo se e un multiplo di , in tal caso esse sono tutte
le rette per P0 .
0
Cominciamo col considerare il caso in cui P0 O
(rotazione attorno allorigine).
0

x
Sia P
e supponiamo che la retta OP formi un angolo con lasse delle ~x. Vogliamo
y
determinare le coordinate del punto P1 = O, (P0 ). Per semplicit`a supponiamo > 0 e che i
punti P e P1 si trovino nel primo quadrante (si veda la figura seguente). Allo stesso risultato
si perviene anche negli altri casi.

103

Ricordando che |OP | = |OP1 |, si ha

x = |OK| = |OP | cos


,
y = |KP | = |OP | sin

x1 = |OH| = |OP | cos( + ) = |OP | cos cos |OP | sin sin = x cos y sin
y1 = |HP1 | = |OP | sin( + ) = |OP | sin cos + |OP | cos sin = x sin + y cos
e quindi

x1
y1

cos sin
sin cos

x
y

(46)

x
y

In generale possiamo dire che, fissato un angolo e supposte note le coordinate

x1
di un punto P del piano, le coordinate
del punto P1 ottenuto ruotando attorno
y1
allorigine P di un angolo (si ricordi che il verso positivo delle rotazioni e quello antiorario)
sono date dalla (46).

x1
Consideriamo adesso il problema inverso: siano noti langolo e le coordinate
y1
del punto P1 = O, (P ). Quali sono le coordinate di P ?

x
x1
Proposizione 21.3 Sia P1 = O, (P ). Posto P
e P1
, si ha
y
y1


x
cos sin
x1
.
(47)
=
y1
y
sin cos

Dimostrazione. Dalla (46), ricavando

x
y

x
y

in funzione di

cos sin
sin cos
104

x1
y1

x1
y1

, abbiamo

Per completare la dimostrazione e sufficiente osservare che

cos sin
cos sin
=
.
sin cos
sin cos
Infatti si ha

cos sin
sin cos

cos sin
sin cos

1 0
0 1

Si osservi che lapplicazione rappresentata dalla (47) si ottiene applicando una rotazione
di alla (46) e cambiando il nome alle variabili. Quindi la (47) e lapplicazione inversa
della (46).
Esempio 21.3 Sia r la retta di equazione x + y = 1. Scrivere lequazione della retta s
ottenuta applicando a r una rotazione di centro lorigine e angolo = 4 .
Ricordando la (47), abbiamo

x
y

sin
cos
sin 4 cos

da cui

x1
y1

x=

22 x1

y=

2
x
2 1

2
y
2 1

2
2

2
y
2 1

2
2

2
2
2
2

x1
y1

Sostituendo nellequazione
di r otteniamo 2y1 = 1. Quindi, cambiando nome alle variabili,

lequazione di s e y = 22 .
Un altro procedimento per risolvere lesercizio consiste nel fissare due punti distinti A, B
r, calcolare le coordinate dei punti A0 = O, 4 (A) e B 0 = O, 4 (B) e, infine, scrivere
lequazione della retta passante per
A0 e B 0 . Essa coincide con lequazione della retta s
0
1
eB
. Per la (46), si ha
cercata. Siano per esempio A
0
1
!

2 !
2
2

cos
1

sin

1
4
4
2
2
2
=
A0
=
,
2
2
2
0
sin 4 cos 4
0
2

B0

cos 4 sin 4
sin 4 cos 4

0
1

Pertanto lequazione della retta A0 B 0 e y1 =

2
.
2

105

2
2
2
2

22
2
2

0
1

22
2
2

!
.

Esempio 21.4 Sia r la retta di equazione 2x 3y = 1. Scrivere lequazione della retta s


ottenuta applicando a r una rotazione di centro lorigine e angolo = 6 .
Ricordando la (47), abbiamo

x
cos 6 sin 6
x1
2
=
=
y
sin 6 cos 6
y1
12
da cui

x=

y=

3
x
2 1

+ 21 y1

12 x1

1
2
3
2

x1
y1

3
y
2 1

Sostituendo nellequazione di r otteniamo


(2
3+3)x
+(23
1

3)y1 = 2. Quindi, cambiando


nome alle variabili, lequazione di s e (2 3 + 3)x + (2 3 3)y = 2.

x0
Consideriamo adesso il caso generale di una rotazione di centro P0
. Sia

y0
x
x1
P
un punto generico del piano. Vogliamo ricavare le coordinate
del punto
y
y1
P1 = P0 , (P ). Procediamo nel seguente modo:

x0
1. Applichiamo una traslazione di ~v =
, in tal modo i punti P0 e P vengono
y0

x x0
traslati rispettivamente nellorigine e nel punto Q
.
y y0
2. Applichiamo una rotazione di centro O P0 ed angolo (si veda la (46)). Allora Q
viene ruotato nel punto

cos sin
x x0
R
.
sin cos
y y0

x1
x0
3. Il punto cercato P1
si ottiene traslando R di un vettore ~v =
,
y1
y0

x1
cos sin
x x0
x0
=
+
.
(48)
y1
sin cos
y y0
y0
Procedendo in modo analogo alla Proposizione 21.3, si dimostra il seguente risultato.

x0
e langolo . Se P1 = P0 , (P ), con
Proposizione 21.4 Siano dati il punto P0
y
0

x
x1
, allora
P
e P1
y1
y

x0
x
cos sin
x1 x0
.
(49)
+
=
y0
y1 y0
y
sin cos
106

Esempio 21.5 Sia r la retta di equazione x + y = 1. Scrivere lequazione della retta s


ottenuta applicando a r una rotazione di centro P0 (3, 4) e angolo = 4 .
Ricordando la (49), abbiamo

x
y

cos
sin
sin 4 cos

da cui

x1 3
y1 4

x=

2
x
2 1

y=

3
4

2
y
2 1

8 2
2

2
y
2 1

2
2

67 2
2

2
x
2 1

2
2

2
2
2
2

x1 3
y1 4

3
4

+
+

Sostituendo nellequazione di r
otteniamo 2y1 + 7 4 2 = 0. Quindi, cambiando nome
alle variabili, lequazione di s e 2y + 7 4 2 = 0.
Esempio 21.6 Sia r la retta di equazione 2x 3y = 1. Scrivere lequazione della retta s
ottenuta applicando a r una rotazione di centro P0 (1, 2) e angolo = 6 .
Ricordando la (49), abbiamo

x
y

cos
sin
sin 6 cos

da cui

x1 1
y1 2

x=

y=

3
x
2 1

12 x1

1
2

+ 12 y1

3
y
2 1

3
2
12

1
2
3
2

x1 1
y1 2

1
2

3
2

52 3
2

+
+

Sostituendo nellequazione di r otteniamo (2 3+3)x


+(23
3)y
+4
= 0. Quindi,
1
1

317
cambiando nome alle variabili, lequazione di s e (2 3 + 3)x + (2 3 3)y + 4 3 17 = 0.

x
x
,
Unapplicazione f : R R si dice lineare se per ogni
R2 e per ogni
y
y
, R si ha




x
x
x
x
f
+
= f
+ f
.
y
y
y
y

Si osservi che O, e unapplicazione lineare. Ricordando la (46), si ha infatti



x
x
cos sin
x + x
O,
+
=
=
y
y
sin cos
y + y




cos sin
x
cos sin
x
x
x
=
+
= O,
+O,
.
sin cos
y
sin cos
y
y
y
107


Si verifichi che, se P0 6=

0
0

, allora P0 , non e unapplicazione lineare.

Riflessione rispetto ad una retta. La riflessione rispetto alla retta r e quellapplicazione


r (P ) che ad ogni punto P del piano associa il punto P1 = r (P ) che sta sulla perpendicolare
ad r per P e tale che il punto medio di P P1 stia su r.
chiaro che se P r allora P1 = r (P ) = P , cio`e ogni punto di r ha come corrispondente
E
se stesso. Sotto lazione di r i punti fissi sono tutti e soli quelli di r. Lunica retta fissa e r
stessa.
Cominciamo
col considerare

il caso
in cui
la retta
rcoincide
con lasse delle ascisse. Posto
x
x1
x1
x
P
e P1 = r (P ) =
, si ha
=
. Quindi la riflessione nellasse
y
y1
y1
y
delle ascisse si pu`o rappresentare nel seguente modo



x1
1 0
x
=
(50)
y1
0 1
y
Consideriamo ora il caso generale di una retta r passante per il punto P0 (x0 , y0 ) e
formante un angolo col semiasse positivo delle ~x. Per ottenere le coordinate di P1 = r (P )
applichiamo, nellordine, le seguenti isometrie:

x0
1. La traslazione del vettore ~v =
si ha
y0

x
x x0
P
Q1
.
y
y y0
Si osservi che con la precedente applicazione P0 viene traslato nellorigine e la retta r
nella retta r0 parallela ad r e passante per lorigine.
2. La rotazione di centro lorigine ed angolo . Per la (46), essendo cos() = cos e
sin() = sin , abbiamo

cos sin
x x0
Q1 Q2
.
y y0
sin cos
Si osservi che, come risultato della precedente rotazione, r0 e coincide con lasse delle
~x.
3. La riflessione nellasse ~x (si veda (50)

1 0
cos sin
x x0
.
Q2 Q3
y y0
0 1
sin cos
4. La rotazione di centro lorigine ed angolo

cos sin
1 0
cos sin
x x0
,
Q3 Q4
y y0
sin cos
0 1
sin cos
108

cos2 sin2 2 sin cos


x x0
Q4
,
2 sin cos sin2 cos2
y y0

cos 2 sin 2
x x0
Q4
.
sin 2 cos 2
y y0

x0
5. La traslazione di ~v =
y0

cos 2 sin 2
x x0
x0
Q4 Q5
+
.
sin 2 cos 2
y y0
y0
Si osservi che Q5 coincide col punto P1 cercato.

x0
In conclusione la riflessione nella retta r passante per P0
e formante un angolo
y0
col semiasse positivo delle ascisse si pu`o rappresentare nel seguente modo

x1
cos 2 sin 2
x x0
x0
=
+
.
(51)
y1
sin 2 cos 2
y y0
y0
Dalla (51), procedendo in modo analogo alla Proposizione 21.3, segue il seguente risultato.
Proposizione 21.5 Sia r la retta passante per il punto P0 (x0 , y0 ) e formante un angolo
col semiasse positivo delle ~x. Siano (x1 , y1 ) le coordinate del punto P1 = r (P ). Allora le
coordinate (x, y) di P sono date da

x
cos 2 sin 2
x1 x0
x0
=
+
.
(52)
y
sin 2 cos 2
y1 y0
y0
Si osservi che, cambiando nome alle variabili, la (51) e la (52) coincidono. Questo risultato
era facilmente prevedibile in quanto la composizione di due riflessioni (ovviamente entrambe
nella stessa retta r) e lidentit`a. Si pu`o provare che r e lineare se e solo se r passa per
lorigine.
Esempio 21.7 Sia s la retta di equazione 2x 3y = 1. Scrivere lequazione della retta s0
ottenuta applicando ad s una riflessione nella retta r di equazione x + y = 1.

1
Sia langolo che r forma col semiasse positivo delle ascisse. Posto P0
, per la (52),
0
abbiamo


x
cos 2 sin 2
x1 1
1
=
+
.
y
sin 2 cos 2
y1 0
0

109

La retta r ha coefficiente angolare m = 1. Pertanto tan = 1 e


1 tan2
= 0,
1 + tan2

cos 2 =

2 tan
= 1.
1 + tan2

sin 2 =
Quindi

x
y

y1 + 1
x1 + 1

Sostituendo nellequazione di s otteniamo


s0 ) 2(y1 + 1) 3(x1 + 1) = 1.
Esempio 21.8 Sia s la retta di equazione x 2y = 1. Scrivere lequazione della retta s0
ottenuta applicando ad s una riflessione nella retta r di equazione 2x + 3y = 1.

2
r,
Sia langolo che la retta r forma col semiasse positivo delle ascisse. Posto P0
1
per la (52), abbiamo


cos 2 sin 2
x1 2
2
x
=
+
.
sin 2 cos 2
y1 + 1
1
y
La retta r ha coefficiente angolare m = 23 . Pertanto tan = 23 e
cos 2 =
sin 2 =
Quindi

s)

x
y

1 tan2
5
= ,
2
1 + tan
13

12
2 tan
= .
2
1 + tan
13

5
(x1 2) 12
(y + 1) + 2
13
13 1
12
5
13 (x1 2) 13 (y1 + 1) 1

12
12
5
5
(x1 2) (y1 + 1) 2 (x1 2) (y1 + 1) 1 = 1.
13
13
13
13

Glissoriflessione. Per glissoriflessione (o antitraslazione) di asse r e vettore di traslazione


il vettore ~v (parallelo a r) si intende la composizione r,v = r tv = tv r della riflessione
rispetto alla retta r con la traslazione del vettore ~v . Il fatto che il vettore ~v sia parallelo a r
garantisce che tale composizione gode della propriet`a commutativa.
~ non si hanno punti fissi, mentre lunica retta fissa e r
Sotto lazione di r,v (con ~v 6= O)
stessa.
110

x0
y0

Sia r la retta passante per il punto P0


e formante un angolo col semiasse

x x0
positivo delle ascisse. Sia ~v =
il vettore della glissoriflessione. Allora, dovendo
y y0
essere ~v parallelo ad r, deve accadere che o x = x0 se r e parallela allasse ~y , oppure
yy0
= tan se r non e parallela allasse ~y .
xx0
Applicando opportunamente la (51) e la (45) si determinano le due rappresentazioni
della glissoriflessione a seconda che supponiamo r,v = tv r oppure r,v = r tv . Abbiamo
rispettivamente


x1
cos 2 sin 2
x x0
x
P1
=
+
,
(53)
y1
sin 2 cos 2
y y0
y

x1
cos 2 sin 2
x + x 2x0
x0
P1
=
+
.
(54)
sin 2 cos 2
y1
y + y 2y0
y0
Si osservi che la (53) e la (54), avendo i primi membri uguali, devono avere pure i secondi
membri uguali. Vale infatti la seguente proposizione.
Proposizione 21.6 Il secondo membro della (53) e uguale al secondo membro della (54).

x
verifichino le seguenti condizioni:
Dimostrazione. Possiamo supporrre che e
y
1. 0 < (si ricordi che e langolo che la retta r forma con il semiasse positivo delle
ascisse);

x
x
0
~ cio`e
~ la glissoriflessione coinciderebbe con la
2. ~v 6= O,
6=
(se ~v = O
y0
y
riflessione nella retta r);
3. x = x0 se = 2 (caso in cui r e parallela allasse ~y ) oppure
(caso in cui r non e parallela allasse ~y ).

yy0
xx0

= tan se 6=

Provare che

x x0
cos 2 sin 2
x
cos 2 sin 2
x + x 2x0
x0
+
=
+
sin 2 cos 2
y y0
y
sin 2 cos 2
y + y 2y0
y0
equivale a provare la seguente uguaglianza

cos 2 sin 2
x x0
x x0
=
.
sin 2 cos 2
y y0
y y0
Abbiamo i seguenti casi

111

(55)

Caso 1: = 2 . Allora x x0 = 0 e la (55) equivale a

1 0
0
0
=
,
0 1
y y0
y y0
che e banalmente verificata.
Caso 2: = 0. Allora y y0 = 0 e la (55) equivale a

1 0
x x0
x x0
=
,
0 1
0
0
che e banalmente verificata.
Caso 3: 6= 0, 2 . Allora la (55) equivale a

(x x0 ) cos 2 + (y y0 ) sin 2 = x x0
,

(x x0 ) sin 2 (y y0 ) cos 2 = y y0

(x x0 )(cos2 sin2 ) + (y y0 )2 sin cos = x x0

.
2

(x x0 )2 sin cos (cos sin )(y y0 ) = y y0

Essendo 6= 0, 2 abbiamo x x0 6= 0, y y0 6= 0. Quindi il sistema precedente e


equivalente a

yy
2
2
cos sin + 2 xx00 sin cos = 1
.
xx0
2 yy0 sin cos cos2 + sin2 = 1
Ricordando infine che

yy0
xx0

= tan , abbiamo

sin
sin cos = 1
cos2 sin2 + 2 cos

2 cos
sin cos cos2 + sin2 = 1
sin

che sono banalmente verificate.

Dalle (53) e (54), procedendo in modo analogo alla Proposizione 21.3, segue il seguente
risultato.
Proposizione 21.7 Sia r la retta passante per il punto P0 (x0 , y0 ) e formante un angolo
col semiasse positivo delle ~x. Siano (x1 , y1 ) le coordinate del punto P1 = r,v (P ). Allora
le coordinate (x, y) di P sono date da


x
cos 2 sin 2
x1 x
x0
,
(56)
=
+
y0
y
sin 2 cos 2
y1 y
112

o, equivalentemente,

x
cos 2 sin 2
x1 x0
2x0 x
+
=
.
y
sin 2 cos 2
y1 y0
2y0 y

(57)

Esempio 21.9 Sia s la retta di equazione 2x 3y = 1. Scrivere lequazione della retta s0


ottenuta
ad s una glissoriflessione nella retta r di equazione x + y = 1 di vettore
applicando

3
~v =
.
3
La retta r ha
m = 1.
coefficiente
angolare

Pertanto
tan = 1, cos 2 = 0 e sin 2 = 1.
x0
1
x x0
Posto P0
=
r e ~v =
, abbiamo
y0
0
y y0

x1
3
=
,
y
3
da cui x = 2 e y = 3. Per la (56),


1
x1 + 2
0 1
x
,
+
=
0
y1 3
1 0
y
da cui

x = y1 + 4
.
y = x1 2

Sostituendo nellequazione di s otteniamo 2(y1 + 4) 3(x1 2) = 1. Quindi, cambiando


nome alle variabili, lequazione di s0 e 3x 2y + 13 = 0.
Se invece della (56) si applica la (57), abbiamo


0 1
x1 1
4
x
=
+
,
1 0
y1
3
y
pervenendo allo stesso risultato.
Una similitudine e unapplicazione f del piano in se che conserva i rapporti fra le distanze: esiste cio`e una costante k > 0 tale che per ogni coppia di punti P e Q del piano si
ha d(f (P ), f (Q)) = |f (P )f (Q)| = k|P Q| = kd(P, Q). La costante k si dice rapporto di
similitudine. Ovviamente ogni isometria e una similitudine ma non viceversa.
Proposizione 21.8 Sia f una similitudine nel piano con rapporto k. Allora:
f e unapplicazione biunivoca e continua;
f manda rette in rette;
113

f trasforma una circonferenza di centro P0 e raggio in una circonferenza di centro


f (P0 ) e raggio k;
angoli corrispondenti mediante la f sono uguali;
triangoli corrispondenti mediante f sono simili.
Linsieme delle similitudini del piano con la legge di composizione naturale (composizione
da osservare per`o che nella composizione di due similitudini, il
di applicazioni) e un gruppo. E
rapporto di similitudine e uguale al prodotto dei due rapporti di similitudine. Un interessante
esempio di similitudine e lomotetia.
Unomotetia di centro C e rapporto ( R, 6= 0) e lapplicazione f = fC, del piano in
se che fissa C e ad ogni punto P 6= C fa corrispondere il punto P1 = fC, (P ) che sta sulla
retta CP , dalla stessa parte di P se > 0, dalla parte opposta di P se < 0 e tale che
d(C, P1 ) = ||d(C, P ).
Proposizione 21.9 Valgono le seguenti propriet`
a:
- Unomotetia di centro C e rapporto e una similitudine con rapporto di similitudine
||.
- Per = 1, si ottiene lidentit`a; per = 1, si ottiene il mezzogiro intorno al punto C.
- Ogni omotetia e unapplicazione biunivoca e quindi invertibile: linversa della omotetia
fC, e lomotetia di centro C e rapporto 1 .
- Lomotetia fC, fissa ogni retta passante per C.
- Le omotetie conservano la direzione: se r e una retta allora fC, (r) e una retta parallela
ad r (vviamente se r passa per C allora fC, (r) = r).

x0
Proposizione 21.10 Lomotetia di centro C
e rapporto fa corrispondere al
y0

x
x1
punto P
il punto P1
definito dalla seguente legge
y
y1

x1
0
x x0
x0
=
+
.
(58)
y1
0
y y0
y0

0
Dalla (58) segue subito che unomotetia di centro O
e unapplicazione lineare.
0
Proposizione 21.11 Sia f : R2 R2 una generica similitudine. Allora lespressione
analitica di f e

cos sin
x
x1
x
=
+
(59)
y1
sin cos
y
y
114

oppure


x
cos sin
x
=
+
sin cos
y
y

x
per un opportuno angolo e un opportuno vettore
.
y

22

x1
y1

(60)

Piani e rette dello spazio e loro equazioni

(Tutte le dimostrazioni contenute in questo paragrafo sono obbligatorie anche se


non appaiono sotto forma di teorema)
Fissato nello spazio un sistema di coordinate cartesiane O~x~y~z ad ogni punto P vengono
assegnate le coordinate reali non omogenee P (x, y, z).
Un piano reale dello spazio si pu`o individuare assegnando:
1. un punto P0 di e un vettore ~v non nullo ortogonale a ;
2. tre punti non allineati P0 , P1 e P2 di .
Caso 1: Equazione
del piano. Sia P0 (x0 , y0 .z0 ) un punto di e sia
cartesiana

a
0

b
0 un vettore ad esso ortogonale. Un punto P (x, y, z) appartiene
~v =
6=
c
0
a se e solo se
~v (P P0 ) = 0,
cio`e
a(x x0 ) + b(y y0 ) + c(z z0 ) = 0.
Questultima equazione e detta lequazione cartesiana del piano ed e equivalente alla
seguente
ax + by + cz + d = 0, a2 + b2 + c2 > 0.
Caso 2: Equazione vettoriale del piano. Siano P0 (x0 , y0 , z0 ), P1 (x1 , y1 , z1 ),
P2 (x2 , y2 , z2 ), tre punti non allineati dello spazio. Allora esiste un unico piano
passante per essi. Esso pu`o vedersi come il piano per P0 ortogonale al vettore
~v = (P1 P0 ) (P2 P0 ) (che non e nullo, essendo i tre punti non allineati). Pertanto
si ha
(P P0 ) (P1 P0 ) (P2 P0 ) = 0
che e lequazione vettoriale

di . Essa pu`o scriversi


x x0 y y0 z z0
x1 x0 y1 y0 z1 z0
x2 x0 y2 y0 z2 z0

115

= 0.

1
Esempio 22.1 Siano ~v = 2 e P0 (2, 0, 3). Lequazione del piano passante per
1

x2

P0 e ortogonale a ~v e 1 2 1 y = 0, ovvero x 2 + 2y (z 3) = 0.
z3
Esempio 22.2 Siano P0 (2, 0, 3), P1 (1, 1, 0) e P2 (0, 1, 0). Il piano passante per
questi tre punti ha equazione

x2
y
z 3

1 2 1 0 0 3 = 0.

02 10 03
Parallelismo ed ortogonalit`
a fra piani. I due piani distinti ) ax + by + cz +d =0 e
a
0
0
0
0
0

b e
) a x + b y + c z + d = 0 sono paralleli se e solo se i due vettori associati ~v =
c
0
a
w
~ = b0 (ortogonali rispettivamente a e 0 ) sono paralleli. Cio`e
c0
~
// 0 ~v = w
~ ~v w
~ = O.
I piani e 0 sono ortogonali se e solo se
~v w
~ aa0 + bb0 + cc0 = 0.
Equazioni parametriche di una
retta.
La retta r dello spazio passante per il punto
l
P0 (x0 , y0 , z0 ) e parallela a ~v = m e il luogo dei punti P (x, y, z) dello spazio tali
n
che P P0 e parallelo a ~v . Cio`e
P P0 = t~v ,

x x0
lt
y y0 = mt ,
z z0
nt

x = x0 + lt
y = y0 + mt

z = z0 + nt
che sono dette le equazioni parametriche di r. Le componenti (l, m, n) si chiamano i parametri
direttori.
116

Equazioni della retta passante per due punti. Siano A (x1 , y1 , z1 ) e B (x2 , y2 , z2 )
due punti distinti
e sia r la retta passante per essi. Un vettore parallelo ad r e
dello spazio

x2 x1
~v = B A = y2 y1 . Le equazioni parametriche di r sono pertanto
z2 z1

x = x1 + t(x2 x1 )
y = y1 + t(y2 y1 ) .
(61)

z = z1 + t(z2 z1 )
Se x1 6= x2 , y1 6= y2 e z1 6= z2 dalle (61) si ricavano le seguenti equazioni di r
x x1
y y1
z z1
=
=
.
x2 x1
y2 y1
z2 z1
Se x1 = x2 , y1 6= y2 e z1 6= z2 si ha

r)

x = x1
yy1
=
y2 y1

zz1
z2 z1

Se x1 = x2 , y1 = y2 e z1 6= z2 si ha

r)

x = x1
,
y = y1

e similmente si procede negli altri casi.


Intersezione fra piani dello spazio. Siano e due piani dello spazio e consideriamo
. Si possono avere tre casi:
1. e una retta r; in tal caso i due piani si dicono incidenti;
2. contiene tutti i punti di (e quindi di ); in tal caso i due piani si dicono paralleli
e coincidenti o, pi`
u semplicemente, coincidenti;
3. non contiene alcun punto; in tal caso si dicono paralleli e distinti.
Per trovare si considera il sistema formato dalle due equazioni. esso risulta rispettivamente: risolubile con una incognita libera, risolubile con due incognite libere, non
risolubile. Nel primo caso il sistema fornisce di per se una rappresentazione cartesiana di r.
Per esempio siano ) ax + by + cz + d = 0 e ) a0 x + b0 y + c0 z + d0 = 0 due piani non
paralleli (cio`e (a, b, c) non e proporzionale ad (a0 , b0 , c0 ) o, equivalentemente, il sistema delle
equazioni di e e risolubile con una incognita libera). Allora e si intersecano in una
retta r la cui rappresentazione cartesiana e

ax + by + cz + d = 0
r)
.
a0 x + b0 y + c0 z + d0 = 0
117

2
Esempio 22.3 Siano ) 2x y + z 1 = 0 e 0 ) x z = 0. Poich`e i due vettori 1
1

0 non sono proporzionali, i due piani dati individuano la retta


e
1

2x y + z 1 = 0
r)
.
xz =0
Per determinare un vettore ~v parallelo ad r basta scrivere le sue equazioni parametriche. Nel
nostro esempio, posto z = t abbiamo

y = 3t 1
x=t
r)

z=t

1

3 .
Quindi ~v =
1
Proposizione 22.1 Siano dati i piani e e le rette r ed s. Inoltre sia
~v un vettore ortogonale ad ,
w
~ un vettore ortogonale a ,
~u un vettore parallelo ad r,
~q un vettore parallelo ad s.
Allora
~ oppure esiste k 6= 0 tale che ~v = k w;
1. // se e solo se ~v //w,
~ cio`e ~v w
~ =O
~
2. se e solo se ~v w,
~ cio`e se e solo se ~v w
~ = 0;
~ oppure esiste k 6= 0 tale che ~v = k~q;
3. r//s se e solo se ~u//~q, cio`e se e solo se ~u ~q = O
4. r s se e solo se ~u ~q, cio`e se e solo se ~u ~q = 0;
5. //r se e solo se ~v ~u, cio`e se e solo se ~v ~u = 0;
~ oppure esiste k 6= 0 tale che
6. r se e solo se ~v //~u, cio`e se e solo se ~v ~u = O
~v = k~u.
Intersezione di una retta e un piano. Siano un piano e r una retta. Consideriamo
r. Si hanno tre casi:
118

r e un solo punto, allora diremo che e r sono incidenti;


r coincide con r, allora diremo che r e parallela e giacente su ;
r non contiene nessun punto, allora diremo che r e parallela con senza esservi
contenuta.
Per trovare r si pu`o procedere nel seguente modo:
1. Si trova un rappresentazione parametrica di r:

x = x0 + lt
y = y0 + mt .

z = z0 + nt

(62)

2. Si sostituiscono i valori di (62) al posto delle variabili x, y e z nellequazione ax + by +


cz + d = 0 del piano .
3. Si risolve lequazione di primo grado in t cos` ottenuta. Se r e un solo punto questa
equazione ammette una ed una solo soluzione t0 la quale, sostituita al posto di t nelle
(62), da le coordinate del punto intersezione. Se r = r lequazione sar`a unidentit`a,
mentre se r = non sar`a risolubile.
Intersezione fra due rette. Siano r ed s due rette nello spazio. Consideriamo r s. Si
hanno quattro casi:
1. r s e un solo punto; allora le rette si dicono incidenti;
2. r s non contiene alcun punto e le rette non giacciono su uno stesso piano; allora r e
s si dicono sghembe;
3. r s non contiene nessun punto e r ed s giacciono su uno stesso piano; allora esse si
dicono parallele e distinte;
4. r s contiene infiniti punti; allora r s = r = s e le rette si dicono coincidenti.
Per trovare r s si pu`o procedere nel seguente modo:
a) Si trovano le equazioni parametriche delle rette

x = x0 + lt
x = x00 + l0 t0
y = y00 + m0 t0
y = y0 + mt
r)
s)

z = z00 + n0 t0
z = z0 + nt
(con lavvertenza di chiamare in modo diverso i paramentri nelle due rappresentazioni).

119

b) Si risolve il sistema lineare (nelle due incognite t e t0

x0 + lt = x00 + l0 t0
y0 + mt = y00 + m0 t0 .

z0 + nt = z00 + n0 t0
Se r s e come nel caso 1, il sistema precedente e risolubile con una sola soluzione
(t0 , t00 ). I valori di t0 e t00 , sostituiti rispettivamente al posto di t e di t0 nelle equazioni
di r ed s, forniscono le coordinate del punto intersezione fra le due rette. Nei casi 2
e 3 il sistema non ha soluzioni. Nel caso 4 il sistema ha infinite soluzioni (con una
incognita libera).
Angolo fra due rette. Langolo fra due rette dello spazio e langolo formato da due vettori
non nulli paralleli rispettivamente alle due rette (si noti che si definisce langolo fra due rette
anche se queste non sono incidenti).
Ovviamente,
esse
formano anche langolo .

se due rette formano un angolo ,


l0
l
Sia ~v = m parallelo alla retta r e sia w
~ = m0 parallelo alla retta s. Allora
n0
n
cos rs
b = cos ~vc
w
~ e quindi
cos rs
b =

ll0 + mm0 + nn0


p
.
l2 + m2 + n2 l0 2 + m0 2 + n0 2

Angolo fra due piani. Langolo fra due piani e langolo formato da due vettori non nulli
ortogonali ai due piani. Se i due piani
langolo allora essi formano pure
langolo
formano

a
a0
. Pertanto, indicato con ~v = b il vettore ortogonale al piano e con w
~ = b0
c
c0
il vettore ortogonale al piano , si ha
c =
cos

aa0 + bb0 + cc0


p
.
a2 + b2 + c2 a0 2 + b0 2 + c0 2

Angolo fra una retta ed un piano non ortogonali. Langolo fra una retta r ed un
piano non ortogonali e dato dallangolo acuto che r forma con la sua proiezione ortogonale
su , e quindi e il complementare dellangolo che unvettore
non nullo parallelo
ad r forma
l
a
con un vettore ortogonale ad . Pertanto se ~v = m //r e w
~ = b , si ha
n
c
c
sin rc
= |cos~v w|,
~ da cui
sin rc
=

|al + bm + cn|

.
a2 + b2 + c2 l2 + m2 + n2
120

23

Punti e rette improprie nello spazio

Analogamente alle coordinate omogenee nel piano introdotte nel paragrafo 20, si possono
introdurre le coordinate omogenee di un punto P nello spazio. Se P (x, y, z), allora le
coordinate omogenee di P sono date da una qualsiasi quaterna (x0 , y 0 , z 0 , t0 ) tale che t0 6= 0 e
0
0
0
x = xt0 , y = yt0 e z = zt0 .
Il punto P (x0 , y 0 , z 0 , 0), con x0 2 + y 0 2 + z 0 2 > 0, e detto punto improprio dello spazio.
Se ax + by + cz + d = 0 e lequazione del piano , allora
ax0 + by 0 + cz 0 + dt0 = 0

(63)

rappresenta lequazione di in forma omogenea.


I punti impropri dello spazio sono caratterizzati dallequazione t0 = 0 (si ricordi che
(0, 0, 0, 0) non e un punto improprio). Quindi la (63) rappresenta lequazione di un piano
proprio se a2 + b2 + c2 > 0 oppure del piano improprio se a2 + b2 + c2 = 0.
Sia ax0 + by 0 + cz 0 + dt0 = 0 lequazione del piano proprio (quindi si ha a2 + b2 + c2 > 0).
I punti impropri di si ottengono dal sistema
0
0
t =0
t =0
,
.
0
0
0
0
ax + by + cz + dt = 0
ax0 + by 0 + cz 0 = 0
Tale luogo di punti e detto la retta impropria del piano .
Sia data la retta r di equazioni
0
ax + by 0 + cz 0 + dt0 = 0
.
a0 x0 + b0 y 0 + c0 z 0 + d0 t0 = 0
Il punto improprio di r si ottiene intersecando r col piano improprio; cio`e risolvendo il sistema
0
t =0
ax0 + by 0 + cz 0 + dt0 = 0
.
(64)
0 0
a x + b0 y 0 + c0 z 0 + d0 t0 = 0

l
Se ~v = m e parallelo ad r, le sue componenti sono le prime tre coordinate del punto
n

0
a
a
0

b
b0 sono ortogonali rispettivamente
improprio di r. Infatti i vettori w
~=
ew
~ =
c
c0
ai piani ax0 + by 0 + cz 0 + dt0 = 0 e a0 x0 + b0 y 0 + c0 z 0 + d0 t0 = 0, quindi sono ortogonali a r e al
vettore ~v . Pertanto
w
~ ~v = al + bm + cn = 0,
w
~ 0 ~v = a0 l + b0 m + c0 n = 0.
Ci`o vuol dire che l, m e n soddisfano la seconda e terza equazione del sistema (64) e quindi
sono le prime tre coordinate del punto improprio di r.
121

Esempio 23.1 Determinare il punto improprio della retta r passante per i due punti P1
(1, 0, 2) e P2 = (0, 2, 1).
SVOLGIMENTO. La retta r ha equazioni
x1
y0
z2
=
=
,
01
20
1 2
da cui si ottengono le equazioni parametriche

x=1t
y = 2t
.

z = 2 3t

1
Il vettore ~v = 2 e parallelo a r. Quindi il suo punto improprio e (1, 2, 3, 0).
3
Esempio 23.2 Scrivere
lequazione del piano passante per il punto P0 (2, 0, 1) ed ortoxy =0
.
gonale alla retta r)
2x + z + 1 = 0
SVOLGIMENTO. Per determinare le componenti del vettore ~v parallelo ad r e sufficiente
scrivere le sue equazioni parametriche:

x=t
y=x
y=t
.
, r)
r)
z = 2x 1

z = 2t 1

1
Quindi ~v = 1 . Lequazione del piano cercato si ottiene scrivendo lequazione del
2
piano passante per P0 ed ortogonale al vettore ~v :

x2

1 1 2 y 0 = 0,
z (1)
1(x 2) + 1(y 0) 2(z + 1) = 0,
x + y 2z 4 = 0.
Proposizione 23.1 La retta r e parallela alla retta r0 se e solo se hanno lo stesso punto
improprio (si ricordi che in effetti un punto improprio (a, b, c, 0), a2 + b2 + c2 > 0, individua
le infinite quaterne (ka, kb, kc, 0) al variare di k R).
Il piano e parallelo al piano se e solo se le loro rette improprie coincidono.
122

Fasci di piani. Dati due piani distinti ) ax + by + cz + d = 0 e ) a0 x + b0 y + c0 z + d0 = 0,


si definisce fascio (, ) di piani la totalit`a dei piani descritti dallequazione
(ax + by + cz + d) + (a0 x + b0 y + c0 z + d0 ) = 0
al variare di , R con 2 + 2 > 0.
Proposizione 23.2 Valgono le seguenti propriet`
a:
1. Per un punto dello spazio o passa un solo piano del fascio o passano tutti i piani del
fascio.
2. Siano e 0 due piani distinti del fascio (, ). Allora (, 0 ) = (, ).
3. Siano e due piani distinti. Detta r la retta intersezione di con , il fascio (, )
e formato da tutti e soli i piani contenenti r.
Distanza fra due punti dello spazio. La distanza fra i punti P1 (x1 , y1 , z1 ) e P2
(x2 , y2 , z2 ) e
p
P1 P2 = |P1 P2 | = (x2 x1 )2 + (y2 y1 )2 + (z2 z1 )2 .
Distanza fra un punto ed un piano. La distanza fra il punto P0 (x0 , y0 , z0 ) e il piano
) ax + by + cz + d = 0 e data da
d(P0 , ) =

|ax0 + by0 + cz0 + d|

.
a 2 + b2 + c2

Proiezione ortogonale di un punto su una retta. La proiezione ortogonale del punto


P0 sulla retta r e il punto intersezione fra r e il piano passante per P0 ed ortogonale ad r.
Distanza fra un punto ed una retta. La distanza fra il punto P0 e la retta r e data dalla
lunghezza del segmento avente per estremi P0 e la proiezione ortogonale di P0 su r.

x=t
y=t .
Esempio 23.3 Calcolare la distanza fra il punto P0 (6, 0, 0) e la retta r)

z = 2t
SVOLGIMENTO. Il piano passante per P0 ed ortogonale ad r e dato da

x6

1 1 2 y 0 = 0.
z0
Quindi
) x + y + 2z 6 = 0.
Per trovare il punto P1 = r sostituiamo nellequazione di i valori di x, y e z dati nelle
equazioni di r: t + t + 2(2t) 6 = 0, da cui t= 1, quindi P
e la proiezione
1 (1, 1, 2)
ortogonale di P0 su r. Si ha d(P0 , r) = |P0 P1 | = 25 + 1 + 4 = 30.
123

Esempio 23.4 Trovare lequazione della retta r passante per P0 (2, 0, 1) ed ortogonale
al piano ) 2x + y 3z + 2 = 0.

2
SVOLGIMENTO. Il vettore ~v = 1 e ortogonale ad , quindi ~v //r. Allora lequazione
3
di r coincide con quella della retta passante per P0 e parallela a ~v . Cio`e

x = 2 + 2t
y = 0 + 1t
r)
.

z = (1) + (3)t

xy =0
e il piano ) x + y 2z 1 = 0.
2x + z + 1 = 0
Provare che r e si intersecano in un punto P0 . Determinare inoltre le equazioni della retta
s passante per P0 e il punto Q (2, 0, 1).
Esempio 23.5 Siano dati la retta r)

SVOLGIMENTO. Le coordinate di P0 sono individuate dalla soluzione del sistema

xy =0
2x + z + 1 = 0
.

x + y 2z 1 = 0

Quindi P0 16 , 16 , 23 . Le equazioni di s sono


x2
y0
z+1
= 1
= 2
.
1
6 2
6 0
3 + 1

x=1+t
y = t
Esempio 23.6 Nello spazio siano assegnati il punto P0 (1, 1, 0), la retta r)

z = 3 + 2t
e il piano ) x y + 4 = 0. Trovare, se esistono, la o le equazioni delle rette parallele ad ,
passanti per P0 ed incidenti r.
SVOLGIMENTO. Nel nostro esempio si vede subito che P0 6 , P0 6 r e r non e parallela ad
. Pertanto esiste una sola retta s parallela ad ed incidente r. Essa si ottiene intersecando
il piano passante per P0 e contenente la retta r con il piano passante per P0 e parallelo
ad .

x+y1=0
Piano . Si scrive lequazione del fascio di piani per r)
2y + z 3 = 0
(x + y 1) + (2y + z 3) = 0.
124

Si impone il passaggio per P0 : + (2 3) = 0, + 5 = 0. Possiamo quindi porre


= 5 e = 1 ottenendo
)5(x + y 1) + (1)(2y + z 3) = 0.
1
Piano . Essendo 1 ortogonale ad , otteniamo che lequazione di e
0

1 1 0 y (1) = 0,
z0
da cui x y 2 = 0.
Lequazione della retta s e cos

xy2=0
.
5x + 3y z 2 = 0

x=1+t
y = t
Esempio 23.7 Nello spazio siano assegnati il punto P0 (2, 1, 5), la retta r)

z = 3 + 2t
e il piano ) x y + 4 = 0. Trovare, se esistono, la o le equazioni delle rette parallele ad ,
passanti per P0 ed incidenti r.
SVOLGIMENTO. Nel nostro esempio si vede subito che P0 6 , P0 r (infatti se nelle
equazioni parametriche di r si pone t = 1 si ottengono le coordinate di P0 ) e r non e
parallela ad . Pertanto ogni retta s parallela ad e passante per P0 (quindi incidente r
in P0 ) e una soluzione del nostro problema. Essa si ottiene intersecando il piano passante
per P0 e parallelo ad con un
qualunque piano del fascio di piani contenente r.
1
Piano . Essendo 1 ortogonale ad , otteniamo che lequazione di e
0

1 1 0 y + 1 = 0,
z5
da cui x y 3 = 0.
Fascio di piani contenenti r: (x + y 1) + (2y + z 3) = 0.
Al variare di , R, con 2 + 2 > 0, otteniamo una retta s soluzione del nostro
problema

xy3=0
.
(x + y 1) + (2y + z 3) = 0

125


x=1+t
y = t
Esempio 23.8 Nello spazio siano assegnati il punto P0 (1, 1, 0), la retta r)

z = 3 + 2t
e il piano ) 3x + 5y + z + 7 = 0. Trovare, se esistono, la o le equazioni delle rette parallele
ad , passanti per P0 ed incidenti r.
SVOLGIMENTO.Nel nostro
esempio si vede subito che P0 6 ,
P0 6
r e r e parallela ad

1
3
(infatti il vettore 1 parallelo ad r e ortogonale al vettore 5 che e ortogonale ad
2
1
).
Leventuale soluzione s del nostro problema, dovendo essere parallela ad , deve giacere
sul piano passante per P0 e parallelo ad . Inoltre s deve essere incidente r, quindi
r 6= . Questo contraddice il fatto che ed r sono paralleli. Quindi il nostro problema
non ha soluzioni.

Proposizione 23.3 Condizione di complanarit`


a fra due rette nello spazio. Rette
sghembe. Nello spazio siano assegnate le due rette distinte
0
0
ax + by 0 + cz 0 + dt0 = 0
ax + by 0 + cz 0 + dt0 = 0
,
s)
r)
.
a0 x0 + b0 y 0 + c0 z 0 + d0 t0 = 0
a0 x0 + b0 y 0 + c0 z 0 + d0 t0 = 0
Poniamo

a
a0
A=
a
a0

b
b0
b
b0

c
c0
c
c0

d
d0
.
d
d0

Allora
1. r ed s sono complanari se e solo se det A = 0;
2. r ed s sono sghembe se e solo se det A 6= 0.
Dimostrazione. Le equazioni omogenee delle rette date sono
0
0
ax + by 0 + cz 0 + dt0 = 0
ax + by 0 + cz 0 + dt0 = 0
r)
, s)
.
0 0
0 0
0 0
0 0
ax +by +cz +dt =0
a0 x0 + b0 y 0 + c0 z 0 + d0 t0 = 0
Lintersezione r s si ricava dallo studio del seguente sistema lineare omogeneo (nelle
incognite x0 , y 0 , z 0 , e t0 )
0
ax + by 0 + cz 0 + dt0 = 0

a0 x0 + b0 y 0 + c0 z 0 + d0 t0 = 0
.
(65)
ax0 + by 0 + cz 0 + dt0 = 0

0 0
0
a x + b0 y 0 + c0 z 0 + d0 = 0
126

Ovviamente (65) ha la soluzione banale (0, 0, 0, 0) ma questa quaterna non rappresenta le


coordinate omogenee di un punto nello spazio. Come noto dalla teoria, (65) ha soluzioni
diverse dalla banale se e solo si annulla il determinante della matrice incompleta A. Quindi,
se det A = 0 le rette r ed s, essendo distinte, si intersecano in un punto proprio od improprio
(in questo secondo caso r ed s sono parallele). Se det A 6= 0 le rette sono sghembe.
Distanza fra due rette sghembe. Siano

x = x0 + lt
x = x00 + l0 t
y = y0 + mt ed s)
y = y00 + m0 t
r)

z = z0 + nt
z = z00 + n0 t
due rette sghembe. Allora esiste una ed una sola retta p, ortogonale sia ad r che ad s, che le
interseca entrambe. Se P0 e Q0 sono i punti intersezione di p con r e con s rispettivamente,
la distanza |P0 Q0 | si chiama distanza fra r ed s.
La retta p si trova nel seguente modo: si considerano il punto generico P (x0 + lt, y0 +
mt, z0 + nt) di r e il punto generico Q (x00 + l0 t0 , y00 + m0 t0 , z00 + n0 t0 ) di s (nota che nelle
coordinate di Q abbiamo cambiato nome alla variabile t)
e si impone
al vettore

0 P Q di
l
l

m0 . Quindi
m
essere ortogonale sia ad r che a s, cio`e ai due vettori ~v =
ew
~ =
n0
n
abbiamo il sistema (nelle variabili t e t0 )

(P Q) ~v = 0
.
(P Q) w
~ =0
Esso ammette ununica soluzione (t0 , t00 ). Quindi P0 (x0 + lt0 , y0 + mt0 , z0 + nt0 ) e Q0
(x00 + l0 t00 , y00 + m0 t00 , z00 + n0 t00 ).
Esempio 23.9 Siano date le rette

x=t
y=t
r)

z = 1 + 2t

x=t
y = 2t .
ed s)

z = t

Verificare che r ed s sono sghembe e determinarne la distanza.


SVOLGIMENTO. Le equazioni omogenee delle rette sono
0
0
x y0 = 0
2x + y 0 = 0
r)
ed s)
.
0
0
0
2x z t = 0
x0 + z 0 = 0
Poich`e

1 1 0 0
2 0 1 1
= 3 6= 0,
2 1
0 0
1 0
1 0
127

t t0
r ed s sono sghembe. Supposti P r e Q s, abbiamo P Q = t + 2t0 . I vettori
0

2t 1 + t
1
1

1
2 . Quindi
paralleli ad r ed s sono rispettivamente ~v =
e (w
~=
2
1

(P Q ~v = 0
(P Q) w
~ =0
diventa

1(t t0 ) + 1(t + 2t0 ) + 2(2t + t0 1) = 0


,
1(t t0 ) + (2)(t + 2t0 ) + (1)(2t + t0 1) = 0


che ha lunica soluzione 13 , o . Quindi P0 13 , 31 , 13 e Q0 (0, 0, 0). Da cui

3
d(r, s) = |P0 Q0 | =
.
3
La retta p che incontra ortogonalmente r ed s e la retta passante per P0 e Q0 . Cio`e

x = 13 t
y = x = 13 t .
p)

z = x = 13 t
Condizione di allineamento fra tre punti. I tre punti (in coordinate omogenee) P
(x0 , y 0 , z 0 , t0 ), P1 (x01 , y10 , z10 , t01 ) e P2 (x02 , y20 , z20 , t02 ) sono allineati se e solo se la matrice
0

x y0 z0 t
x01 y10 z10 t01
x02 y20 z20 t02
ha rango minore od uguale a 2.

24

Spazi vettoriali

Siano dati un insieme non vuoto V e un campo K.


Definizione 24.1 Diremo che V e uno spazio vettoriale (o lineare) sul campo K se sono
definite due operazioni
+ : V V

: KV

V,

tali che
(u, v)

u+v

che verificano le seguenti propriet`


a
128

(, u)

u = u

1. Associativa: per ogni u, v, w V , si ha u + (v + w) = (u + v) + w.


2. Commutativa: per ogni u, v V , si ha u + v = v + u.
3. Esistenza dellelemento neutro: esiste in V un elemento o V , detto vettore nullo,
tale che o + u = u + o = u per ogni u V .
4. Esistenza dellopposto: per ogni u V esiste un vettore u0 V , detto lopposto di u,
tale che u + u0 = u0 + u = o. In seguito indicheremo u0 con u.
5. Se 1 e lunit`a del campo K, allora 1u = u per ogni u V . Lelemento 1 e detto
lunit`
a nella moltiplicazione per scalari.
6. Per ogni , K e per ogni u V si ha (u) = ()u.
7. Per ogni , K e per ogni u V si ha ( + )u = u + u.
8. Per ogni K e per ogni u, v V si ha (u + v) = u + v.
Si osservi che (V, +) e un gruppo additivo commutativo con elemento neutro o. Pertanto
in uno spazio vettoriale V , lelemento neutro o e lopposto di un elemento sono unici.
Esempio 24.1 Linsieme dei vettori applicati in uno stesso punto forma uno spazio vettoriale sul campo R (si veda la Proposizione 16.1).
Esempio 24.2 Si verifica facilmente che V = M(m, n; K), linsieme delle matrici m n ad
elementi in K, con le usuali operazioni di somma fra matrici e prodotto di una matrice per
uno scalare e uno spazio vettoriale su K.
Nel caso in cui V = M(1, n; K) (V = M(m, 1; K)) gli elementi di V saranno chiamati
matrici riga (matrici colonna).
Teorema 24.1 Valgono le seguenti propriet`
a:
1. Esiste un solo vettore nullo in V .
2. Ogni vettore in V ha un solo opposto.
3. Per ogni u, v V , lequazione x + u = v ammette lunica soluzione x = v u.
4. Per ogni scalare K, si ha 0 = 0.
5. Per ogni vettore u V si ha 0u = 0.
6. Per ogni u V , si ha (1)u = u.
7. Per ogni K e per ogni u V , si ha ()u = (u) = (u).

129

8. Legge di annullamento della moltiplicazione per scalari


u = 0 = 0 oppure u = 0.
9. Leggi di cancellazione della moltiplicazione per scalari. Per ogni , K e per ogni
u, v V , si ha
u = u, u 6= 0 = ,
u = v, 6= 0 u = v.
10. Se V ha almeno un vettore non nullo e K e un insieme infinito, allora anche V e
infinito.
Dimostrazione. (Dimostrazione obbligatoria) Le (1), (2) e (3) sono diretta conseguenza del fatto che (V, +) e un gruppo additivo abeliano.
(4): Per ogni scalare K, si ha 0 = 0. Infatti 0 = (0 + 0) = 0 + 0. Da cui
0 = 0.
(5): Per ogni vettore u V si ha 0u = 0. Infatti 0u = (0 + 0)u = 0u + 0u. Da cui
0u = 0.
(6): Per ogni u V , si ha (1)u = u. Infatti (1)u + u = (1)u + 1u = (1 + 1)u =
0u = 0. Da cui la tesi.
(7): Per ogni K e per ogni u V , si ha ()u = (u) = (u). Infatti
0 = [ + ()]u = u + ()u da cui ()u = u. Inoltre 0 = [u + (u)] = u + (u).
Da cui (u) = u.
(8): Legge di annullamento della moltiplicazione per scalari
u = 0 = 0 oppure u = 0.
Infatti se = 0 la legge e provata. Se 6= 0 si ha u = (1 )u = 1 (u) = 1 0 = 0.
(9): Leggi di cancellazione della moltiplicazione per scalari. Per ogni , K e per ogni
u, v V , si ha
u = u, u 6= 0 = ,
u = v, 6= 0 u = v.
Infatti
u = u, u 6= 0 u u = 0 ( )u = 0 = 0;
u = v, =
6 0 u v = 0 (u v) = 0 u v = 0.
(10): Se V ha almeno un vettore non nullo e K e un insieme infinito, allora anche V e
infinito. Infatti sia u V , u 6= 0. Se V e finito anche{u | K} V e finito. Quindi
esisteranno 1 , 2 K con 1 6= 2 , tali che 1 u = 2 u. Questo contraddice la prima
implicazione in (9).

130

25

Sottospazi Vettoriali

Sia V uno spazio vettoriale su un campo K e sia W un sottoinsieme non vuoto di V .


Definizione 25.1 Diremo che W e un sottospazio vettoriale di V se sono soddisfatte le
seguenti condizioni:
1. Per ogni u, v W si ha u + v W .
2. Per ogni u W e per ogni K si ha u W .
Dalla precedente definizione segue immediatamente che W e un sottospazio vettoriale di
V se e solo se W e un sottoinsieme non vuoto di V che risulta essere uno spazio vettoriale su
K con la stessa somma fra vettori e lo stesso prodotto di un vettore per uno scalare definiti
per V .
Esempio 25.1 Siano V = R3 e K = R. Sia W = {(x, y, z) | (x, y, z) R3 e x + 3y 4z =
0}. Provare che W e un sottospazio vettoriale di R3 .
SVOLGIMENTO. Siano u = (x1 , y1 , z1 ) W e v = (x2 , y2 , z2 ) W . Allora

x1 + 3y1 4z1 = 0
.
x2 + 3y2 4z2 = 0
Sommando membro a membro abbiamo
(x1 + 3y1 4z1 ) + (x2 + 3y2 4z2 ) = 0,
x1 + x2 + 3(y1 + y2 ) 4(z1 + z2 ) = 0.
Da cui u + v = (x1 + x2 , y1 + y2 , z1 + z2 ) W e la 1 della Definizione 25.1 risulta provata.
Sia u W . Allora x1 + 3y1 4z1 = 0. Moltiplicando questultima equazione per R,
abbiamo x1 + 3y1 4z1 = 0. Essendo u = (x1 , y1 , z1 ) = (x1 , y1 , z1 ) W e la 2
della Definizione 25.1 risulta provata.
Esempio 25.2 Siano V = R3 e K = R. Sia W = {(x, y, z) | (x, y, z) R3 e x + 3y 4z =
2}. Verificare se W e un sottospazio vettoriale di R3 .
SVOLGIMENTO. Siano u = (3, 1, 1) e v = (6, 0, 1). Si verifica immediatamente che u, v
W . Poich`e u + v = (9, 1, 2) e 9 + 3 1 4 2 = 4 6= 2, la 1 della Definizione 25.1 risulta falsa.
Pertanto W non e un sottospazio vettoriale di W .
Si osservi che linsieme W descritto nellEsempio 25.2 non pu`o essere un sottospazio
vettoriale di V perch`e o 6 W . Come mostra il seguente esempio, o W V non implica
necessariamente che W sia un sottospazio vettoriale di V .

131

Esempio 25.3 Siano V = R3 e K = R. Sia W = {(x, y, z) | (x, y, z) R3 e x2 +3y4z =


0}. Verificare se W e un sottospazio vettoriale di R3 .
SVOLGIMENTO. Siano u = (1, 1, 1) e v = (2, 0, 1). Si verifica immediatamente che u, v
W . Poich`e u + v = (3, 1, 2) e 32 + 3 1 4 2 = 4 6= 0, la 1 della Definizione 25.1 risulta
falsa. Pertanto W non e un sottospazio vettoriale di W .
Teorema 25.1 W `e sottospazio vettoriale di V se e solo se per ogni u, v W e per ogni
, K si ha u + v W .
Dimostrazione. (Dimostrazione obbligatoria) Sia W un sottospazio vettoriale di V e
siano u, v W e , K. Per la 2 della Definizione 25.1 si ha u W e v W . Per la
1 della Definizione 25.1 si ha u + v W , cio`e la tesi.
Viceversa, supponiamo che W V verifichi la condizione u+v W per ogni u, v W
e per ogni , K. Posto = = 1 si ha u + v W , cio`e la 1 della Definizione 25.1.
Posto = 0 si ha u W , cio`e la 2 della Definizione 25.1.
Esempio 25.4 Siano V = R3 e K = R. Sia W = {(x, y, z) | (x, y, z) R3 , 2x y + z =
0 e x + 3y 4z = 0}. Provare che W e un sottospazio vettoriale di R3 .
SVOLGIMENTO. Siano u = (x1 , y1 , z1 ) W e v = (x2 , y2 , z2 ) W . Allora

2x1 y1 + z1 = 0

x1 + 3y1 4z1 = 0
.
2x2 y2 + z2 = 0

x2 + 3y2 4z2 = 0
Siano , R3 . Dal sistema precedente segue

2x1 y1 + z1 = 0

x1 + 3y1 4z1 = 0
,
2x

2 y2 + z2 = 0

x2 + 3y2 4z2 = 0
e quindi

2(x1 + x2 ) (y1 + y2 ) + z1 + z2 = 0
.
x1 + x2 + 3(y1 + y2 ) 4(z1 + z2 ) = 0

Da cui u + v = (x1 , y1 , z1 ) + (x2 , y2 , z2 ) = (x1 + x2 , y1 + y2 , z1 + z2 ) W e, per


il Teorema 25.1, W `e un sottospazio vettoriale di R3 .
Corollario 25.1 Sia W un sottospazio vettoriale dello spazio vettoriale V su K. Se
u1 , u2 , . . . , un W allora 1 u1 + 2 u2 + . . . + n un W per ogni n-upla 1 , 2 , . . . , n K.

132

Dimostrazione.
(Dimostrazione facoltativa) Per n = 1 lasserto segue dalla 2 della
Definizione 25.1. Per n = 2 lasserto segue dal Teorema 25.1. Sia n = 3. Allora 1 u1 +2 u2
W (perch`e il caso n = 2 `e stato provato), quindi per il Teorema 25.1 si ha (1 u1 + 2 u2 ) +
3 u3 W , da cui lasserto per n = 3. Cos` procedendo si prova il corollario per ogni n N,
n 4.
Teorema 25.2 Siano V uno spazio vettoriale su K e siano W1 e W2 due suoi sottospazi
vettoriali. Allora W1 W2 e un sottospazio vettoriale di V .
Dimostrazione. (Dimostrazione obbligatoria) Si osservi innanzitutto che, essendo
o W1 W2 , si ha W1 W2 6= . Siano u, v W1 W2 e , K. Allora u, v W1 e
u, v W2 e quindi, essendo W1 e W2 sottospazi vettoriali, u + v W1 e u + v W2 .
Cio`e u + v W1 W2 . Per il Teorema 25.1, si ha la tesi.
Nel seguente teorema mostriamo che, in generale, non vale per lunione di due sottospazi
un teorema analogo al Teorema 25.2.
Teorema 25.3 Sia V uno spazio vettoriale sul campo K. Siano W1 e W2 due sottospazi
vettoriali di V . Condizione necessaria e sufficiente affinch`e W1 W2 sia un sottospazio
vettoriale di V `e che W1 W2 oppure W2 W1 .
Dimostrazione. (Dimostrazione obbligatoria) Necessit`a. Supponiamo che W1 W2
sia un sottospazio vettoriale di V , W1 6 W2 e W2 6 W1 . Allora esistono u, v V tali che
u W1 , u 6 W2 , v W2 , v 6 W1 . Essendo u, v W1 W2 e avendo supposto che W1 W2
sia un sottospazio vettoriale, si ha u + v W1 W2 . Quindi u + v W1 oppure u + v W2 .
Se u + v W1 , per ogni , K si ha (u + v) + u W1 . Da cui, posto = 1 e = 1,
u + v u W1 . E ci`o contraddice il supposto v 6 W1 . Se u + v W2 , per ogni , K si
ha (u + v) + v W2 . Da cui, posto = 1 e = 1, u + v v W2 . E ci`o contraddice
il supposto u 6 W2 .
Sufficienza. Supponiamo W1 W2 (oppure W2 W1 ) allora W1 W2 = W2 (oppure
W1 W2 = W1 ). Quindi W1 W2 `e sottospazio di V .
Definizione 25.2 Sia V uno spazio vettoriale sul campo K. Dicesi combinazione lineare
dei vettori u1 , u2 , . . . , un V a coefficienti nel campo K ogni vettore del tipo 1 u1 + 2 u2 +
. . . + n un con 1 , 2 , . . . , n K.
Definizione 25.3 Sia V uno spazio vettoriale sul campo K e sia A = {u1 , u2 , . . . , un }
V . Dicesi Span(A) (spanning dellinsieme A) linsieme di tutte le combinazioni lineari dei
vettori u1 , u2 , . . . , un a coefficienti nel campo K. Cio`e
Span(A) = {1 u1 + 2 u2 + . . . + n un | 1 , 2 , . . . , n K}.

133

Si osservi che, se A = {u1 , u2 , . . . , un }, allora u1 , u2 , . . . , un Span(A). Infatti


ui = 0u1 + 0u2 + . . . + 0ui1 + 1ui + 0ui+1 + . . . + un
per ogni i = 1, 2, . . . , n.
Teorema 25.4 Sia V uno spazio vettoriale sul campo K e sia A = {u1 , u2 , . . . , un } V .
Span(A) e un sottospazio vettoriale di V che risulta minimo, rispetto allinclusione, fra tutti
i sottospazi di V che contengono A.
Dimostrazione. (Dimostrazione obbligatoria) Siano w, v Span(A). Allora esistono
i , i K, i = 1, 2, . . . , n tali che
w = 1 u1 + 2 u2 + . . . + n un ,
v = 1 u 1 + 2 u 2 + . . . + n u n .
Per ogni , K, si ha w+v = (1 u1 +2 u2 +. . .+n un )+(1 u1 +2 u2 +. . .+n un ) =
(1 + 1 )u1 + (2 + 2 )u2 + . . . + (n + n )un Span(A). Dunque Span(A) e un
sottospazio vettoriale di V . Si osservi infine che se W e un sottospazio di V e A W si ha,
per il Corollario 25.1, che ogni combinazione lineare dei vettori u1 , u2 , . . . , un appartiene a
W . Quindi Span(A) W .
Definizione 25.4 Il sottospazio vettoriale Span(A) si dice il sottospazio vettoriale generato
da A. Nel caso in cui Span(A) = V , diremo che V e finitamente generato e che A e un suo
insieme di generatori.
Si noti che V potrebbe avere altri insiemi di generatori diversi da A, per questa ragione
abbiamo detto che A e un insieme di generatori per V .
Esempio 25.5 Si consideri il sottospazio W di R3 definito nellEsempio 25.1. Abbiamo che
(x, y, z) W se e solo se x + 3y 4z = 0. Ricavando x in funzione di y e z possiamo
affermare che W = {(3y + 4z, y, z) | y, z R}. Quindi gli elementi di W sono tutti e soli
i vettori u = (3y + 4z, y, z) per ogni y, z R. Possiamo scrivere u = (3y + 4z, y, z) =
(3y, y, 0) + (4z, 0, z) = y(3, 1, 0) + z(4, 0, 1). Quindi, posto u1 = (3, 1, 0) e u2 = (4, 0, 1),
si ha W = Span({u1 , u2 }).
Teorema 25.5 Sia V uno spazio vettoriale sul campo K e siano u1 , u2 , . . . , un V .
Se Span({u1 , u2 , . . . , un1 , un }) = Span({u1 , u2 , . . . , un1 }) allora esistono
1 , 2 , . . . , n1 K tali che un = 1 u1 + 2 u2 + . . . + n1 un1 .
Viceversa, se esistono 1 , 2 , . . . , n1 K tali che un = 1 u1 + 2 u2 + . . . + n1 un1 ,
allora Span({u1 , u2 , . . . , un1 , un }) = Span({u1 , u2 , . . . , un1 }).

134

Dimostrazione. (Dimostrazione facoltativa) La prima parte del teorema e immediata conseguenza della Definizione 25.3. Proviamo la seconda parte. Si ha Span({u1 , u2 , . . . , un1 })
Span({u1 , u2 , . . . , un1 , un }). Infatti per ogni (n1)-upla 1 , 2 , . . . , n1 di elementi di K si
ha 1 u1 +2 u2 +. . .+n1 un1 = 1 u1 +2 u2 +. . .+n1 un1 +0un Span({u1 , u2 , . . . , un1 , un }).
Proviamo ora che Span({u1 , u2 , . . . , un1 , un }) Span({u1 , u2 , . . . , un1 }). Per ogni nupla 1 , 2 , . . . , n di elementi di K si ha 1 u1 + 2 u2 + . . . + n1 un1 + n un = 1 u1 +
2 u2 + . . . + n1 un1 + n (1 u1 + 2 u2 + . . . + n1 un1 ) = (1 + n 1 )u1 + (2 + n 2 )u2 +
. . . + (n1 + n n1 )un1 + Span({u1 , u2 , . . . , un1 }).
Caratterizzazioni di un sottospazio vettoriale finitamente generato. Alla luce degli
Esempi 25.1, 25.4 e 25.5 possiamo concludere che un sottospazio lineare finitamente generato
W dello spazio vettorale V sul campo K pu`o essere caratterizzato nei tre modi seguenti:
1. Mediante la, o le, sue equazioni (si vedano gli Esempi 25.1 e 25.4). Se W coincide
con tutto lo spazio V oppure con {o} (il sottospazio contenente
il solo vettore nullo)
x=0
y=0 .
le equazioni diventano, rispettivamente, 0x + 0y + 0z = 0 e

z=0
2. Mediante la descrizione dei suoi punti.
Come abbiamo visto nellEsempio 25.5 il vettore u = (3y + 4z, y, z) descrive il
sottospazio W di R3 la cui equazione e x + 3y 4z = 0.
Il sottospazio W dellEsempio 25.4 coincide con linsieme dei vettori u = (x, 2x, 74 x) al
variare di x R.
3. Mediante un insieme A di suoi generatori. Cio`e producendo un sottoinsieme A
di vettori di V tali che Span(A) = W (si veda lEsempio 25.5).
Determiniamo un insieme di generatori per il sottospazio W dell Esempio 25.4. Poich`e
u = (x, 2x, 47 x), per ogni x R, descrive i vettori di W abbiamo u = (x, 2x, 74 x) =
x(1, 2, 74 ). Pertanto W = Span({(1, 2, 74 )}).
Esempio 25.6 Siano V = R3 e K = R. Siano u1 = (1, 2, 5), u2 = (2, 4, 0), u3 = (1, 0, 1)
e u4 = (4, 8, 10). Determinare le equazioni di W1 = Span({u1 }), W2 = Span({u1 , u2 }),
W3 = Span({u1 , u2 , u3 }) e W4 = Span({u1 , u2 , u4 }).
SVOLGIMENTO. Determiniamo W1 = Span({u1 }). Il vettore u = (x, y, z) W1 se e
solo se esiste R tale che u1 = u o, equivalentemente, (1, 2, 5) = (x, y, z). Cio`e
u = (x, y, z) W1 se e solo se il seguente sistema (nella incognita e avente x, y e z come
termini noti) ammette soluzioni

=x
2 = y .

5 = z
Pertanto
135

1 x
x
1
R2 R2 2R1
2 y
0 y 2x .
R
3 R3 + 5R1
5 z
0 z + 5x
Il sistema associato a questultima matrice ha soluzioni se e solo se

y 2x = 0
.
z + 5x = 0

(66)

Il sistema (66) rappresenta le equazioni del sottospazio W1 .


Si osservi che alle (66) si poteva pervenire osservando che per ogni u W1 esiste un
R tale che u = (1, 2, 5) = (, 2, 5). Se poniamo u = (x, y, z) otteniamo x = ,
y = 2 e z = 5. Da cui, eliminando il , otteniamo (66).
Determiniamo W2 = Span({u1 , u2 }). Il vettore u = (x, y, z) W2 se e solo se esistono
1 , 2 R tali che 1 u1 + 2 u2 = u oppure, equivalentemente, 1 (1, 2, 5) + 2 (2, 4, 0) =
(x, y, z). Cio`e u = (x, y, z) W2 se e solo se il seguente sistema (nelle variabili 1 , 2 e
avente x, y e z come termini noti) ammette soluzioni

1 + 22 = x
21 + 42 = y .

51 + 02 = z
Pertanto

1 2 x
x
1 2
2 4 y R2 R2 2R1 0 0 y 2x .
5 0 z
5 0
z
Il sistema associato a questultima matrice ha soluzioni se e solo se
y 2x = 0.

(67)

La (67) rappresenta lequazione del sottospazio W2 .


Determiniamo W3 = Span({u1 , u2 , u3 }). Il vettore u = (x, y, z) W3 se e solo se esistono
1 , 2 , 3 R tali che 1 u1 + 2 u2 + 3 u3 = u oppure, equivalentemente, 1 (1, 2, 5) +
2 (2, 4, 10) + (1, 0, 1) = (x, y, z). Cio`e u = (x, y, z) W3 se e solo se il seguente sistema
(nelle variabili 1 , 2 , 3 e avente x, y e z come termini noti) ammette soluzioni

1 + 22 + 3 = x
21 + 42 + 03 = y .

51 + 02 + 3 = z
Pertanto

136

1 2 1 x
x
1 2 1
R2 R2 2R1
2 4 0 y
0 0 2 y 2x
R
3 R3 + 5R1
5 0 1 z
0 10 6 z + 5x

1 2 1
x
R3 R3 + 3R2 0 0 2
y 2x .
0 10 0 z + 3y x
Il sistema associato a questultima matrice ha per ogni terna (x, y, z), fissata arbitrariamente in R3 , una ed una sola soluzione. Pertanto W = R3 . In tal caso, non essendoci alcun
legame fra x, y e z, non si puo parlare di equazioni fra questi parametri, o, se proprio si
vuole, si ha 0x + 0y + 0z = 0.
Determiniamo W4 = Span({u1 , u2 , u4 }). Il vettore u = (x, y, z) W4 se e solo se esistono
1 , 2 , 3 R tali che 1 u1 + 2 u2 + 3 u4 = u oppure, equivalentemente, 1 (1, 2, 5) +
2 (2, 4, 10) + 3 (4, 8, 10) = (x, y, z). Cio`e u = (x, y, z) W4 se e solo se il seguente sistema
(nelle variabili 1 , 2 , 4 e avente x, y e z come termini noti) ammette soluzioni

1 + 22 + 43 = x
21 + 42 + 83 = y
.

51 + 02 103 = z
Pertanto

1 2 4
x
x
1 2 4
2 4 8
y R2 R2 2R1 0 0 0
y 2x .
5 0 10 z
5 0 10
z
Il sistema associato a questultima matrice ha soluzioni se e solo se
y 2x = 0.

(68)

La (68) rappresenta lequazione del sottospazio W2 . Si osservi che W4 = W2 . Pertanto, in


virt`
u del Teorema 25.5, u4 e combinazione lineare di u1 e u2 .
Un metodo per ottenere le equazioni di un sottospazio vettoriale di Rn qualora
sia noto un suo insieme di generatori. Se si osservano i vari casi dellEsempio 25.6, si
vede che per ottenere lequazione (o le equazioni) del sottospazio Span(A) di Rn (o pi`
u in
generale Kn ) e sufficiente procedere nel seguente modo:
1. Sia A = {u1 , u2 , . . . , um } con ui = (ui1 , ui2 , . . . , uin ), i = 1, 2, . . . , m. Il sistema lineare
(nelle variabili 1 , . . . , m )

1 u11 + 2 u21 + . . . + m um1 = x1

1 u12 + 2 u22 + . . . + m um2 = x2


...............................................

1 u1n + 2 u2n + . . . + m umn = xm


137

ha la matrice completa

u11 u21
u12 u22

u1n u2n

um1 x1
um2 x2
.


umn xn

(69)

Si noti che (69) ha come ultima colonna (quella corrisondente ai termini noti) il vettore generico (x1 , x2 , . . . , xn ) di Rn e come matrice incompleta la matrice avente come
colonne, nellordine, uT1 , uT2 , . . . , uTm .
2. Si applichi ripetutamente il metodo di riduzione per righe in modo da ottenere, alla
fine, una matrice B la cui sottomatrice formata dalle prime m colonne risulti ridotta.
3. Si eguaglino a zero gli ultimi elementi (quelli corrispondenti alla colonna dei termini
noti) delle eventuali righe di B che hanno 0 nei primi m posti. Ovviamente, se la
sottomatrice di B formata dalle prime m colonne non ha righe nulle, si ha Span(A) =
Rm .
Esempio 25.7 Siano V = R3 e K = R. Siano u1 = (2, k, 1), u2 = (k, 1, 1) e u3 = (1, 1, k).
Determinare, al variare di k R, le equazioni di W = Span({u1 , u2 , u3 }).
SVOLGIMENTO. Consideriamo la matrice

2 k 1 x
2
k
1
x
R2 R2 R1
k 1 1 y
k 2 1 k 0 y x = B.
R
3 R3 kR1
1 1 k z
1 2k 1 k 2 0 z kx
Se k = 1 abbiamo

2 1 1
x
2 1 1
x
B = 1 0 0 y x R3 R3 R2 1 0 0 y x .
1 0 0 z x
0 0 0 yz
Quindi per k = 1 lequazione di W e y z = 0 e si ha W = {(x, y, y) | x, y R}.
Sia adesso k 6= 1. Abbiamo

x
2
k
1
.
k2
1k 0
yx

2
k k + 1
0
0 x (1 + k)y + z

B R3 R3 (1 + k)R2
Quindi:

Se k 2 k + 1 6= 0 e k 6= 1, il sottospazio W coincide con R3 , cio`e W = {(x, y, z) |


x, y, z R}.
138

Se k 2 k + 1 = 0, cio`e k =

1 5
,
2

lequazione di W e

1 5
x
y+z =0
2
n

o
1 5
e si ha W =
y

z,
y,
z
|
y,
z

R
.
2
Definizione 25.5 Sia V uno spazio vettoriale su K e siano W1 e W2 due suoi sottospazi.
Si dice somma di W1 con W2 il sottoinsieme W1 + W2 di V cos` definito
W1 + W2 = {u + v | u W1 , v W2 }.
Teorema 25.6 La somma W1 + W2 di due sottospazi vettoriali di V e ancora un sottospazio
di V . Inoltre, W1 + W2 e il minimo (rispetto allinclusione) tra tutti i sottospazi di V che
contengono W1 W2 .
Dimostrazione.
(Dimostrazione facoltativa) Siano u, v W1 + W2 . Allora esistono
u1 , v1 W1 e u2 , v2 W2 tali che u = u1 + u2 e v = v1 + v2 . Se , K, si ha
u + v = (u1 + u2 ) + (v1 + v2 ) = (u1 + v1 ) + (u2 + v2 ) che appartiene a W1 + W2
in quanto u1 + v1 W1 e u2 + v2 W2 .
Sia W un sottospazio di V contenente W1 W2 . Proviamo che W1 + W2 W . Infatti,
se u W1 + W2 , esistono u1 W1 e u2 W2 per cui u = u1 + u2 . Allora u1 , u2 W1 W2
ed, essendo W un sottospazio di V contenente W1 W2 , si ha u1 + u2 W .
Si osservi che ogni vettore u1 W1 (u2 W2 ) appartiene alla somma W1 + W2 . Infatti
u1 = u1 + o con u1 W1 e o W2 (u2 = o + u1 con o W1 e u2 W2 ).
Definizione 25.6 La somma fra due sottospazi W1 e W2 di V si dice diretta, e si scrive
W1 W2 (invece di W1 + W2 ) se W1 W2 = {o}. In tal caso i sottospazi W1 e W2 si dicono
complementari.
Teorema 25.7 Ogni vettore v W1 W2 si esprime in uno e un sol modo come somma di
un vettore di W1 pi`
u un vettore di W2 . Cio`e esiste una e una sola coppia di vettori w1 W1
e w2 W2 tali che v = w1 + w2 .
Dimostrazione. (Dimostrazione facoltativa) Per definizione di somma diretta esiste sicuramente almeno una coppia (w1 , w2 ) W1 W2 tale che v = w1 + w2 . Supponiamo esista
unaltra coppia (u1 , u2 ) W1 W2 tale che v = u1 + u2 . Allora w1 + w2 = u1 + u2 , da cui
w1 u1 = u2 w2 W1 W2 , essendo w1 u1 W1 e u2 w2 W2 . Poich`e W1 W2 = {o},
segue w1 = u1 e w2 = u2 , cio`e (u1 , u2 ) = (w1 , w2 ).
Esempio 25.8 Siano V = R4 e K = R. Siano W1 = {(x, y, z, t) R4 | x + y z + t =
2x + 3y + z + 3t = 0} e W2 = {(x, y, z, t) R4 | 2x y + z t = x + y + 3z + t = 0}.
139

Determinare W1 +W2 e W1 W2 mediante la descrizione dei punti, le equazioni ed un insieme


dei generatori. Dire inoltre se la somma W1 + W2 `e diretta.
SVOLGIMENTO. Determiniamo i punti di W1 . Risolvendo il sistema

x+yz+t=0
,
2x + 3y + z + 3t = 0

otteniamo W1 = 43 y 34 t, y, 13 y 31 t, t | y, t R . Analogamente, risolvendo il sistema

2x y + z t = 0
,
x + y + 3z + t = 0

otteniamo W2 = 43 z, 35 z t, z, t | z, t R . Determiniamo i punti di W1 + W2 mediante la Definizione


25.5:

4

W1
+ W2 = 3 y 43 t, y, 31 y 13 t, t + 43 z, 53 z t, z, t | y,t, z, t R =
= 34 y 43 t 43 z, y 53 z t, 13 y 13 t + z, t + t | y, t, z, t R .
Si osservi che abbiamo cambiato nome alle variabili del punto generico di W2 (perch`e?).
4

5
1
4
4
1
Essendo

z,
y

t,

z,
t
+
t
=
y

t
+
3

3
3
3
43 5 3
= 43 , 1, 13 , 0 y + 43 , 0, 31 , 1 t +

,
1,
0
z
+
(0,
1,
4 3 31
4 0,51) t,
1
4
i vettori u1 = 3 , 1, 3 , 0 , u2 = 3 , 0, 3 , 1 , u3 = 3 , 3 , 1, 0 e u4 = (0, 1, 0, 1)
formano un insieme di generatori di W1 + W2 .
Determiniamo le equazioni di W1 + W2 :
4

4
0
3 43 43 0 x
3 43 43
x
4
5
4
32
4
1

R
+
R
R

3 x + 43 y
1
2
3 2
9
1 01 3 1 y
0 3 16


0
1
0 z R3 4R3 + R1
0 3
0 x 4z
3
3
0
1
0
1 t
0
1
0
1
t
4

0
x
3 43 43
0 4 32 4

x + 43 y
3
9
3

R4 43 R4 + R1 + 43 R2
16
0

0 3
0
x 4z
32
4
4
0
0 9
0 3t + x + 3y

4
0
x
3 43 43

0 4 32 4
x + 43 y
32
3
9
3
.

R
R4 16

4
3
16
3
9

0
0 3
0
x 4z

2048 y
t
0
0
0
0 27 3 + z + 3
Quindi lequazione di W1 + W2 `e

y
3

+z+

t
3

= 0.

140

Le equazioni di W1 W2 sono

x+yz+t=0

2x + 3y + z + 3t = 0
.
2x y + z t = 0

x + y + 3z + t = 0
Per determinare i

1 1 1
2 3
1

2 1 1
1 1
3

punti

1
3

1
1

di W1 W2 risolviamo il sistema omogeneo

1 1 1 1
R2 R2 2R1
0 1
3
1
R3 R3 2R1
0 3 3 3
R4 R4 + R1
0 0 4 0

R3 R3 + 3R2

R4 3R4 + R3

1
0

0
0

1
0

0
0

(70)

(70):

1 1 1
1 3 1

0 12 0
0 4 0

1 1 1
1 3 1
.
0 12 0
0 0 0

Quindi W1 W2 = {(0, t, 0, t) | t R} e (0, 1, 0, 1) `e lunico generatore di W1 W2 .


Essendo W1 W2 6= {o}, la somma W1 + W2 non `e diretta. Si osservi infine che le equazioni
(70) di W1 W2 possono scriversi, pi`
u semplicemente,

x=0
z=0
.

y+t=0

26

Base e dimensione di uno spazio vettoriale

Definizione 26.1 Sia V uno spazio vettoriale su un campo K. Gli n 1 vettori u1 , u2 , . . . , un


di V si dicono linearmente dipendenti se esistono n scalari 1 , 2 , . . . , n K non tutti nulli
tali che
1 u1 + 2 u2 + . . . + n un = o.
Definizione 26.2 Sia V uno spazio vettoriale su un campo K. Gli n 1 vettori u1 , u2 , . . . , un
di V si dicono linearmente indipendenti se
1 u1 + 2 u2 + . . . + n un = o,
con 1 , 2 , . . . , n K, implica
1 = 2 = . . . = n = 0.
141

Esempio 26.1 Nello spazio vettoriale R4 sul campo R, determinare la lineare dipendenza o
indipendenza dei vettori u = (1, 2, 3, 4), u2 = (3, 1, 3, 3) e u3 = (2, 0, 0, 1).
SVOLGIMENTO. In base alle Definizioni 26.1 e 26.2 bisogna verificare se lequazione vettoriale
1 u1 + 2 u2 + 3 u3 = o
nelle variabili reali 1 , 2 e 3 ammette solamente la soluzione banale (1 , 2 , 3 ) = (0, 0, 0)
(in questo caso u1 , u2 e u3 risultano linearmente indipendenti) oppure altre soluzioni oltre la
banale (in tal caso u1 , u2 e u3 risultano linearmente dipendenti). La precedente equazione
equivale al seguente sistema omogeneo:

1 + 32 + 23 = 0

21 2 = 0
.
31 + 32 = 0

41 + 32 + 3 = 0
Pertanto

1
3
2 1

3 3
4
3

1 3
2 1

0 3
0 13

2
1
3

0
2 1
R4 2R4 + R1
3 3
0
1
7 3

2
1 3 2
2 1 0
0
R4 3R4 + 13R3
0 3 0
0
0
0 0 0

2
0
R3 2R3 + 3R2
0 R4 2R4 + 7R2
0

Poich`e il numero delle incognite coincide col numero degli elementi speciali, il sistema
omogeneo ha la sola soluzione banale. Quindi i tre vettori dati sono linearmente indipendenti.
Esempio 26.2 Nello spazio vettoriale R4 sul campo R, determinare se i vettori u1 = (1, 2, 3, 4),
u2 = (3, 1, 3, 3) e u3 = (12, 3, 0, 21) sono linearmente dipendenti o indipendenti.
SVOLGIMENTO. In base alle Definizioni 26.1 e 26.2 bisogna verificare se lequazione vettoriale
1 u1 + 2 u2 + 3 u3 = o
nelle variabili reali 1 , 2 e 3 ammette solamente la soluzione banale (1 , 2 , 3 ) = (0, 0, 0)
(in questo caso u1 , u2 e u3 risultano linearmente indipendenti) oppure altre soluzioni oltre la
banale (in tal caso u1 , u2 e u3 risultano linearmente dipendenti). La precedente equazione
equivale al seguente sistema omogeneo:

1 + 32 + 123 = 0

21 2 + 33 = 0
.
31 + 32 = 0

41 + 32 + 213 = 0
142

Pertanto

1
3
2 1

3 3
4
3

1 3 12
7 0 21

0 0 0
0 0 0

12
1
R2 3R2 + R1

3
7
R3 R3 R1
4
0
R4 R4 R1
21
3

3 12
0 21
R3 7R3 + 4R2
0 12 R4 7R4 3R2
0 9

Poich`e il numero delle incognite e maggiore del numero degli elementi speciali, il sistema
omogeneo ha infinite soluzioni. Quindi i tre vettori dati sono linearmente dipendenti.
Teorema 26.1 Un vettore u V e linearmente dipendente se e soltanto se u = o.
Dimostrazione. (Dimostrazione obbligatoria) Se u = o allora 1u = 1o = o, essendo
1 lelemento unit`a del campo K. Quindi u = o e linearmente dipendente. Viceversa sia u
linearmente dipendente. Esiste allora K, 6= 0, tale che u = o. Ne segue u = o per la
legge di annullamento della moltiplicazione per scalari.
Teorema 26.2 Sia V uno spazio vettoriale su K e siano u1 , u2 , . . . , un V . Se m vettori fra
di essi (con 1 m < n) sono linearmente dipendenti, allora tutti i vettori sono linearmente
dipendenti.
Dimostrazione. Supponiamo, senza perdere la generalit`a che u1 , u2 , . . . , um siano linearmente dipendenti. Allora esistono 1 , 2 , . . . , m K non tutti nulli (cio`e (1 , 2 , . . . , m ) 6=
(0, 0, . . . , 0)) tali che 1 u1 + 2 u2 + . . . + m um = o. Ne segue
1 u1 + 2 u2 + . . . + m um + 0um+1 + . . . + 0un = o
con (1 , 2 , . . . , m , 0, . . . , 0) 6= (0, 0, . . . , 0). Pertanto u1 , u2 , . . . , un sono linearmente dipendenti.
Dal teorema precedente segue facilmente il seguente corollario.
Corollario 26.1 Se n vettori sono linearmente indipendenti allora m vettori qualunque fra
essi (con 1 m n) sono linearmente indipendenti.
Teorema 26.3 Condizione necessaria e sufficiente affinch`e n 2 vettori u1 , u2 , . . . , un
V siano linearmente dipendenti e che almeno uno fra essi sia combinazione lineare dei
rimanenti.

143

Dimostrazione.
(Dimostrazione facoltativa) Condizione necessaria. Se u1 , u2 , . . . , un
sono linearmente dipendenti, allora esistono 1 , 2 , . . . , n K non tutti nulli tali che
1 u1 + 2 u2 + . . . + n un = o. Senza ledere la generalit`a, possiamo supporre che sia 1 6= 0.
Allora, risolvendo rispetto ad u1 , si ha u1 = (1 )1 2 u2 (1 )1 3 u3 . . . (1 )1 n un ,
cio`e u1 e combinazione lineare dei vettori u2 , u3 , . . . , un .
Condizione sufficiente. Supponiamo che uno degli n vettori, ad esempio u1 , sia combinazione lineare dei rimanenti, cio`e u1 = 2 u2 +3 u3 +. . .+n un . Allora (1)u1 +2 u2 +3 u3 +
. . . + n un = o con (1, 2 , . . . , n ) 6= (0, 0, . . . , 0). Quindi u1 , u2 , . . . , un sono linearmente
dipendenti.
Presentiamo adesso un metodo pratico che permetta di individuare in un insieme di
vettori di Kn un sottoinsieme linearmente indipendente di cardinalit`a massima. Questo
metodo si basa sui due seguenti teoremi.
Teorema
Sia = {v1 , v2 , . . . , vm } un insieme di vettori di Kn tali che la matrice
T 26.4
T
T
A = v1 | v2 | . . . | vm
risulti ridotta per righe. Allora i vettori corrispondenti alle colonne
contenenti gli elementi speciali sono linearmente indipendenti e, supposto che il loro numero
sia , contiene al massimo vettori linearmente indipendenti.
Dimostrazione. (Dimostrazione facoltativa) Senza ledere la generalit`a, possiamo pensare
che v1T , v2T , . . . , vT siano le colonne di A contenenti gli elementi speciali (si noti che ogni
colonna di A contiene
u un elemento
al pi`
speciale, quindi m).
La matrice B = v1T | v2T | . . . | vT , anchessa ridotta per righe, pu`o essere vista come la
matrice incompleta di un sistema lineare omogeneo avente n equazioni e incognite. Poich`e
il numero di incognite coincide con quello degli elementi speciali il sistema ha la sola soluzione
banale. In altre parole lequazione vettoriale 1 v1 + 2 v2 + . . . + v = o, nelle variabili
1 , . . . , , ha la sola soluzione banale 1 = 2 = . . . = = 0. Pertanto v1 , v2 , . . . , v sono
linearmente indipendenti.
Se < m, A contiene (oltre alle colonne v1T , v2T , . . ., vT ) m colonne nelle quali
non
T
T
T
T
T
appaiono elementi speciali. Sia v una di esse. Allora B = v1 | v2 | . . . | v | v pu`o
essere vista come la matrice completa di un sistema lineare di n equazioni in incognite
avente vT come colonna dei termini noti e v1T | v2T | . . . | vT come matrice incompleta.
Pertanto il sistema non omogeneo associato a B ha una ed una sola soluzione. Supposto
che essa sia (1 , 2 , . . . , ), abbiamo 1 v1 + 2 v2 + . . . + v = v), cio`e v e combinazione
lineare dei vettori v1 , v2 , . . . , v . Ripetendo il ragionamento per ognuna delle m colonne
di A non contenenti elemento speciale si ha la tesi.
Esempio 26.3 Siano assegnati i vettori di R5 v1 = (1, 0, 0, 0, 0), v2 = (2, 0, 3, 0, 0), v3 =
(3, 0, 4, 0, 0), v4 = (4, 0, 4, 0, 0), v5 = (5, 0, 4, 1, 0) e v6 = (6, 0, 4, 1, 0). Abbiamo

144


A=

v1T

v2T

v3T

v4T

v5T

v6T

1
0
0
0
0

2
0
3
0
0

3
0
4
0
0

4
0
4
0
0

5
0
4
1
0

6
0
4
1
0

Nella matrice precedente abbiamo sottolineato gli elementi speciali (si noti che nella
prima riga si ha una sola possibilit`a di scelta per lelemento speciale,
T mentre
nella terza riga
T
T
si hanno tre possibilit`a e, nella quarta, due). La matrice B = v1 | v2 | v5 , formata dalle
colonne di A contenenti gli elementi speciali, equivale al seguente sistema lineare omogeneo
(si osservi che la seconda e quarta equazione potrebbero essere omesse)

x1 + 2x2 + 5x3 = 0

0x1 + 0x2 + 0x3 = 0


3x2 + 4x3 = 0
(71)

x
=
0

3
0x1 + 0x2 + 0x3 = 0
la cui unica soluzione e (x1 , x2 , x3 ) = (0, 0, 0). Cio`e
x1 v1 + x2 v2 + x3 v5 = o se e solo se x1 = x2 = x3 = 0.
Quindi v1 , v2 e v5 sono linearmente indipendenti.
Si consideri ora una colonna di A che non contiene elementi speciali, per esempio v4T .
Formiamo la matrice

1 2 5 4

T
0 0 0 0
T
T
T

C = v1 | v2 | v5 | v4 =
0 3 4 4 .
0 0 1 0
0 0 0 0
Essa equivale al seguente sistema lineare non omogeneo

x1 + 2x2 + 5x3 = 4

0x1 + 0x2 + 0x3 = 0


0x1 + 3x2 + 4x3 = 4

0x1 + 0x2 + x3 = 0

0x1 + 0x2 + 0x3 = 0


che ha come unica soluzione (x1 , x2 , x3 ) = ( 43 , 43 , 0) 6= (0, 0, 0), quindi
4
4
4
4
v4 = (4, 0, 4, 0, 0) = (1, 0, 0, 0, 0) + (2, 0, 3, 0, 0) + 0(5, 0, 4, 1, 0) = v1 + v2 + 0v5
3
3
3
3
e combinazione lineare di v1 , v2 e v5 .
Analogamente si pu`o dimostrare che v3 e v6 sono combinazioni lineare di v1 , v2 e v5 .
145

Il Teorema 26.4 permette di individuare in Kn un sottoinsieme linearmente indipendente di cardinalit`a massima solo nellipotesi che la matrice A avente come colonne i vettori
di sia ridotta per righe. Come procedere quando A non e ridotta? La risposta a questa
domanda si ottiene facilmente dal seguente teorema.
Teorema 26.5 I vettori
u1 = (a11 , a21 , . . . , an1 ),
u2 = (a12 , a22 , . . . , an2 ),
..............................
um = (a1m , a2m , . . . , anm )
sono linearmente indipendenti se e solo se, comunque fissati , K, con 6= 0, e comunque
scelti i, j {1, 2, . . . , n} con i 6= j,
v1 = (a11 , . . . , a(i1)1 , ai1 + aj1 , a(i+1)1 , . . . , an1 ),
v2 = (a12 , . . . , a(i1)2 , ai2 + aj2 , a(i+1)2 , . . . , an2 ),
.............................................................................
vm = (a1m , . . . , a(i1)m , aim + ajm , a(i+1)m , . . . , anm )
sono linearmente indipendenti.
Dimostrazione. (Dimostrazione facoltativa) Ovviamente u1 , u2 , . . . , um sono linearmente
indipendenti se e solo se il sistema lineare omogeneo

a11 x1 + a12 x2 + . . . + a1m xm = 0

a21 x1 + a22 x2 + . . . + a2m xm = 0


(72)
...........................

an1 x1 + an2 x2 + . . . + anm xm = 0


ammette la sola soluzione banale.
Per il Teorema 11.1, (72) equivale al seguente

a11 x1 + a12 x2 + . . . + a1m xm = 0

...........................

a(i1)1 x1 + a(i1)2 x2 + . . . + a(i1)m xm = 0


(ai1 + aj1 )x1 + (ai2 + aj2 )x2 + . . . + (aim + ajm )xm = 0

a(i+1)1 x1 + a(i+1)2 x2 + . . . + a(i+1)m xm = 0

...........................

an1 x1 + an2 x2 + . . . + anm xm = 0

(73)

il quale ha solamente la soluzione banale se e solo se v1 , v2 , . . . , vm sono linearmente indipendenti.


Riassumiamo quanto detto sopra nel seguente metodo per individuare il massimo
numero di vettori linearmente indipendenti in un sottoinsieme A di Kn .
146

Dato linsieme di vettori = {v1 , v2 , . . . , vm } Kn si pu`o determinare un sottoinsieme


di massima cardinalit`a di di vettori linearmente indipendenti nel seguente modo:

T
1. si formi la matrice A = v1T | v2T | . . . | vm
;
2. si riduca per righe A e si fissino gli elementi speciali nella matrice ridotta B;
3. si considerino le colonne di A che corrispondono, nella matrice ridotta B, alle
colonne contenenti gli elementi speciali. Ovviamente esse individuano un sottoinsieme
di . Esso costituisce un sottoinsieme di cardinalit`a massima di vettori linearmente
indipendenti di .
Esempio 26.4 Sia = {v1 , v2 , v3 , v4 , v5 } R5 , essendo v1 = (1, 2, 1, 3, 1),
v2 = (1, 1, 1, 0, 0), v3 = (1, 1, 0, 1, 1), v4 = (1, 2, 2, 4, 2) e v5 = (0, 0, 1, 1, 1).
Determinare un sottoinsieme linearmente indipendente di avente massima cardinalit`
a.
SVOLGIMENTO. Consideriamo la matrice

1 1 1
1
0

0
R2 R2 R1
T
2 1 1 2
T
T
T
T

A = v1 | v2 | v3 | v4 | v5 = 1 1 0 2 1

3
0
1
4
1 R3 R3 R1
1
0
1
2
1

1 1 1
1
0
R3 R3 + 2R2
1
0
0
1
0

A1 = 2 0 1 3 1 R4 R4 3R2
3
0
1
2
1 R5 R5 R2
1
0
1
2
1

1 1 1
1 1 1
1
0

1 0

0
0
1
0 R R +R
1 0

4
4
3

0
0
1
0
0
1
1
1

A
=
A2 =
3

0 0
0 0
0
1
1
1 R5 R5 + R3
0 0
1
1
1
0 0
0

1
0
1
0

1 1
.
0
0
0
0

Sia linsieme dei vettori corrispondenti alle colonne di A3 . Per il Teorema 26.4, i
vettori corrispondenti alle prime tre colonne di A3 formano un sottoinsieme linearmente
indipendente di avente cardinalit`a massima. Per il Teorema 26.5, i vettori corrispondenti
alle prime tre colonne di A2 sono linearmente indipendenti mentre quelli rimanenti sono una
loro combinazione lineare. Applicando di nuovo il Teorema 26.5 alle matrici A2 e A1 e poi
A1 ed A, otteniamo che i vettori corrispondenti alle prime tre colonne di A formano un
sottoinsieme linearmente indipendente di avente cardinalit`a massima.
Corollario 26.2 Il massimo numero di vettori linearmente indipendenti nello spazio vettoriale Kn e n.
147

Dimostrazione. (Dimostrazione facoltativa) Cominciamo col provare che in Kn si hanno


al pi`
u n vettori linearmente indipendenti.
Infatti siano u1 , u2 , . . . um Kn con m n.

La matrice A = uT1 | . . . | uTm ha n righe. Pertanto la matrice ridotta da essa ottenuta


contiene al pi`
u n elementi speciali (si ricordi che ogni riga pu`o avere al massimo un solo
elemento speciale). Come abbiamo visto il numero degli elementi speciali della matrice
ridotta di A coincide con la cardinalit`a massima di un sottoinsieme linearmente indipendente
di {u1 . . . , um }.
Proviamo ora che Kn contiene n vettori linearmente indipendenti. Poniamo (si ricordi
che 1 indica lelemento unit`a del campo K):
e1 = (1, 0, 0, . . . , 0, 0) Kn ,
e2 = (0, 1, 0, . . . , 0, 0) Kn ,
e3 = (0, 0, 1, . . . , 0, 0) Kn ,
..............................
en1 = (0, 0, 0, . . . , 1, 0) Kn ,
en = (0, 0, 0, . . . , 0, 1) Kn .

Ovviamente la matrice A = eT1 | . . . | eTn risulta ridotta e contiene n elementi speciali


(gli unici che in essa sono diversi dallo 0). Quindi linsieme {e1 , . . . , en } e linearmente
indipendente.
Definizione 26.3 Definizione di base. Sia V uno spazio vettoriale finitamente generato
su un campo K. Un sottoinsieme finito B di V e detto base di V se soddisfa le seguenti
propriet`
a:
1. B e un insieme di generatori di V , cio`e Span(B) = V ;
2. B e linearmente indipendente.
Nello spazio Kn i vettori e1 . . . , en definiti nella dimostrazione del Corollario 26.2 formano
una base di Kn .
Enunciamo i seguenti importanti teoremi di cui omettiamo, in questo contesto, la dimostrazione.
Teorema 26.6 Sia A un insieme finito di generatori di uno spazio vettoriale V 6= {o} e sia
H un sottoinsieme di A linearmente indipendente. Allora esiste almeno una base B di V
tale che H B A.
Il seguente teorema permette di estendere un qualsiasi sottoinsieme linearmente indipendente H di uno spazio vettoriale finitamente generato V ad una base di V .

148

Teorema 26.7 Sia V uno spazio vettoriale su un campo K avente una base B = {u1 , u2 , . . . , un }.
Se v1 , v2 , . . . , vh , h n, sono h vettori linearmente indipendenti, allora si pu`o costruire una
nuova base di V aggiungendo a v1 , v2 , . . . , vh n h vettori opportunamente scelti in B.
Dal Teorema 26.7 segue in particolare, per h = n, il seguente corollario
Corollario 26.3 Se uno spazio vettoriale V ammette una base formata da n vettori, allora
ogni sottoinsieme di n vettori linarmente indipendenti di V e una base di V .
Teorema 26.8 Sia V uno spazio vettoriale su un campo K avente una base formata da n
vettori. Allora valgono le seguenti propriet`
a:
1. Ogni sottoinsieme di V linearmente indipendente ha cardinalit`
a minore od uguale ad
n.
2. Qualsiasi base di V possiede n vettori.
3. Ogni insieme di generatori di V , formato da n vettori, e linearmente indipendente.
La propriet`a 2 del Teorema 26.8 giustifica la seguente importante definizione.
Definizione 26.4 Sia V 6= {o} uno spazio vettoriale finitamente generato su un campo K.
Si dice dimensione di V , e si indica con dim V , la cardinalit`
a di una qualsiasi base di V . Se
V = {o}, si pone dim {o} = 0.
Esempio 26.5 Siano assegnati i vettori di R4 v1 = (2, 3, 1, 4), v2 = (0, 1, 1, 2), v3 =
(2, 9, 4, 2), v4 = (1, 1, 2, 2), v5 = (5, 14, 8, 2) e v6 = (1, 0, 1, 0). Determinare un suo sottoinsieme linearmente indipendente di cardinalit`
a massima e verificare se esso e una base di
4
R.
SVOLGIMENTO. Applichiamo il metodo illustrato precedentemente.

2 0 2 1 5 1
3 1 9 1 14 0

A = v1T | v2T | v3T | v4T | v5T | v6T =


1 1 4 2 8 1
4 2 2 2 2 0

2 0 2 1 5 1
3 1 9 1 14 0 R3 R3 R2

1 1 2 1 3 0 R4 R4 2R2
1 2 2 2 2 0

2 0 2 1 5 1
2 0
3 1 9 1 14 0
3 1

4 0 7 0 11 0 R4 5R3 2R4 4 0
10 0 16 0 26 0
0 0
149

Sia

R3 R3 R1

2
9
7
3

1 5 1
1 14 0
.
0 11 0
0 3 0

Nella matrice precedente abbiamo sottolineato gli elementi speciali. Pertanto un sottoinsieme linearmente indipendente di {v1 , . . . , v6 } di cardinalit`a massima e = {v1 , v3 , v4 , v6 }.
Per i Corollari 26.2 e 26.3, e una base di R4 . Ovviamente si ha Span() = R4 .
Esempio 26.6 Siano assegnati i vettori di R4 v1 = (2, 3, 1, 4), v2 = (0, 1, 1, 2), v3 =
(2, 6, 4, 2), v4 = (4, 10, 6, 0), v5 = (4, 9, 5, 2) e v6 = (4, 11, 7, 2). Determinare un suo
sottoinsieme linearmente indipendente di cardinalit`
a massima e verificare se esso e una base
di R4 .
SVOLGIMENTO. Applichiamo il metodo illustrato precedentemente. Sia

2 0 2 4 4 4
R2 R2 3R1
3 1 6 10 9 11
T
T
T
T
T
T

A = v1 | v2 | v3 | v4 | v5 | v6 =
1 1 4 6 5 7 R3 R3 2R1
R4 R4 R1
4 2 2 0 2 2

2 0 2 4
4
4
3 1 0 2 3 1 R3 R3 R2

5 1 0 2 3 1 R4 R4 2R2
2 2 0 4 6 2

2 0 2 4
4
4
2 0 2 4
4
4
3 1 0 2 3 1

R4 R4 + 4R3 3 1 0 2 3 1 .
2 0 0 0
2 0 0 0
0
0
0
0
8 0 0 0
0
0
0 0 0 0
0
0
Nella matrice precedente abbiamo sottolineato gli elementi speciali. Pertanto un sottoinsieme linearmente indipendente di {v1 , . . . , v6 } di cardinalit`a massima e = {v1 , v2 , v3 }.
Per i Corollari 26.2 e 26.3, non e una base di R4 .
Cerchiamo Span(). Usando le precedenti riduzioni, il sistema associato alla matrice

2 0 2 x
3 1 6 y

1 1 4 z
4 2 2 t
si riduce a

2
3

2
0

0
1
0
0

2
x

0
y 3x
.

zy+x
0
0 9x 6y + 4z + t

Pertanto lequazione di Span() e 9x 6y + 4z + t = 0 (cio`e (x, y, z, t) Span() se e solo


se 9x 6y + 4z + t = 0). Si osservi inoltre che i vettori v1 , v2 e v3 non generano R4 . Infatti,
per esempio, (0, 0, 0, 1) R4 ma (0, 0, 0, 1) 6 Span().

150

Il seguente teorema, di cui omettiamo la dimostrazione, permette di determinare le


dimensioni dei sottospazi somma e somma diretta.
Teorema 26.9 (Formula di Grassmann) Sia V uno spazio vettoriale finitamente generato
su un campo K. Se W1 e W2 sono due sottospazi vettoriali di V , allora
dim (W1 + W2 ) + dim (W1 W2 ) = dim W1 + dim W2 .
Corollario 26.4 Sia V uno spazio vettoriale finitamente generato su un campo K. Se W1
e W2 sono due sottospazi vettoriali di V tali che W1 W2 = {o}, allora
dim (W1 W2 ) = dim W1 + dim W2 .
Esempio 26.7 Siano V = R4 , W1 = {(x, y, z, t) | (x, y, z, t) R4 , x + y + z = 0, y + 2z + t =
0} e W2 = Span({u1 = (4, 1, 0, 4), u2 = (3, 0, 2, 1), u3 = (9, 3, 2, 11)}). Determinare basi e
dimensioni di W1 , W2 , W1 + W2 e W1 W2 .
SVOLGIMENTO. Cerchiamo dim W1 . Si ha W1 = {(yz, y, z, y2z) | y, z R}. Essendo (y z, y, z, y 2z) = (y, y, 0, y)+(z, 0, z, 2z) = y(1, 1, 0, 1)+z(1, 0, 1, 2),
abbiamo W1 = Span({v1 = (1, 1, 0, 1), v2 = (1, 0, 1, 2)}). Poich`e

1 1
1 1
1 1
1

R2 R2 + R1 0 1 R3 R3 + R2 0 1 ,
0
0
0
1 R4 R4 R1
1 R4 R4 R2
0
1 2
0 1
0
0
{v1 , v2 } e linearmente indipendente e quindi, generando W1 , ne costituisce una base. Abbiamo cos` dim W1 = 2.
Consideriamo W2 . Poich`e

4 3 9
4 3
9
1 0 3 R2 4R2 R1
0 3 3

0 2 2 R4 R4 R1 0 2 2
4 1 11
0 2 2

4 3 9
0 3 3

0 0 0 ,
0 0 0

R3 3R3 + 2R2

R4 3R4 2R2

i vettori u1 e u2 sono linearmente indipendenti mentre u3 e combinazione lineare di u1 e u2 .


Quindi {u1 , u2 } e una base di W2 e dim W2 = 2.
Consideriamo ora W1 +W2 . Abbiamo che w W1 +W2 se e solo se esistono 1 , 2 , 1 , 2
R tali che w = 1 v1 + 1 v2 + 2 u1 + 2 u2 . Infatti w W1 + W2 se e solo se esistono x W1
151

e y W2 tali che w = x + y. Essendo {v1 , v2 } una base di W1 e {u1 , u2 } una base di W2 ,


abbiamo lasserto.
Quindi W1 +W2 = Span({v1 , v2 , u1 , u2 }). Una base di W1 +W2 sar`a data dal sottoinsieme
linearmente indipendente di {v1 , v2 , u1 , u2 } avente cardinalit`a massima. Per determinarlo
basta ridurre la matrice

1 1 4 3
1 1 4 3
1

0 1 0

R2 R2 + R1 0 1 5 3 R4 R4 + R3
0
0
1 0 2 R4 R4 R1
1 0 2
1 2 4 1
0 1 0 2

1 1 4 3
0 1 5 3
.

0
1 0 2
0
0 0 0
Allora W1 +W2 = Span({v1 , v2 , u1 , u2 }) = Span({v1 , v2 , u1 }). Quindi {v1 , v2 , u1 } e una
base di W1 + W2 e dim (W1 + W2 ) = 3.
Consideriamo infine W1 W2 . Per la formula di Grassmann,
dim (W1 + W2 ) + dim (W1 W2 ) = dim W1 + dim W2 ,
3 + dim (W1 W2 ) = 2 + 2,
dim (W1 W2 ) = 1.
Le equazioni di W1 W2 si ottengono mettendo a sistema quelle di W1 con quelle di W2 .
Determiniamo quindi le equazioni di W2 , essendo gi`a date quelle di W1 . Poiche W2 =
Span({u1 , u2 }),

4 3 x
4 3
x
1 0 y R2 4R2 R1
0 3

4y x

0 2 z R4 R4 R1
0 0 3z + 8y 2x .
4 1 t
0 0
3t x 8y
Le equazioni di W2 sono quindi

3z + 8y 2x = 0
.
3t x 8y = 0

Mettendo a sistema la equazioni di W1 con quelle di W2 abbiamo

x+y+z =0

y + 2z + t = 0
.
3z + 8y 2x = 0

3t x 8y = 0
152

Essendo dim (W1 W2 ) = 1, il precedente sistema pu`o essere ridotto ad uno


equazioni.

1
1 1 0
1 1 1 0
0

1 2 1

R3 R3 + 2R1 0 1 2 1
2 8 3 0 R4 R4 + R1
0 10 5 0
1 8 0 3
0 7 1 3

1 1
1 0
1
0 1

0
2
1
R4 R4 + R3
R4 R4 3R2
0 10
0
5 0
0 10 5 0
0

formato da tre

1
1
10
0

1
2
5
0

0
1
.
0
0

Le equazioni di W1 W2 sono pertanto

x+y+z =0
y + 2z + t = 0 ,

10y + 5z = 0
e W1 W2 = {(y, y, 2y, 3y) | y R}. Quindi {(1, 1, 2, 3)} e una base di W1 W2 .
Definizione 26.5 Definizione di base ordinata. Sia V uno spazio vettoriale su K di
dimensione finita n. Si dice base ordinata di V ogni n-upla ordinata B = (u1 , u2 , . . . , un ) di
vettori linearmente indipendenti di V .
Il concetto di base ordinata e di fondamentale importanza nella teoria degli spazi vettoriali; esso riveste un ruolo analogo a quello del riferimento di coordinate cartesiane nella
geometria euclidea. Infatti, possiamo rappresentare univocamente ogni vettore rispetto una
base ordinata mediante una n-upla di scalari, detti le componenti del vettore. Le operazioni di addizione vettoriale e di moltiplicazione per scalari si traducono poi nelle analoghe
operazioni sulle componenti.
Teorema 26.10 Sia V uno spazio vettoriale sul campo K di dimensione finita n e sia B =
(u1 , u2 , . . . , un ) una sua base ordinata. Per ogni vettore v V esiste una ed una sola n-upla
ordinata di scalari (1 , 2 , . . . , n ) Kn , detta la n-upla delle componenti di v rispetto la
base ordinata B, tale che
v = 1 u1 + 2 u2 + . . . + n un .
Dimostrazione. (Dimostrazione facoltativa) Essendo B una base di V , v e combinazione
lineare dei vettori di B. Pertanto v = 1 u1 + 2 u2 + . . . + n un . Se esiste unaltra n-upla
ordinata (1 , 2 , . . . , n ) Kn tale che v = 1 u1 + 2 u2 + . . . + n un , abbiamo
1 u1 + 2 u2 + . . . + n un = 1 u1 + 2 u2 + . . . + n un
da cui
(1 1 )u1 + (2 2 )u2 + . . . + (n n )un = o.
153

Pertanto 1 = 1 , 2 = 2 , . . . , n = n .
Siano A = (u1 , u2 , . . . , un ) e B = (v1 , v2 , . . . , vn ) due basi ordinate dello spazio vettoriale V . Se w V allora esistono due n-uple (1 , 2 , . . . , n ) e (1 , 2 , . . . , n ) che sono
rispettivamente le componenti di w rispetto le basi ordinate A e B. Per evitare confusione
le indicheremo da ora in poi con (1 , 2 , . . . , n )A e (1 , 2 , . . . , n )B per indicare la base
rispetto la quale la n-upla data rappresenta le componenti.
Sia B = (u1 , u2 , . . . , un ) una base ordinata dello spazio vettoriale V sul campo K. La
n-upla delle componenti del vettore nullo o di V e il vettore nullo (0, 0, . . . , 0)B Kn ,
infatti o = 0u1 + 0u2 + . . . + 0un . La n-upla delle componenti del vettore u1 di B e
(1, 0, . . . , 0)B Kn , infatti u1 = 1u1 + 0u2 + . . . + 0un ; la n-upla delle componenti del vettore
u2 di B e (0, 1, . . . , 0)B Kn , infatti u2 = 0u1 +1u2 +. . .+0un ; . . .; la n-upla delle componenti
del vettore un della base ordinata B e (0, 0, . . . , 1)B Kn , infatti un = 0u1 + 0u2 + . . . + 1un .
Definizione 26.6 Base canonica. Nello spazio vettoriale Kn dicesi base canonica la base
ordinata En = (e1 , e2 , . . . , en ) con e1 = (1, 0, . . . , 0), e2 = (0, 1, . . . , 0), . . ., en = (0, 0, . . . , 1).
Teorema 26.11 Sia En la base canonica di Kn . Se u = (u1 , u2 , . . . , un ) Kn allora le
componenti di u rispetto En coincidono con la n-upla (u1 , u2 , . . . , un ). Cio`e
(u1 , u2 , . . . , un )En = (u1 , u2 , . . . , un ).
Teorema 26.12 Sia V uno spazio vettoriale di dimensione finita sul campo K e sia B =
(u1 , u2 , . . . , un ) una sua base ordinata. Lapplicazione (detta lisomorfismo delle componenti
rispetto la base ordinata B)
fB : V Kn
che ad ogni vettore v = v1 u1 + v2 u2 + . . . + vn un = (v1 , v2 , . . . , vn )B V associa la n-upla
ordinata (v1 , v2 , . . . , vn ) Kn delle componenti di v rispetto la base ordinata B soddisfa le
seguenti propriet`
a:
1. fB e biunivoca.
2. Per ogni v, w V , si ha fB (v + w) = fB (v) + fB (w).
3. Per ogni v V e per ogni K, si ha fB (v) = fB (v).
Dimostrazione. (Dimostrazione facoltativa) 1) Lapplicazione fB e sia suriettiva che iniettiva. La suriettivit`a si ha perch`e, essendo B una base ordinata di V , per ogni (v1 , v2 , . . . , vn )
Kn abbiamo v = v1 u1 + v2 u2 + . . . + vn un V e fB (v) = (v1 , v2 , . . . , vn ). Linettivit`a di fB
segue immediatamente dal Teorema 26.10.
2) Siano
v = v1 u1 + v2 u2 + . . . + vn un , e w = w1 u1 + w2 u2 + . . . + wn un .
154

Allora
v + w = (v1 + w1 )u1 + (v2 + w2 )u2 + . . . + (vn + wn )un ,
e quindi
fB (v) = (v1 , v2 , . . . , vn ) Kn , fB (w) = (w1 , w2 , . . . , wn ) Kn ,
fB (v+w) = (v1 +w1 , v2 +w2 , . . . , vn +wn ) = (v1 , v2 , . . . , vn )+(w1 , w2 , . . . , wn ) = fB (v)+fB (w).
3) Se v = v1 u1 + v2 u2 + . . . + vn vn V e K, allora si ha
v = (v1 )u1 + (v2 )u2 + . . . + (vn )un
e quindi
fB (v) = (v1 , v2 , . . . , vn ) Kn ,
fB (v) = (v1 , v2 , . . . , vn ) = (v1 , v2 , . . . , vn ) = fB (v).

Teorema 26.13 Sia V uno spazio vettoriale sul campo K avente la base ordinata B =
(u1 , u2 , . . . , un ). Allora lapplicazione
fB1 : Kn V
che ad ogni (1 , 2 , . . . , n ) Kn associa il vettore v = 1 u1 +2 u2 , . . . , n un = (1 , 2 , . . . , n )B
di V e biunivoca e si ha
fB1 ((1 , 2 , . . . , n )+(1 , 2 , . . . , n )) = fB1 (1 , 2 , . . . , n )+fB1 (1 , 2 , . . . , n ) (74)
per ogni , K e (1 , 2 , . . . , n ), (1 , 2 , . . . , n ) Kn .
Dimostrazione. (Dimostrazione facoltativa) Lapplicazione fB1 e linversa della fB definita nel Teorema 26.12. Pertanto fB1 e biunivoca. Proviamo che vale la (74). Siano
v1 = fB1 (1 , 2 , . . . , n ) e v2 = fB1 (1 , 2 , . . . , n ). Allora fB (v1 ) = (1 , 2 , . . . , n )B e
fB (v2 ) = (1 , 2 , . . . , n )B . Ne segue, per il Teorema 26.12, fB (v1 + v2 ) = fB (v1 ) +
fB (v2 ) = (1 , 2 , . . . , n )+
+(1 , 2 , . . . , n ) = (1 + 1 , 2 + 2 , . . . , n + n ), e quindi
fB1 (1 + 1 , 2 + 2 , . . . , n + n ) = v1 + v2 .

(75)

Dalla (75) otteniamo


fB1 ((1 , 2 , . . . , n ) + (1 , 2 , . . . , n )) = fB1 (1 + 1 , 2 + 2 , . . . , n + n ) =
= v1 + v2 = fB1 (1 , 2 , . . . , n ) + fB1 (1 , 2 , . . . , n ).

155

Esempio 26.8 Siano dati in R4 i vettori u1 = (1, 1, 1, 2), u2 = (1, 2, 1, 3), u3 =


(2, 2, 0, 0) e u4 = (2, 0, 0, 1). Provare che essi formano una base di R4 . Determinare le
componenti (, , , ) di v = (7, 8, 5, 3) rispetto le basi ordinate B = (u1 , u2 , u3 , u4 ) e
C = (u2 , u4 , u1 , u3 ).
SVOLGIMENTO.
indipendenti.

1
1 2
1
2 2

1 1 0
2
3 0

1
1 2
0
1 0

1 1 0
4
7 0

I vettori u1 , u2 , u3 e u4 formano una base di R4 se sono linearmente

2
1
1 2
0
0
1 0
R2 R2 R1

0
1 1 0
1
2
3 0

2
1
1

2
0
1
R4 R4 + 4R3
1 1
0
0
2
3

2
2
R4 2R4 + R2
0
1

2 2
0 2
.
0 0
0 1

Quindi u1 , u2 , u3 e u4 sono linearmente indipendenti.


Cerchiamo le componenti di v rispetto la base ordinata B. Si ha
v = u1 + u2 + u3 + u4 ,

(76)

ovvero (7, 8, 5, 3) = (1, 1, 1, 2) + (1, 2, 1, 3) + (2, 2, 0, 0) + (2, 0, 0, 1) = ( + + 2 +


2, + 2 + 2, , 2 + 3 + ). Le componenti , , e sono quindi le soluzioni del
sistema

+ + 2 + 2 = 7

+ 2 + 2 = 8
(77)
= 5

2 + 3 + = 3
la cui matrice associata e

1
1 2
1
2 2

1 1 0
2
3 0

2
0
0
1

7
8
.
5
3

Applicando a questa matrice le precedenti riduzioni otteniamo

3
1
1 2 2
7
R1 3R1 + R4
0
0

1
1
0
2

R2 3R2 + R4
3
1 1 0 0
5
R

3R
+
R
3
3
4
0
3 0 0 27
0

156

0 6 6 6
0 0
6 24

0 0
0 42
3 0
0 27

R1 R1 R3

0
0

3
0

0
0

3
0

0 6 6 36
0 0
6
24
R1 R1 + R2
0 0
0
42
3 0
0
27

R 1R

1
6 1
0 6 0 12
0 0
1

R
0 0 6 24
0 0
2
2
6

0 0 0 42
1 0
R3 3 R3
1
3 0 0 27
0 1
R4 3 R4

1
0
0
0

0
2
1
4

0 14
0
9

e quindi = 14, = 9, = 2, = 4 sono le componenti di v = (7, 8, 5, 3) rispetto la base


ordinata B, cio`e v = (14, 9, 2, 4)B .
Cerchiamo ora le componenti di v rispetto la base ordinata C = (u2 , u4 , u1 , u3 ). Si ha
v = u2 + u4 + u1 + u3 ,

(78)

ovvero (7, 8, 5, 3) = (1, 2, 1, 3) + (2, 0, 0, 1) + (1, 1, 1, 2) + (2, 2, 0, 0) = ( + 2 + +


2, 2 + + 2, , 3 + + 2). Quindi le componenti , , e sono le soluzioni del
sistema

+ 2 + + 2 = 7

2 + + 2 = 8
(79)
= 5

3 + + 2 = 3
il quale ha soluzione (, , , ) = (9, 4, 14, 2), quindi v = (9, 4, 14, 2)C .
Si osservi che non e il caso di risolvere di nuovo il sistema (79). Infatti basta porre in
esso al posto di , al posto di , al posto di e, infine, al posto di per ottenere
il sistema (77). Ovviamente questa sostituzione si ricava osservando le uguaglianze (76) e
(78).
Esempio 26.9 Si considerino in R3 la basi ordinate A = (u1 , u2 , u3 ) e B = (v1 , v2 , v3 )
essendo u1 = (2, 1, 3), u2 = (1, 1, 1), u3 = (0, 2, 1), v1 = (0, 1, 1), v2 = (2, 3, 1) e
v3 = (2, 2, 2). Siano note, nella base A, le componenti dei due vettori w1 = (5, 2, 7)A e
w2 = (3, 14, 2)A . Determinare le componenti di w1 e w2 nella base B.
SVOLGIMENTO. Di questo esercizio daremo due metodi di risoluzione. Il primo si basa sul
u
metodo visto nellEsempio 26.8. Il secondo mostrer`a una tecnica di risoluzione molto pi`
generale ed interessante e introduce al problema della ricerca della matrice di cambiamento
di base.
I metodo. Come abbiamo detto vogliamo riutilizzare le tecniche viste nellEsempio 26.8.
Pertanto come primo passo dobbiamo determinare le coordinate dei vettori w1 e w2 : w1 =
(5, 2, 7)A = 5u1 2u2 + 7u3 = 5(2, 1, 3) 2(1, 1, 1) + 7(0, 2, 1) = (12, 17, 20), w2 =
(3, 14, 2)A = 3u1 + 14u2 + 2u3 = 3(2, 1, 3) + 14(1, 1, 1) + 2(0, 2, 1) = (20, 15, 7).
157

Procedendo come nellEsempio 26.8, bisogna determinare i valori degli aij , i = 1, 2 e j =


1, 2, 3, tali che
w1 = (12, 17, 20) = a11 v1 + a12 v2 + a13 v3 = (2a12 + 2a13 , a11 + 3a12 + 2a13 , a11 a12 + 2a13 ) e
w2 = (20, 15, 7) = a21 v1 + a22 v2 + a23 v3 = (2a22 + 2a23 , a21 + 3a22 + 2a23 , a21 a22 + 2a23 ).
In altre parole bisogna risolvere i due sistemi seguenti nelle incognite aij :

2a22 + 2a23 = 20
2a12 + 2a13 = 12
a11 + 3a12 + 2a13 = 17
a21 + 3a22 + 2a23 = 15 .

a11 a12 + 2a13 = 20


a21 a22 + 2a23 = 7

(80)

Si vede subito che (a parte il nome delle variabili) i sistemi precedenti differiscono solamente per i termini noti. Poich`e li vogliamo risolvere col metodo di riduzione, possiamo
compattare entrambi i sistemi in ununica matrice le cui due colonne finali coincidono con
le due colonne dei termini noti.

0 2 2 12 20
0
2
2
12
20
R2 R2 R1
1 3 2 17 15
1 1 0 5 35
R
3 R3 R1
1 1 2 20 7
1 3 0 8 27

0 2 2 12 20
R3 R3 R2 1 1 0 5 35
0 4 0 3 8

0 0 4 27 48
4
4 0 0 23 132 R1 R2 0
0 4 0 3 8
0

R2 4R2 + R3

R1 2R1 + R3

0 0 23 132
0 4 27 48 R2 R3
4 0 3 8

R1 14 R1
4 0 0 23 132
1 0 0 23
33
4
2 .
0 4 0 3 8 R2 14 R2 0 1 0 43
27
0 0 4 27 48
0 0 1 4 12
R3 14 R3

Pertanto w1 = (a11 , a12 , a13 )B = ( 23


, 34 , 27
) e w2 = (a21 , a22 , a23 )B = (33, 2, 12)B .
4
4 B
II metodo. Abbiamo w1 = (5, 2, 7)A = 5u1 2u2 + 7u3 . Supponiamo che ui =
(ai1 , ai2 , ai3 )B = ai1 v1 + ai2 v2 + ai3 v3 . Allora w1 = (5, 2, 7)A = 5u1 2u2 + 7u3 =
5(a11 v1 + a12 v2 + a13 v3 ) 2(a21 v1 + a22 v2 + a23 v3 ) + 7(a31 v1 + a32 v2 + a33 v3 ) = (5a11
2a21 + 7a31 )v1 + (5a12 2a22 + 7a3 )v2 + (5a13 2a23 + 7a33 )v3 = (5a11 2a21 + 7a31 , 5a12
2a22 + 7a3 , 5a13 2a23 + 7a33 )B . Quindi, posto

a11 a21 a31


P A,B = a12 a22 a32 ,
a13 a23 a33
158

le componenti di w1 nella base B sono date dal prodotto riga per colonna di P A,B con la
matrice 3 1 i cui elementi sono le componenti di w1 in base A

a11 a21 a31


5
P A,B (w1T ) = a12 a22 a32 2 .
7
a13 a23 a33
A
Allo stesso modo si ricavano le componenti nella base B di w2 = (3, 14, 2)A

a11 a21 a31


3
P A,B (w2T ) = a12 a22 a32 14 .
a13 a23 a33
2
A
Occorre quindi determinare le componenti nella base B dei vettori u1 , u2 e u3 . Abbiamo
quindi
u1 = (2, 1, 3) = a11 v1 + a12 v2 + a13 v3 = a11 (0, 1, 1) + a12 (2, 3, 1) + a13 (2, 2, 2) =
(2a12 + 2a13 , a11 + 3a12 + 2a13 , a11 a12 + 2a13 ),
u2 = (1, 1, 1) = a21 v1 + a22 v2 + a23 v3 = a21 (0, 1, 1) + a22 (2, 3, 1) + a23 (2, 2, 2) =
(2a22 + 2a23 , a21 + 3a22 + 2a23 , a21 a22 + 2a23 ),
u3 = (0, 2, 1) = a31 v1 + a32 v2 + a33 v3 = a31 (0, 1, 1) + a32 (2, 3, 1) + a33 (2, 2, 2) =
(2a32 + 2a33 , a31 + 3a32 + 2a33 , a31 a32 + 2a33 ).
Bisogna quindi risolvere i tre sistemi:

2a12 + 2a13 = 2
a11 + 3a12 + 2a13 = 1

a11 a12 + 2a13 = 3

2a22 + 2a23 = 1
a21 + 3a22 + 2a23 = 1

a21 a22 + 2a23 = 1

2a32 + 2a33 = 0
a31 + 3a32 + 2a33 = 2

a31 a32 + 2a33 = 1

(81)

Si vede subito che (a parte il nome delle variabili) i sistemi precedenti differiscono solamente per i termini noti. Poich`e li vogliamo risolvere col metodo di riduzione, possiamo
compattarli in ununica matrice le cui tre colonne finali coincidono con le tre colonne dei
termini noti.

0 2 2 2 1 0
0
2
2
2
1
0
R2 R2 R1
1 3 2 1 1 2
1 1 0 1 2 2
R

R
3
3
1
1 1 2 3 1 1
1 3 0 1
2 1

0 2 2 2

R3 R3 R2
1 1 0 1
0 4 0 2

0 0 4 6 2 1
4 0 0 2 8
7 R1 R2
0 4 0 2
0 1

1 0
R2
2
2
R1
0 1

4 0

0 0

0 4

159

4R2 + R3

2R1 + R3

0 2 8
7
4 6 2 1 R2 R3
0 2
0
1

7
R1 14 R1
4 0 0 2 8
7
1 0 0 21 2
4
1
0 1 R2 14 R2 0 1 0 21 0
.
0 4 0 2
4
3
1
1
0 0 4 6 2 1
0 0 1 2 2 4
R3 14 R3
Pertanto

P A,B

12
= 12
3
2

7
2
4
1
0
.
4
1
1
2 4

Le componenti di w1T nella base B saranno quindi


23
1

7
2 2
5
4
4
1
1 0
2 = 43 .
2
4
3
27
21 14
7
2
4
A
B
Analogamente le componenti di w2T in base B sono

7
2 2
3
33
4
1
1 0
14 = 2 .
2
4
3
1
1
12 B
2 4
2
2
A
Il metodo dellEsempio 26.9 fornisce il seguente
Metodo per determinare la matrice P A,B di cambiamento di base dalla base A
alla base B.
Siano A = (u1 , u2 , . . . , un ) e B = (v1 , v2 , . . . , vn ) due basi ordinate dello spazio vettoriale
n
K . Per ogni i = 1, 2, . . . , n siano ui = (ui1 , ui2 , . . . , uin ) e vi = (vi1 , vi2 , . . . , vin ) le coordinate
dei vettori ui e vi . Poniamo

u11 u21 un1


v11 v21 vn1
u12 u22 un2

e B = v12 v22 vn2 .


A=




u1n u2n unn
v1n v2n vnn
Per determinare P A,B si proceda nel seguente modo:
1. Si scriva la matrice

v11 v21
v12 v22
(B|A) =

v1n v2n

vn1 u11 u21


vn2 u12 u22

vnn u1n u2n

un1
un2
.

unn

(82)

2. Con il metodo di riduzione per righe si trasformi la matrice (82) in modo che la sottomatrice B venga trasformata nella matrice identica In . Allora la sottomatrice A verr`a
trasformata nella P A,B . Schematizzando abbiamo
160

(B|A) riduzione per righe In |P A,B .

(83)

Possiamo usare lo stesso metodo, e la stessa matrice (B|A) definita in (82), per determinare la matrice P B,A di cambiamento di base dalla base B alla base A. Infatti e immediato
verificare che se, mediante il metodo di riduzione per righe, si trasforma la (82) in modo
che la sottomatrice A venga trasformata nella matrice identica In allora B verr`a trasformata
nella P B,A . Schematizzando abbiamo

(B|A) riduzione per righe P B,A |In .


(84)
Teorema 26.14 Valgono le seguenti uguaglianze: P A,B = B 1 A e P B,A = A1 B.
Dimostrazione.
(Dimostrazione facoltativa) Come visto alla fine del Paragrafo 11, la
riduzione (83) equivale alla costruzione di una matrice invertibile H tale che

H (B|A) = (H B|H A) = In |P A,B .


Essendo det B 6= 0 (le colonne di B sono i trasposti dei vettori della base B), si ha H = B 1 .
Pertanto P A,B = B 1 A. Analogamente, dalla (84) segue P B,A = A1 B.
importante ricordare che le colonne della matrice P A,B rappresentano
E
(nellordine) le componenti in base B dei trasposti dei vettori della base ordinata
A. Analogamente, le colonne della matrice P B,A rappresentano (nellordine) le
componenti in base A dei trasposti dei vettori della base ordinata B.
Esempio 26.10 Si considerino in R3 la basi ordinate A = (u1 , u2 , u3 ) e B = (v1 , v2 , v3 )
essendo u1 = (2, 1, 3), u2 = (1, 1, 1), u3 = (0, 2, 1), v1 = (0, 1, 1), v2 = (2, 3, 1) e
v3 = (2, 2, 2). Si determinino le matrici di cambiamento di base P A,B e P B,A .
SVOLGIMENTO. P A,B e stata determinata nell Esempio 26.9. Cerchiamo P B,A . Si ha

0 2 2
2 1 0
A = 1 1 2 , B = 1 3 2 .
1 1 2
3 1 1
Pertanto

0 2 2 2 1 0

1 3 2 1 1 2
(B|A) =
1 1 2 3 1 1

0 2

R3 2R3 R2
1 5
1 3

0 2 2 2 1 0
1 5 4 3 0 2
1 1 4 5 0 1

R2 R2 + R1
R3 R3 + R1

2 2 1 0
R2 7R2 + 3R3
4 3 0 2

R1 7R1 + 2R3
4 7 0 0
161

2 20 6 0 7 0
7 0 0
1 3
4
4 44 16 0 0 14 R1 R3 4 44 16 0 0 14
1 3
4
7 0 0
2 20 6 0 7 0

R1 17 R1
1 3
4
7 0 0
R2 R3 2 20 6 0 7 0 R2 17 R2
1
4 44 16 0 0 14
R3 14
R3
1

4
4
1 0 0
37
37
7
7
7
7
2 20 6 0 1 0 . Pertanto P B,A = 2 20 6 .
7
7
7
7
7
7
8
22
8
2
72 22
0
0
1
7
7
7
7
7

27

Applicazioni lineari

Definizione 27.1 Siano V e W due spazi vettoriali su un campo K. Unapplicazione


f : V W
si dice lineare se soddisfa le due seguenti condizioni:
1. f (u + v) = f (u) + f (v) per ogni u, v V ;
2. f (u) = f (u) per ogni u V e K.
` immediato verificare il seguente risultato:
E
Teorema 27.1 Lapplicazione
f : V W
e lineare se e solo se f (u + v) = f (u) + f (v) per ogni u, v V e , K.
Esempio 27.1 Sia f : R4 R3 lapplicazione definita dalla seguente legge:
f (x, y, z, t) = (2x 3y + 4z t, x + 2y + t, 3x y + z + 4t).
Provare che f e lineare.
SVOLGIMENTO. Per il Teorema 27.1 bisogna verificare che f (u + v) = f (u) + f (v)
per ogni u, v R4 e , R. Posto u = (x1 , y1 , z1 , t1 ) e v = (x2 , y2 , z2 , t2 ), abbiamo
f (u + v) = f (x1 + x2 , y1 + y2 , z1 + z2 , t1 + t2 ) = (2(x1 + x2 ) 3(y1 + y2 ) +
4(z1 + z2 ) (t1 + t2 ), x1 + x2 + 2(11 + y2 ) + (t1 + t2 ), 3(x1 + x2 ) (y1 + y2 ) +
(z1 + z2 ) + 4(t1 + t2 )) = ((2x1 3y1 + 4z1 t1 ) + (2x2 3y2 + 4z2 t2 ), (x1 +
2y1 + t1 ) + (x2 + 2y2 + t2 ), (3x1 y1 + z1 + 4t1 ) + (3x2 y2 + z2 + 4t2 )) =
(2x1 3y1 + 4z1 t1 , x1 + 2y1 + t1 , 3x1 y1 + z1 + 4t1 ) + (2x2 3y2 +
4z2 t2 , x2 + 2y2 + t2 , 3x2 y2 + z2 + 4t2 ) = (2x1 3y1 + 4z1 t1 , x1 +
2y1 + t1 , 3x1 y1 + z1 + 4t1 ) + (2x2 3y2 + 4z2 t2 , x2 + 2y2 + t2 , 3x2 y2 + z2 + 4t2 ) =
f (x1 , y1 , z1 , t1 ) + f (x2 , y2 , z2 , t2 ) = f (u) + f (v).
162

Definizione 27.2 Unapplicazione lineare f : V W e detta


isomorfismo se e biunivoca;
endomorfismo se V = W ;
automorfismo se e biunivoca e V = W .
Il Teorema 26.12 pu`o essere riformulato nella seguente maniera:
Teorema 27.2 Sia V uno spazio vettoriale su un campo K finitamente generato e sia B =
(u1 , . . . , un ) Per una base ordinata di V . Si definisca lapplicazione
fB : V Kn
nel seguente modo: per ogni v V si ha fB (v) = (v1 , v2 , . . . , vn ) se e solo se v = v1 u1 +
v2 u2 + . . . + vn un (cio`e fB associa ad ogni vettore v V ln-upla delle sue componenti nella
base ordinata B). Allora fB e un isomorfismo.
Teorema 27.3 Siano V , W e U tre spazi vettoriali finitamente generati sul campo K. Siano
dati i due isomorfismi
f : V W e g : W U.
Allora
gf : V U
e un isomorfismo.
Dimostrazione. (Dimostrazione facoltativa) Lapplicazione g f e suriettiva. Infatti per la
suriettivit`a di g, comunque preso u U esiste w W tale che g(w) = u. Per la suriettivit`a
di f , esiste v V tale che f (v) = w. Quindi u = g(w) = g[f (v)] = g f (v).
Lapplicazione g f e iniettiva. Infatti siano v1 , v2 V con v1 6= v2 . Per liniettivit`a di
f si ha f (v1 ) 6= f (v2 ) e, per liniettivit`a di g, g[f (v1 )] 6= g[f (v2 )] cio`e g f (v1 ) 6= g f (v2 ).
Lapplicazione g f e lineare. Infatti g f (v1 + v2 ) = g[f (v1 + v2 )] = g[f (v1 ) +
f (v2 )] = g[f (v1 )] + g[f (v2 )] = g[f (v1 )] + g[f (v2 )] = g f (v1 ) + g f (v2 ).
Teorema 27.4 Sia f : V W unapplicazione lineare. Valgono le seguenti propriet`
a:
1. Se oV e il vettore nullo di V , allora f (oV ) = oW ove oW denota il vettore nullo di W .
2. Se u1 , u2 , . . . , un V e 1 , 2 , . . . , n K allora f (1 u1 + 2 u2 + . . . + n un ) =
1 f (u1 ) + 2 f (u2 ) + . . . + n f (un ).
3. Se V 0 e un sottospazio vettoriale di V , allora f (V 0 ) e un sottospazio vettoriale di W .
4. Se W 0 e un sottospazio vettoriale di W , allora f 1 (W 0 ) e un sottospazio vettoriale di
V.
163

Dimostrazione. (Dimostrazione obbligatoria) Le propriet`a 1 e 2 seguono direttamente


dalla definizione di applicazione lineare. Infatti si ha f (oV ) = f (0u) = 0f (u) = oW e
f (1 u1 + 2 u2 + . . . + n un ) = f (1 u1 ) + f (2 u2 ) + . . . + f (n un ) = 1 f (u1 ) + 2 f (u2 ) +
. . . + n f (un ).
Proviamo la propriet`a 3. Per ogni , K e per ogni u0 , v0 f (V 0 ) proviamo che
0
u + v0 f (V 0 ). Se u0 , v0 f (V 0 ), allora esistono u, v V 0 tali che f (u) = u0 e
f (v) = v0 . Poich`e V 0 e un sottospazio vettoriale di V , si ha u + v V 0 e quindi
u0 + v0 = f (u) + f (v) = f (u + v) f (V 0 ).
Propriet`a 4. Basta provare che per ogni u, v f 1 (W 0 ) e per ogni , K si ha
u + v f 1 (W 0 ).
Poich`e f (u), f (v) W 0 e W 0 e un sottospazio vettoriale di W , si ha f (u + v) =
f (u) + f (v) W 0 . Dunque u + v f 1 (W 0 ) come richiesto.
Definizione 27.3 Sia f : V W unapplicazione lineare. Dicesi immagine di f linsieme
Im f = f (V ) = {f (v) | v V }.
Definizione 27.4 Sia f : V W unapplicazione lineare. Dicesi nucleo di f linsieme
Ker f = f 1 (oW ) = {v | v V e f (v) = oW }.
Dalle propriet`a 3 e 4 del Teorema 27.4 si ottiene il seguente corollario.
Corollario 27.1 Sia f : V W unapplicazione lineare. Allora:
1. Im f e un sottospazio vettoriale di W ;
2. Ker f e un sottospazio vettoriale di V ;
3. se A = {v1 , v2 , . . . , vn } e un insieme di generatori di V , allora
f (A) = {f (v1 ), f (v2 ), . . . , f (vn )}
e un insieme di generatori di Im f .
Teorema 27.5 Siano f : V W e g : V W due applicazioni lineari fra i due
sottospazi V e W entrambi di dimensione finita. Sia B = (u1 , u2 , . . . , un ) una base ordinata
di V , Se f (ui ) = g(ui ) per ogni i = 1, 2, . . . , n allora le due applicazioni coincidono, cio`e
f (v) = g(v) per ogni v V .
Dimostrazione. (Dimostrazione facoltativa) Per ogni v V , posto v = 1 u1 + 2 u2 +
. . . + n un , si ha f (v) = f (1 u1 + 2 u2 + . . . + n un ) = 1 f (u1 ) + 2 f (u2 ) + . . . + n f (un ) =
1 g(u1 ) + 2 g(u2 ) + . . . + n g(un ) = g(1 u1 + 2 u2 + . . . + n un ) = g(v).
Teorema 27.6 Lapplicazione lineare f : V W e iniettiva se e solo se Ker f = {oV }.
164

Dimostrazione. (Dimostrazione facoltativa) Necessit`a. Sia f iniettiva e sia v Ker f


con v 6= 0. Si ha f (v) = oW e, per la linearit`a di f , f (oV ) = oW . Quindi f (v) = f (oV ) che
contraddice lpotesi che f `e iniettiva.
Sufficienza. Sia Ker f = {oV } e siano v1 , v2 V tali che f (v1 ) = f (v2 ). Allora
f (v1 v2 ) = oW e, per lipotesi Ker f = {oV }, v1 v2 = oV .
Teorema 27.7 Sia f : V W unapplicazione lineare fra i due spazi vettoriali sul campo
K, V e W . Siano v1 , v2 , . . . , vn V . Valgono le seguenti propriet`
a:
1. Se f e iniettiva allora v1 , v2 , . . . , vn sono linearmente indipendenti se e solo se
f (v1 ), f (v2 ) . . . , f (vn ) sono linearmente indipendenti.
2. Se f (v1 ), f (v2 ) . . . , f (vn ) sono linearmente indipendenti, allora v1 , v2 , . . . , vn sono
linearmente indipendenti.
Dimostrazione. (Dimostrazione facoltativa) Proviamo la 1). Supponiamo che
1 f (v1 ) + 2 f (v2 ) + . . . + n f (vn ) = oW .
Per la linearit`a di f ,
f (1 v1 + 2 v2 + . . . + n vn ) = oW
cio`e 1 v1 + 2 v2 + . . . + n vn Ker f . Essendo, per ipotesi, f iniettiva si ha, in virt`
u
del Teorema 27.6, 1 v1 + 2 v2 + . . . + n vn = oV . Da cui segue, avendo supposto che
v1 , v2 , . . . , vn sono indipendenti, che 1 = 2 = . . . = n = 0.
Proviamo la 2). Dalluguaglianza 1 v1 +2 v2 +. . .+n vn = oV , applicando la f otteniamo
1 f (v1 ) + 2 f (v2 ) + . . . + n f (vn ) = oW dalla quale si deduce che 1 = 2 = . . . = n = 0,
perch`e f (v1 ), f (v2 ), . . . , f (vn ) sono linearmente indipendenti per ipotesi.
Corollario 27.2 Se f : V W e unapplicazione lineare iniettiva e B e una base di V ,
allora f (B) e una base di Im f .
Esempio 27.2 Si consideri lapplicazione lineare f : R4 R3 definita da f (x, y, z, t) =
(2x y + z, x + 2z, 4x 3y z). Determinare base e dimensione di Ker f e Im f .
SVOLGIMENTO. Per definizione Ker f coincide con le soluzioni (x, y, z, t) del sistema
omogeneo

2x y + z + 0t = 0
x + 0y + 2z + 0t = 0 .

4x 3y z + 0t = 0

2 1 1 0
2 1 1 0
1 0
0
2 0
2 0 R3 R3 3R1 1
2 0 4 0
4 3 1 0
165

R3 R3 + 2R2

2 1 1 0
1 0 2 0 .
0 0 0 0

Pertanto Ker f e dato dalle soluzioni (x, y, z, t) del sistema

2x y = z
,
x = 2z
cio`e Ker f = {(2z, 3z, z, t) | z, t R}. Abbiamo (2z, 3z, z, t) = (2z, 3z, z, 0) +
(0, 0, 0, t) = z(2, 3, 1, 0) + t(0, 0, 0, 1). Quindi Ker f = Span({(2, 3, 1, 0), (0, 0, 0, 1)}).
Poiche

2 0
2 0
3 0 R2 2R2 3R1
0 0

1 0
0 0 ,
R3 2R3 + R1
0 1
0 1
una base di Ker f e data da {(2, 3, 1, 0), (0, 0, 0, 1)} e dim Ker f = 2.
Essendo Im f = {(2x y + z, x + 2z, 4x 3y z) | x, y, z R}, possiamo scrivere
(2x y + z, x + 2z, 4x 3y z) = (2x, x, 4x) + (y, 0, 3y) + (z, 2z, z) = x(2, 1, 4) +
y(1, 0, 3) + z(1, 2, 1). Quindi Im f = Span({(2, 1, 4), (1, 0, 3), (1, 2, 1)}). Poiche

2 1 1
2 1 1
1 0
2 R3 R3 3R1 1
0
2
4 3 1
2 0 4

2 1 1
R3 R3 + 2R2 1 0 2 ,
0 0 0
una base di Im f e data da {(2, 1, 4), (1, 0, 3)} e dim Im f = 2.
Teorema 27.8 Siano V e W due spazi vettoriali di dimensione finita definiti su un campo
K. Sia f : V W unapplicazione lineare. Allora
dim V = dim Ker f + dim Im f.
Dimostrazione. (Dimostrazione facoltativa) Supponiamo innanzitutto che dim Ker f = 0,
cio`e Ker f = {oV }. In tal caso, per il Teorema 27.6, f e iniettiva e per il Corollario 27.2,
limmagine mediante la f di una base di V e una base di Im f . Quindi dim Im f = dim V
e si ha la tesi.
Sia dim Ker f = dim V . Allora Ker f = V e quindi Im f = {oW } e il teorema e provato.
Sia infine dim Ker f = r, 1 r < dim V = n. Siano B = {u1 , u2 , . . . ur } una base di Ker f e B 0 = {u1 , u2 , . . . , ur , ur+1 , . . . , un } una base di V che estende B (questa
166

base esiste per il Teorema 26.7). Proviamo che f (B 0 \ B) = {ur+1 , . . . , un } e una base di Im f . Per ogni v Im f esiste un vettore w V tale che f (w) = v e quindi
v = f (w) = f (1 u1 + . . . + r ur + r+1 ur+1 + . . . + n un ) = f (1 u1 + . . . + r ur ) +
f (r+1 ur+1 + . . . + n un ) = oW + r+1 f (ur+1 ) + . . . + n f (un ) = r+1 f (ur+1 ) + . . . + n f (un ).
Cio`e Span({f (ur+1 , . . . , f (un )}) = Im f .
Proviamo adesso che {f (ur+1 ), . . . , f (un )} e linearmente indipendente. Sia
r+1 f (ur+1 ) + r+2 f (ur+2 ) + . . . + n f (un ) = ow ,
allora
f (r+1 ur+1 + r+2 ur+2 + . . . + n un ) = ow ,
r+1 ur+1 + r+2 ur+2 + . . . + n un Ker f = Span(B),
r+1 ur+1 + r+2 ur+2 + . . . + n un = 1 u1 + 2 u2 + . . . + r ur ,
r+1 ur+1 + r+2 ur+2 + . . . + n un 1 u1 2 u2 . . . r ur = oV
e quindi, essendo B 0 una base di V ,
1 = 2 = . . . = r = r+1 = r+2 = . . . = n = 0,
e, in particolare, r+1 = r+2 = . . . = n = 0.

28

Matrici e Applicazioni Lineari.

Siano V e W due spazi lineari sullo stesso campo K aventi rispettivamente dimensione n e
m e basi A = (v1 , v2 , . . . , vn ) e B = (w1 , w2 , . . . , wm ). Vale il seguente teorema.
Teorema 28.1 Unapplicazione lineare f : V W si pu`o assegnare, rispetto le basi A e B,
nei seguenti tre modi equivalenti:
(1) mediante la legge
f (v) = f ((x1 , x2 , . . . , xn )A ) = (a11 x1 + a21 x2 + . . . + an1 xn , a12 x1 + a22 x2 + . . . + an2 xn , . . .
. . . , a1m x1 + a2m x2 + . . . + anm xn )B ;
(2) mediante la matrice

MfA,B

a11 a21
a12 a22

a1m a2m

. . . an1
. . . an2
...

...

...

. . . anm

(detta la matrice associata allapplicazione lineare f rispetto le basi A e B) ponendo

167

A,B
T
T
(f (v)) = (f ((x1 , x2 , . . . , xn )A )) =
Mf

x1
x2

xn

(3) mediante le immagini dei vettori della base A espresse in base B:


f (v1 ) = f ((1, 0, 0, . . . , 0, 0)A ) = (a11 , a12 , . . . , a1m )B ,
f (v2 ) = f ((0, 1, 0, . . . , 0, 0)A ) = (a21 , a22 , . . . , a2m )B ,
.................................................................................
f (vn ) = f ((0, 0, 0, . . . , 0, 1)A ) = (an1 , an2 , . . . , anm )B ,
ponendo f (v) = f ((x1 , x2 , . . . , xn )A ) = x1 f (v1 ) + x2 f (v2 ) + . . . + xn f (vn ).
Dimostrazione.
(Dimostrazione obbligatoria) Lequivalenza fra (1) e (2) segue
immediatamente dal prodotto fra matrici.
Se la legge di f e quella in (1), allora i valori di f (v1 ), f (v2 ), ..., f (vn ) coincidono con
quelli dati in (3). Proviamo ora il viceversa: sia f assegnata mediante le (3), allora la sua
legge e quella espressa dalla (1). Infatti si ha
f (v) = f ((x1 , x2 , . . . , xn )A ) = f (x1 v1 + x2 v2 + . . . + xn vn ) = x1 f (v1 ) + x2 f (v2 ) + . . . +
xn f (vn ) = x1 f ((1, 0, 0, . . . , 0, 0)A )+x2 f ((0, 1, 0, . . . , 0, 0)A )+. . .+xn f ((0, 0, 0, . . . , 0, 1)A ) =
x1 (a11 , a12 , . . . , a1m )B + x2 (a21 , a22 , . . . , a2m )B + . . . + xn (an1 , an2 , . . . , anm )B =
= (a11 x1 + a21 x2 + . . . + an1 xn , a12 x1 + a22 x2 + . . . + an2 xn , . . . , a1m x1 + a2m x2 + . . . + anm xn )B .
Le precedenti uguaglianze provano anche che se f e assegnata mediante le (3), allora la
sua matrice associata coincide con quella data in (2).
Sia infine f assegnata mediante la sua matrice associata MfA,B data in (2). Allora

1
a11

0
a12


T
T
A,B

,
(f (v1 )) = (f ((1, 0, . . . , 0)A )) = Mf =



0 A B
a1m B

A,B
T
T
(f (v2 )) = (f ((0, 1, . . . , 0)A )) =
Mf

168

0
1

a21
a22

a2m

...................................................

A,B
T
T
(f (vn )) = (f ((0, 0, . . . , 1)A )) =
Mf

0
0

an1
an2

anm

Ricordando quanto detto alle pagine 137 e 146 e negli Esempi 26.5 e 26.6, si ha

Corollario 28.1 Im f = Span (f (v1 ))T , f (v2 ))T , . . . , f (vn ))T , pertanto
dim Im f = rango MfA,B .
Esempio 28.1 Si consideri lapplicazione lineare f : R3 R4 definita dalla legge
f (v) = f ((x, y, z)A ) = (x y, x z, y z, x + y + z)B
essendo A = (v1 , v2 , v3 ) e B = (w1 , w2 , w3 , w4 ) rispettivamente le basi di R3 e R4 . Si ha
(x, y, z)A = xv1 + yv2 + zv3 , e
(xy, xz, yz, x+y+z)B = (xy)w1 +(xz)w2 +(yz)w3 +(x+y+z)w4 = x(w1 +w2 +
w4 )+y(w1 +w3 +w4 )+z(w2 w3 +w4 ) = x(1, 1, 0, 1)B +y(1, 0, 1, 1)B +z(0, 1, 1, 1)B .
Per la linearit`a di f , f ((x, y, z)A ) = f (xv1 +yv2 +zv3 ) = xf (v1 )+yf (v2 )+zf (v3 ). Pertanto
f (v1 ) = (1, 1, 0, 1)B , f (v2 ) = (1, 0, 1, 1)B e f (v3 ) = (0, 1, 1, 1)B .
Viceversa, posto f (v1 ) = (1, 1, 0, 1)B , f (v2 ) = (1, 0, 1, 1)B e f (v3 ) = (0, 1, 1, 1)B ,
abbiamo f ((x, y, z)A ) = f (xv1 + yv2 + zv3 ) = xf (v1 ) + yf (v2 ) + zf (v3 ) = x(1, 1, 0, 1)B +
y(1, 0, 1, 1)B + z(0, 1, 1, 1)B = (x y, x z, y z, x + y + z)B .
Si osservi infine che

1 1 0

1 0 1

MfA,B = (f (v1 ))T | (f (v2 ))T | (f (v3 ))T =


0 1 1 .
1 1
1
La dimostrazione della seguente proposizione viene lasciata al lettore come facile esercizio.
Proposizione 28.1 Siano V , W e U tre spazi vettoriali sullo stesso campo K aventi rispettivamente dimensioni n, m e p e basi A, B e C.
169

Se f e sono due applicazioni lineari da V in W , con matrici associate MfA,B e MA,B ,


allora allapplicazione lineare f + resta associata la matrice MfA,B + MA,B .
Sia K. Se f e unapplicazione lineare da V in W , con matrice associata MfA,B ,
allora allapplicazione lineare f resta associata la matrice MfA,B .
Se f e un isomorfismo fra V e W (quindi m = n), con matrice associata MfA,B , allora

1
allapplicazione lineare f 1 resta associata la matrice MfA,B
.
Se f : V W e : W U sono due applicazioni lineari, aventi rispettivamente
matrici associate MfA,B e MB,C , allora allapplicazione lineare f resta associata la
matrice MB,C MfA,B .
Esempio 28.2 Si considerino le basi A = (v1 = (1, 2, 2), v2 = (1, 1, 0), v3 = (1, 0, 1)) e
B = (w1 = (1, 1), w2 = (1, 0)) di R3 e di R2 , rispettivamente. Assegnamo, in tutti e tre i
modi, unapplicazione lineare f : R3 R2 :
1. Come equazione f ((x, y, z)A ) = (x y, z x)B .
2. Come matrice

MfA,B

1 1 0
1 0 1

3. Assegnando i valori, nella base B, assunti dalla f nei vettori della base A:
f (1, 2, 2) = f ((1, 0, 0)A ) = (1, 1)B ,
f (1, 1, 0) = f ((0, 1, 0)A ) = (1, 0)B ,
f (1, 0, 1) = f ((0, 0, 1)A ) = (0, 1)B .
Esempio 28.3 Siano f : R3 R2 , A e B definite come nellEsempio 28.2. Determinare
MfE3 ,E2 e lequazione di f rispetto le basi canoniche.
SVOLGIMENTO. Occorre determinare, nella base E2 , i valori di f (e1 ), f (e2 ), f (e3 ) e porre
MfE3 ,E2 = ((f (e1 ))T | (f (e2 ))T | (f (e1 ))T ).
Passo primo. Si determinano i vettori e1 = (1, 0, 0), e2 = (0, 1, 0) e e3 = (0, 0, 1) nella base
A. Procedendo come nel paragrafo 26,

1 1 1 1 0 0
1 1 1 1 0 0
2 1 0 0 1 0 R3 R3 R1 2 1 0 0 1 0
2 0 1 0 0 1
1 1 0 1 0 1

1 1 1 1 0 0
R2 3R2 + 2R3
R3 R3 + R2 2 1 0 0 1 0

R1 3R1 + R3
3 0 0 1 1 1
170

0 3 3 4 1 1
0 0 3 2 2 1
0 3 0 2 1 2 R1 R1 R2 0 3 0 2 1 2
3 0
0 1 1 1
3 0
0 1 1
1

R1 13 R1
3 0
0 1 1
1
R1 R3 0 3 0 2 1 2 R2 13 R2
0 0 3 2 2 1
R3 13 R3

1
1 0 0 13 13
3
1
0 1 0 2
23 .
3
3
2
2
0 0 1 3 3 13
Quindi

1
2
2
1 2 2
= v1 + v2 + v3 ,
e1 = , ,
3 3 3 A
3
3
3

1 1
2
1
1
2
e2 =
, ,
= v1 + v2 v3 ,
3 3
3 A 3
3
3

1
1
2 1
2
1
= v1 v2 + v3 .
e3 =
, ,
3
3 3 A 3
3
3

Passo secondo. Essendo f ((x, y, z)A ) = (x y, z x)B , si ha


1
3

f (e1 ) = f 13 , 23 , 23 A = MfA,B 32 = (1, 1)B ,


2
3

f (e2 ) = f

1
3

1
,
3

23 A

MfA,B

23

f (e3 ) = f

1
3

23 , 13 A

MfA,B

1
3
1
3

1
3

= (0, 1)B ,
A

2 = (1, 0)B .
3
1
3

Passo terzo. Si determinano (1, 1)B , (0, 1)B e (1, 0)B nella base E2 . Bisogna quindi
cercare la matrice di cambiamento di base P B,E2 . Per quanto detto nel paragrafo 26, si deve
ridurre la matrice

1 0 1 1
(85)
0 1 1 0
in modo che la matrice di ordine 2 prima della | coincida con I2 . In tal caso la (85) soddisfa
questo requisito. Quindi

1 1
B,E2
P
=
1 0
171

ed essendo



1
0
0
1
1
1
B,E2
B,E2
B,E2
P
=
, P
=
, P
=
,
1
1 E2
1 B
0
0 B
1 E2
B
E2
abbiamo (1, 1)B = (0, 1)E2 , (0, 1)B = (1, 0)E2 , (1, 0)B = (1, 1)E2 .
Si osservi che avremmo potuto determinare (1, 1)B , (0, 1)B e (1, 0)B nella base E2 pi`
u
semplicemente procedendo nel seguente modo:
(1, 1)B = w1 + w2 = (1, 1) + (1, 0) = (0, 1) = (0, 1)E2 ,
(0, 1)B = 0w1 w2 = 0(1, 1) (1, 0) = (1, 0) = (1, 0)E2 ,
(1, 0)B = w1 + 0w2 = (1, 1) + 0(1, 0) = (1, 1) = (1, 1)E2 .
Abbiamo quindi

MfE3 ,E2

0 1 1
1 0 1

e lequazione della f e

x
f ((x, y, z)E3 ) = MfE3 ,E4 y = (y + z, x + z)E2 .
z E3
Nel caso specifico (stiamo cercando la matrice di f relativa alle basi canoniche), proponiamo
un altro modo per determinare MfE3 ,E2 che ci consente di evitare lesplicita determinazione
dei vettori e1 , e2 , e3 nella base A. Infatti possiamo scrivere
f ((1, 2, 2)E3 ) = f ((1, 0, 0)A ) = (1, 1)B = (1, 1)E2 (1, 0)E2 = (0, 1)E2 ;
f ((1, 1, 0)E3 ) = f ((0, 1, 0)A ) = (1, 0)B = (1, 1)E2 = (1, 1)E2 ;
f ((1, 0, 1)E3 ) = f ((0, 0, 1)A ) = (0, 1)B = (1, 0)E2 .
Ed essendo
f ((1, 2, 2)E3 ) = f (e1 + 2e2 + 2e3 ), f ((1, 1, 0)E3 ) = f (e1 + e2 ), f ((1, 0, 1)E3 ) = f (e1 + e3 ),

f (e1 + 2e2 + 2e3 ) = (0, 1)E2


f (e1 + e2 ) = (1, 1)E2
,

f (e1 + e3 ) = (1, 0)E2

f (e1 ) + 2f (e2 + 2f (e3 ) = (0, 1)E2


f (e1 ) + f (e2 ) = (1, 1)E2
.

f (e1 ) + f (e3 ) = (1, 0)E2


Risolviamo il sistema precedente (nelle incognite f (e1 ), f (e2 ) e f (e3 )):
172

1 2 2
(0, 1)
1
1 1 0 (1, 1) 1
1 0 1
(1, 0)
1

1 2 2
(0, 1)
3
1 1 0 (1, 1) 3
0 3 0 (3, 0)
0

3
0 0 6 (6, 6)
3 0 0 (0, 3) 0
0 3 0 (3, 0)
0

1 0 0 (0, 1)
0 1 0 (1, 0) .
0 0 1 (1, 1)

(0, 1)
2 2
1 0 (1, 1)
2 0 (2, 1)

0 6 (6, 3)
0 0 (0, 3)
3 0 (3, 0)

0 0 (0, 3)
3 0 (3, 0)
0 6 (6, 6)

Quindi f (e1 ) = (0, 1), f (e2 ) = (1, 0), f (e3 ) = (1, 1) e

0 1 1
E3 ,E2
Mf
=
.
1 0 1
Esempio 28.4 Sia f : R3 R4 lapplicazione
dalla matrice

1
MfE3 ,E4 =
1
1

lineare definita, rispetto le basi canoniche,

1
2
1 1
.
1
0
0
1

1. Studiare f .
2. Verificare che
A = ((1, 2, 1), (1, 2, 0), (0, 1, 1))

B = ((1, 1, 2, 2), (3, 1, 3, 1), (1, 1, 0, 0), (2, 0, 1, 1))

sono due basi rispettivamente in R3 e in R4 .


3. Determinare MfA,B .
4. Determinare la legge di f rispetto le basi A e B.
SVOLGIMENTO. Punto 1.
trovare il rango di MfE3 ,E4 :

1
1
2
1
1 1 1
2


1
0
1
0
1 0
1
1

Per determinare le dimensioni di Ker f e di Im f occorre

1 2
1 1 2
2 0 1
0 1

0 0 2
0 2
0 1
0 0 0
173

MfE3 ,E4 ha rango 3, quindi dim Im f = 3 e dim Ker f = 3 3 = 0. Ne segue Ker f =


{(0, 0, 0)E3 } e C = ((1, 1, 1, 1)E4 , (1, 1, 1, 0)E4 , (2, 1, 0, 1)E4 ) e una base di Im f . Per
trovare lequazione di Im f , consideriamo il generico vettore (x, y, z, t)E4 Im f . Esso deve
essere combinazione lineare dei vettori della base C. Pertanto la seguente matrice deve avere
rango 3:

1
1
2 x
1 1 1 y

.
(86)
1
1
0 z
1 0
1 t
Per il metodo di riduzione

1 1 2
1
1
2 x
x
2 0 1 x+y
1 1 1 y

0 0 2 z x
1
1
0 z
1 0
1 t
1 0 1
t

1 1 2
x
2 0 1

x+y
,

0 0 2

zx
0 0 0 4t + x + 4y + 3z

0
0

1 2
x

0 1
x+y

0 2
zx
0 3 2t + 2y + 2x

Dovendo essere 3 il rango della (86), dobbiamo porre


4t + x + 4y + 3z = 0
che e lequazione di Im f .
Punto 2. Si verifica facilmente che le seguenti matrici hanno rango 3 e 4, rispettivamente:

1 3 1 2
1 1 0

2 2 1 1 1 1 0 .
2 3 0 1
1 0 1
2 1 0 1
Pertanto A e B sono due basi.
Punto 3. Calcoliamo ora MfA,B . Si ha:
f ((1, 0, 0)A ) = f ((1, 2, 1)E3 ) = (5, 2, 3, 0)E4 ,
f ((0, 1, 0)A ) = f ((1, 2, 0)E3 ) = (3, 1, 3, 1)E4 ,
f ((0, 0, 1)A ) = f ((0, 1, 1)E3 ) = (3, 2, 1, 1)E4 .
Adesso bisogna esprimere in base B i vettori (5, 2, 3, 0)E4 , (3, 1, 3, 1)E4 e (3, 2, 1, 1)E4 .
Cerchiamo la matrice di cambiamento di base P E4 ,B :
174

1
1

2
2

1
0

4
4

0
0

0
4

4
0

0
0

3
1
3
1
3
2
4
0

1
1
0
0

2
0
1
1

1
0
0
0

0
1
0
0

0
0
1
0

1 2
1
0 2 1
0 0 1
0 0 1

0 4 8 5
0 0 4 2
4 0
0
0
0 0
0 1
0 0
0 1
4 0
0
0
0 4 0 1
0 0 4 2

0
1 3 1 2
1 0 0 0

0
0 2 0 2 1 1 0 0
2 3 0 1
0
0 0 1 0
1
2 1 0 1
0 0 0 1

0 0 0
0 12 4 8 5 1 0 2

1 0 0
0 2 0 2 1 1 0 0
0 4
0
0
1 2 0
0 0 2 2
1 0 2
4 0
0
0 1 1 0 2

1 6 4
0 0 4 0 1 3 2 0

2 2 2
0 0 0 4 2 2 2 2
0 4 0
0 2 2
0
0
0 2 2
1 0 2
4 0 0
0 1 1 0 2

1
1 0 2
1 0 0 0 14 14
0
2
1

12
0 2 2
0
2
0 1 0 0 01
.
3
1
0 0 1 0

3 2 0

0
4
4
2
1
1
1
1
2 2 2
0 0 0 1 2 2 2 2

Pertanto

P E4 ,B

14
0
=
1
4
1
2

Essendo

7
5
4
3

2
27
P E4 ,B
=
3

4
0
2
E4

3
4

21
21

0
12

1
2

1
2

12
.
0
1
2

3
3
2

, P E4 ,B 1 = 23

3

2
0
1 E4
B

3
3
4

2
0
P E4 ,B
1 = 5
4
5
1
2
E4
abbiamo

1
4

7 3 7
,
f ((1, 0, 0)A ) = (5, 2, 3, 0)E4 = , , , 2
4 2 4
B

3
3
f ((0, 1, 0)A ) = (3, 1, 3, 1)E4 = , 2, , 0
,
2
2
B

3
5 5
f ((0, 0, 1)A ) = (3, 2, 1, 1)E4 = , 0, ,
e quindi
4
4 2 B
175

MfA,B

74 32 34
3
2
0
2

=
7
3
5 .

4
2
4
5
2
0
2

Punto 4. Lequazione di f rispetto le basi A e B e


x
7
3
3 3
7
3
5
5
A,B

y
= x y z, x + 2y, x y z, 2x + z
.
f ((x, y, z)A ) = Mf
4
2
4 2
4
2
4
2 B
z A

Esempio 28.5 Siano A = (v1 = (1, 2), v2 = (2, 2)), C = (u1 = (3, 3), u2 = (1, 0)),
B = (w1 = (1, 2, 3, 3), w2 = (2, 2, 0, 0), w3 = (1, 0, 1, 0), w4 = (1, 1, 1, 1)),
D = (z1 = (1, 1, 1, 1), z2 = (0, 1, 1, 1), z3 = (0, 0, 1, 1), z4 = (0, 0, 0, 1)).
1. Verificare che A e C sono due basi in R2 e che B e D sono due basi in R3 .
2. Assegnata lapplicazione f avente matrice associata

1 1
1
3

MfA,B =
2 1 ,
1
2
determinare MfC,D .
SVOLGIMENTO. Il quesito 1 si verifica facilmente. Risolviamo il quesito 2. Determiniamo
u1 e u2 nella base A (in altre parole determineremo la matrice P C,A ):

1 2
1 2 3 1
3
1

2 2 3 0
0 2 3 2

0 1
1 0
1 0 0 1
.

0 2 3 2
0 1 32 1

0 1
C,A
Abbiamo quindi P
=
, cio`e
3
1
2

3
u1 = 0,
, u2 = (1, 1)A .
2 A

x
A,B
Poich`e f ((x, y)A ) = Mf
= (x + y, x + 3y, 2x y, x + 2y)B , si ha
y A
176

f (u1 ) = f (0, 32 )A = 32 , 92 , 23 , 3 B ,
f (u2 ) = f ((1, 1)A ) = (2, 2, 3, 1)B .

Ora, determiniamo 32 , 92 , 32 , 3 B e (2, 2, 3, 1)B in base D. A tale scopo cerchiamo la


matrice di cambiamento di base P B,D .

1 0 0 0 1 2 1 1
1 0 0 0 1 2 1 1
1 1 0 0 2 2 0 1

0 1 0 0 1 0 1 0
1 1 1 0 3 0 1 1
0 1 1 0 4 2 2 2
1 1 1 1 3 0 0 1
0 1 1 1 4 2 1 2

1 0 0 0 1 2 1 1
1 0 0 0 1 2 1 1
0 1 0 0 1 0 1 0
0 1 0 0 1 0 1 0

0 0 1 0 3 2 3 2 0 0 1 0 3 2 3 2
0 0 1 1 3 2 2 2
0 0 0 1 0 0 1 0

1 0 0 0 1 2 1 1
0 1 0 0 1
0 1 0

.
0 0 1 0 3
2
3
2
0 0 1 1 0
0 1 0
Pertanto

P B,D

1 2 1 1
1
0 1 0
,
=
3
2
3
2
0
0 1 0

e quindi

3
3 9 3
= 12, 3, 15,
, (2, 2, 3, 1)B = (2, 7, 1, 3)D
, , ,3
2 2 2
2 D
B

12 2
3
7

MfC,D =
15 1 .
3
3
2

NellEsempio 28.5 abbiamo determinato MfC,D , supposta nota la MfA,B . Il metodo mostrato in questo esempio e, ovviamente, del tutto generale. Possiamo formulare meglio il metodo
usato in modo da mettere in evidenza il legame intercorrente fra le matrici di cambiamento
di base e le matrici associate allapplicazione lineare f .
Teorema 28.2 (Metodo per determinare la matrice associata MfC,D qualora si
supponga nota la MfA,B .)
177

Siano V e W due spazi vettoriali su K di dimensione finita n ed m, rispettivamente. Sia


f : V W unapplicazione lineare. Se A e C sono due basi di V e B e D sono due basi
di W , si ha
MfC,D = P B,D MfA,B P C,A .
(87)
e

MfA,B = P D,B MfC,D P A,C .

(88)

Dimostrazione. Si vuole determinare la matrice associata MfC,D qualora si supponga nota


la MfA,B e viceversa. Siano u V e v W tali che
f (u) = v.

(89)

Posto
u = (u1 , u2 , . . . , un )A = (u01 , u02 , . . . , u0n )C e
0
v = (v1 , v2 , . . . , vm )B = (v10 , v20 , . . . , vm
)D ,

possiamo scrivere la (89) nei due seguenti modi (a seconda che si consideri la matrice associata
alla f espressa rispetto le basi A, B oppure C, D):

0
0
v1
u1
v1
u1
v2
u2
v20
u02





A,B
C,D

(90)
= Mf e = Mf .





0
vn B
um A
vn D
u0m C
Ricordando che P C,A e la matrice di cambiamento dalla base C alla base A in V e P B,D e la
matrice di cambiamento da B a D in W , si ha
0

0
u1
u1
v1
v1
u02
u2
v2
v20




C,A
B,D

P
= e P
= .





u0m C
um A
vn B
vn0
D
Quindi

v10
v20

vn0

B,D

=P

v1
v2

vn

A,B
B,D
=P
Mf

178

u1
u2

um

A,B
B,D
C,A

=P
Mf P

u01
u02

u0m

da cui

v10
v20

vn0

A,B
B,D
C,A
=P

Mf P

u01
u02

u0m

(91)

Confrontando la (91) con la seconda delle (90) si ottiene la (87). Dalla (87) si ricava,

1 C,D C,A 1
Mf
= P D,B MfC,D P A,C
MfA,B = P B,D
P
e quindi 88 resta provata.
NellEsempio 28.5 abbiamo gi`a determinato le seguenti matrici

1
1 1

1
1
3
0
1
C,A

MfA,B =
=
e P B,D =
3

2 1 , P
1
3
2
0
1
2
Per la (87) si ha

1 2 1 1
1 1

1
0 1 0 1
3
MfC,D =
3
2
3
2 2 1
0
0 1 0
1
2

2 1 1
0 1 0
.
2
3
2
0 1 0

0 1
3
1
2

12 2
3
7

=
15 1 .
3
3
2

Si consideri adesso lendomorfismo


f : V V.
Per quanto detto sopra (ove si suppone W = V , B = A e D = C) si hanno le uguaglianze
MfC,C = P A,C MfA,A P C,A e MfA,A = P C,A MfC,C P A,C
che possiamo scrivere
MfC,C = (P C,A )1 MfA,A P C,A e MfA,A = (P A,C )1 MfC,C P A,C .

(92)

Pertanto MfA,A si ottiene dalla MfC,C attraverso il prodotto H 1 MfC,C H essendo, nel nostro caso, H = P A,C . Analogamente MfC,C si ottiene dalla MfA,A attraverso il prodotto
1

H 1 MfC,C H ove si ponga H = P C,A = P A,C . Possiamo generalizzare quanto detto nel
seguente modo.
Definizione 28.1 Due matrici A, B M(n; K) si dicono simili se esiste una matrice
invertibile H M(n; K) di ordine n tale che B = H 1 AH.
179

Proposizione 28.2 Per ogni A, B M(n; K) si consideri la seguente relazione S: A S B


se e solo se A e B sono simili. S e una relazione di equivalenza.
Dimostrazione. (Dimostrazione facoltativa) Propriet`a riflessiva: per ogni A M(n; K) e
A S A. Infatti A = In1 AIn .
Propriet`a simmetrica: se A S B allora B S A. Infatti se A S B esiste H M(n; K) tale
1
che A = H 1 BH da cui HA = BH, HAH 1 = B, (H 1 ) AH 1 = B cio`e B S A.
Propriet`a transitiva: se A S B e B S C allora A S C. Poich`e A S B esiste una matrice
invertibile H1 tale che A = H11 BH1 ; poich`e B S C esiste una matrice invertibile H2 tale
che B = H21 CH2 . Sostituendo nelluguaglianza precedente avremo A = H11 H21 CH2 H1 .
Ponendo H = H2 H1 e ricordando che H 1 = H11 H21 si ottiene A S C.
Vale il seguente teorema.
Teorema 28.3 Due matrici quadrate A, B M(n; K) sono simili se e solo se sono associate
ad uno stesso endomorfismo f di uno spazio vettoriale V di dimensione n sul campo K
rispetto a basi opportune.
Date due matrici A, B M(n; K) nasce quindi il problema di decidere se esse sono simili
oppure no. In generale questo e un problema difficile.

29

Autovalori ed autovettori

Sia V uno spazio vettoriale sul campo K e sia f : V V un endomorfismo. Ovviamente


Ker f e Im f sono entrambi sottospazi dello stesso spazio V e, pi`
u in generale, ogni vettore o
sottospazio del dominio V di f si trova anche nel suo codominio (che e ancora V ). Pertanto
possono esistere sottospazi W di V tali che f (W ) = W oppure f (W ) W . Possono anche
esistere vettori v V tali che f (v) = v o, pi`
u in generale, f (v) Span({v}).
Definizione 29.1 Sia f : V V un endomorfismo. Un elemento K si dice autovalore
per f se esiste un vettore v V , v 6= o, tale che f (v) = v.
Definizione 29.2 Sia f : V V un endomorfismo. Un vettore v V , v 6= o, si dice
autovettore per f se esiste un elemento K tale che f (v) = v. In tal caso diremo che v
e un autovettore associato allautovalore .
Si noti che il vettore nullo o pur soddisfacendo lequazione f (o) = o qualunque sia
K non e un autovettore.
Esempio 29.1 Sia A = (u1 = (1, 0), u2 = (1, 1)) una base di R2 e sia f : R2 R2
lendomorfismo assegnato mediante f (u1 ) = (1, 1), f (u2 ) = (2, 2). Cercare gli autovalori e
gli autovettori per f .

180

SVOLGIMENTO. In base alla definizione di autovalore bisogna cercare i R per cui


esiste un v = (a, b) R2 , v 6= (0, 0), tale che f (v) = v. Essendo f assegnato mediante le
immagini della base A cominciamo con esprimere v in base A: v = (a, b) = u1 + u2 =
(1, 0) + (1, 1) = ( + , ), da cui = a b e = b. Quindi v = (a b)u1 + bu2 e
f (v) = f ((a b)u1 + bu2 ) = (a b)f (u1 ) + bf (u2 ) = (a b)(1, 1) + b(2, 2) = (a + b, a + b).
Pertanto lequazione f (v) = v diventa (a + b, a + b) = (a, b), da cui

a + b = a
(1 )a + b = 0
,
.
a + b = b
a + (1 )b = 0
Per essere un autovalore, il precedente sistema deve avere soluzioni (a, b) diverse dalla
banale. Quindi deve essere

1
1

= 0,
1
1
le cui soluzioni = 0 e = 2 danno gli autovalori cercati.
Allautovalore = 0 corrispondono gli autovettori (a, a) per ogni a R, a 6= 0. Infatti
essi sono le soluzioni diverse dalla banale del sistema

(1 )a + b = 0
a + (1 )b = 0
per = 0. Analogamente gli autovettori corrispondenti a = 2 sono dati da (a, a) per ogni
a R, a 6= 0.
Esempio 29.2 Sia f : R2 R2 lendomorfismo definito, rispetto la base canonica di R2 ,
dalla legge f (x, y) = (x + 2y, x y). Verificare che f non ammette autovettori.
SVOLGIMENTO. Se (, ) R2 fosse un autovettore per f , allora (, ) 6= (0, 0) ed esisterebbe un R tale che f (, ) = (, ) ovvero ( + 2, ) = (, ). Quindi il
sistema

(1 ) + 2 = 0
(93)
(1 + ) = 0
dovrebbe ammettere soluzioni diverse dalla banale. Il che implica

11 1 = 0,
e quindi 2 + 1 = 0 per qualche 6= 0. Impossibile.
Osservazione. La stessa legge f , applicata allo spazio vettoriale C2 sul campo C, risulta un
endomorfismo su C2 che ha autovalori.
Teorema 29.1 Sia f : V V un isomorfismo. Allora K e un autovalore per f se e
solo se 1 e un autovalore per f 1 .
181

Teorema 29.2 Sia f : V V un endomorfismo e sia K. Allora lapplicazione


f = f iV : V V
definita da f (v) = f (v) v e un endomorfismo.
Teorema 29.3 Sia f : V V un endomorfismo. Allora K e un autovalore per f se
e solo se lendomorfismo f non e iniettivo.
Dimostrazione. (Dimostrazione facoltativa) Necessit`a. Supponiamo che sia un autovalore per f . Allora esiste v 6= o tale che f (v) = v; ovvero f (v)v = o. Quindi v Ker f
e v 6= o. Per il Teorema 27.6, f non e iniettivo.
Sufficienza. Supponiamo che f non sia iniettivo. Allora Ker f 6= {o}. Quindi esiste
almeno un v 6= o, v Ker f . Ovvero f (v) = o, f (v) v = o, f (v) = v il che prova
che e un autovalore per f .
Definizione 29.3 Sia f : V V un endomorfismo e K un autovalore per f . Dicesi
autospazio associato allautovalore , e si denota con V , linsieme dei vettori v V tali che
f (v) = v. Cio`e
V = {v V | f (v) = v}.
Notiamo che V e costituito dal vettore nullo o e da tutti gli autovettori associati a .
Inoltre V e un sottospazio di V poiche V = Ker f . Osserviamo infine che se = 0 e un
autovalore per f si ha V0 = Ker f in quanto f0 = f .
Teorema 29.4 Sia f : V V un endomorfismo e 1 , 2 , . . . , r K r suoi autovalori
distinti. Per i = 1, 2, . . . , r sia vi Vi . Allora gli autovettori v1 , v2 , . . . , vr sono linearmente
indipendenti.
Teorema 29.5 Siano V1 , V2 , . . . , Vr autospazi distinti di un endomorfismo f : V V .
Allora V1 + V2 + . . . + Vr e diretta.
Teorema 29.6 Sia V uno spazio vettoriale di dimensione n. Allora ogni endomorfismo di
V ammette al pi`
u n autovalori.
Definizione 29.4 Sia f : V V un endomorfismo di uno spazio vettoriale di dimensione
finita n e K un autovalore per f . Dicesi molteplicit`a geometrica di , e si denota con
g , la dimensione dellautospazio V associato a ; cio`e g = dim V .
Teorema 29.7 Sia V uno spazio vettoriale di dimensione n e sia f : V V un endomorfismo i cui autovalori distinti sono 1 , 2 , . . . , r . Allora la somma delle molteplicit`a
geometriche degli autovalori distinti e al pi`
u n. Cio`e g1 + g2 + . . . + gr n.

182

30

Ricerca degli autovalori e degli autospazi ad essi


associati

Sia V uno spazio vettoriale su K di dimensione n e sia f : V V un endomorfismo. Fissata


una base A per V rester`a associata la matrice MfA,A . Consideriamo lendomorfismo f =
f iV , con K. Ricordando la Proposizione 28.1, la matrice ad esso associata rispetto
A,A
A,A
alla stessa base A sar`a MfA,A
= MfA,A
+ Mi
= MfA,A MiA,A
= MfA,A In .
iV = Mf
V
V

Abbiamo quindi il seguente teorema.


Teorema 30.1 Sia f : V V un endomorfismo di uno spazio vettoriale su K di dimensione finita n e sia A una base di V . Un elemento K e un autovalore per f se e solo
se
|MfA,A In | = 0.
Definizione 30.1 Sia M una matrice quadrata di ordine n su K. Si chiama polinomio
caratteristico di M , e si denota con M (x), il determinante della matrice M xIn , cio`e
M (x) = |M xIn |.
Nel caso in cui M = MfA,A (cio`e M e la matrice associata ad un endomorfismo f rispetto
ad una stessa base A) M A,A (x) si chiama il polinomio caratteristico di f e si indica con
f
f (x).
La definizione di f (x) sembra essere mal posta, in quanto sembra che f (x) dipenda
non solo dallendomorfismo f ma anche dalla base A fissata. Vale per`o il seguente teorema.
Teorema 30.2 Sia f : V V un endomorfismo di uno spazio vettoriale su K di dimensione finita n e siano A e B due basi di V . Posto D = MfA,A e C = MfB,B si ha che D e C
hanno lo stesso polinomio caratteristico, cio`e D (x) = C (x).
Esempio 30.1 Si consideri lo spazio vettoriale V = R3 sul campo R. Sia f : R3 R3
lendomorfismo individuato dalle assegnazioni
f (v1 ) = (2, 3, 3), f (v2 ) = (2, 1, 0), f (v3 ) = (0, 2, 1)
dove v1 = (1, 1, 1), v2 = (1, 0, 1) e v3 = (0, 1, 1) formano una base A di R3 . Verificare che
M E3 ,E3 (x) = M A,A (x) = f (x) e determinare inoltre gli autovalori per f .
f

SVOLGIMENTO. Per le assegnazioni date si ha

2 2 0
MfA,E3 = 3 1 2 .
3 0 1
183

Per determinare M E3 ,E3 (x) e necessario calcolare la matrice MfE3 ,E3 . Per la (87) (vedasi
f

Teorema 28.2) abbiamo


Essendo

1
1
1

1
0
0

1
0
0

MfE3 ,E3 = P E3 ,E3 MfA,E3 P E3 ,A .

P E3 ,E3 = I3 , e sufficiente calcolare P E3 ,A .

1 0 1 0 0
1 1 0 1

0 1 0 1 0
0 1 1 1

1 1 0 0 1
0 2 1 1

1
0
0
1 1 0
1 0

1 1 1 1 0
0 1 0

0 1 1 2 1
0 0 1

0 0 1 1 1
1 0 0
1 1 .
0 1 1 2 1

Quindi

(94)

0
0
1 0
0 1

1 0 0
0 1 1
1 2 1

P E3 ,A

1 1 1
1 1
= 0
1 2 1

e, per la (94),

MfE3 ,E3
Pertanto

2 2 0
1 1 1
2 0 0
1 1 = 1 0 2 .
= I3 3 1 2 0
3 0 1
1 2 1
2 1 2

2x 0
0

x
2
M E3 ,E3 (x) = 1
f
2
1 2 x

= (2 x)(x2 2x + 2).

Determiniamo ora M A,A (x). In tal caso dobbiamo calcolare MfA,A . Per la (87) (vedasi
f
Teorema 28.2) abbiamo
MfA,A = P E3 ,A MfA,E3 P A,A
e quindi

MfA,A
Pertanto

1 1 1
2 2 0
2 3 1
1 1 3 1 2 I3 = 0 1 1 .
= 0
1 2 1
3 0 1
1 4 3

2x
3
1

1 x
1
M A,A (x) = 0
f
1
4
3x
184

= (2 x)(x2 2x + 2)

e, secondo le previsioni del Teorema 30.2,


M E3 ,E3 (x) = M A,A (x) = f (x) = (2 x)(x2 2x + 2)
f

e il polinomio caratteristico cercato.


Ricordando il Teorema 30.1, gli autovalori per f sono le soluzioni in R dellequazione
f (x) = (2 x)(x2 2x + 2) = 0 la cui unica soluzione e x = 2.
La ricerca degli autospazi associati agli autovalori per lendomorfismo f : V V (si
ricordi che V e uno spazio vettoriale di dimensione n sul campo K) si fa tenendo presente
che, se K e un autovalore, allora e V = Ker(f ). Per cui V va calcolato con gli usuali
metodi per la ricerca del nucleo di una applicazione lineare, applicati allendomorfismo f .
Quindi le componenti rispetto alla base A di V dei vettori x = (x1 , x2 , . . . , xn )A V sono
date dalle soluzioni del sistema lineare omogeneo


0
x1
x2 0



A,A

(95)
(Mf In )
= ,


0
xn
per cui, in particolare,

dim V = n r(MfA,A In ),

ove r(MfA,A In ) denota il rango della matrice MfA,A In (vedasi Definizione 15.5).
Esempio 30.2 Sia f lendomorfismo definito nellEsempio 30.1. Determinare, nella base
A, i vettori dellautospazio V2 associato allunico autovalore per f .
SVOLGIMENTO. In virt`
u della (95), e sufficiente risolvere il sistema


x1
0
A,A

0 ,
(Mf 2I3 ) x2
=
x3
0

2 3 1
0 1 1
1 4 3

0
0
1



1 0 0
x1
0
2 0 1 0 x2 = 0 ,
0 0 1
x3
0

3 1
0
x1

3 1
x2
0 ,
=
x3
4 1
0

3x2 x3 = 0
.
x1 x2 = 0
185

Quindi
V2 = {(x2 , x2 , 3x2 )A | x2 R} .
Essendo r(MfA,A 2I3 ) = 2,
dim V2 = 3 r(MfA,A 2I3 ) = 1.
Una base di V2 e data dal vettore (1, 1, 3)A .

31

Unapplicazione degli autovettori: il motore di ricerca Google

Il presente paragrafo e la (libera) traduzione italiana dellarticolo Searching the web with
eigenvectors di Herbert S. Wilf, University of Pennsylvania, Philadelphia, PA 19104-6395
(April 13, 2001).
Come potremmo misurare limportanza di un sito web? Un sito e importante se altri importanti siti web si connettono ad esso (questa definizione potrebbe apparire un circolo vizioso ma, per il momento, non preoccupiamocene). Supponiamo che x1 , x2 , . . . , xn esprimano,
rispettivamente, la misura dellimportanza dei siti 1, 2, . . . , n. Cio`e
xi = importanza del sito i.
Vogliamo che limportanza di ogni sito web sia proporzionale alla somma delle importanze
di tutti gli altri siti che si connettono ad esso. Si ottiene un sistema di n equazioni in n
incognite che potrebbe assomigliare, per esempio, al seguente:

x1 = k(x14 + x97 + x541 )

x2 = k(x14 + x1003 + x3224 + x10029 )


.
(96)
... = ...

xn = k(x1 + x23 + x10098 + x10099 )


Il significato del precedente sistema e immediato: la prima equazione ci dice che i siti 14,
97 e 541 si connettono al sito 1 e la sua importanza x1 e data dal prodotto di una costante
positiva di proporzionalit`a k per la somma delle importanze dei siti che si connettono ad 1.
La seconda equazione esprime il fatto che solamente 14, 1003, 3224 e 10029 si connettono al
sito 2 e la sua importanza x2 e uguale al prodotto della costante di proporzionalit`a k per la
somma delle importanze dei siti che si connettono ad 1. E cos` via.
Riassumendo, se per ogni coppia i, j {1, 2, . . . , n}, poniamo

1 se il sito j si connette col sito i


aij =
,
0 se il sito j non si connette col sito i

186

il sistema (96) pu`o essere scritto nel seguente modo

x1 = k(a11 x1 + a12 x2 + . . . + a1n xn )

x2 = k(a21 x1 + a22 x2 + . . . + a2n xn )


.
.. = ...

xn = k(an1 x1 + an2 x2 + . . . + ann xn )

(97)

ove si ponga aij = 1 per ogni coppia (i, j) {(1, 14), (1, 97), (1, 541), (2, 14), (2, 1003), (2, 3224),
(2, 10029), . . . , (n, 1), (n, 23), (n, 10098), (n, 10099)} e aij = 0 per ogni coppia (i, j) tale che
xij non appare al secondo membro di (96).
Ovviamente, attribuendo valori diversi (ma sempre 0 o 1) ai coefficienti aij , (97) esprime,
in generale, limportanza che ogni sito ha in funzione dei rimanenti. Si noti che in (97)
valgono sempre le uguaglianze aii = 0 per ogni i {1, 2, . . . , n}.
Posto

0 a12 a13 a1n


x1
x2
a21 0 a23 a2n

x = x3 e A =
a31 a32 0 a3n ,


an1 an2 an3 0
xn
il sistema (97) pu`o essere formulato nel seguente modo
x = kAx,
o, equivalentemente,

1
x.
(98)
k
Ricordando che A pu`o essere vista come la matrice associata, rispetto alla base canonica,
ad una applicazione lineare f : Rn Rn (tale che MfEn ,En = A) la (98) diventa
Ax =

f (x) =

1
x.
k

(99)

Il vettore delle importanze e quindi una soluzione x della (99). Dunque il vettore delle
importanze e un particolare autovettore corrispondente ad un opportuno autovalore positivo
1
. Possiamo allora procedere, per esempio, trovando tutti gli autovettori di f e poi sceglierne
k
uno avente tutte le componenti positive.
Il motore di ricerca Google usa una variante di questa idea (descritta dettagliatamente
dagli inventori di Google, Sergey Brin e Lawrence Page, The anatomy of a large-scale hypertextual web search engine, Computer Networks and ISDN Systems, 30 (1998), 107-117).
Lutente invia una richiesta al motore Google ed ottiene in risposta una lista di siti in ordine
decrescente di importanza. Questo, in genere, fa risparmiare tempo prezioso nella ricerca.
Lidea di usare gli autovettori per determinare il vettore delle importanze e dovuta a Kendall
e Wei intorno al 1950. Sebbene si possa usare in molti altri campi questo metodo e diventato
famoso grazie alle applicazioni web. Il lettore interessato pu`o studiare i lavori originali:
187

M.G. Kendall, Further contributions to the theory of paired comparisons, Biometrics


11 (1955), p. 43.
T.H. Wei, The algebraic foundations of ranking theory, Cambridge University Press,
London 1952.
Per finire illustriamo questa idea nel caso in cui si vuole trovare il vettore delle squadre di
calcio dopo che esse hanno finito il torneo. Precisiamo che non stiamo cercando la classifica
finale in base ai risultati delle partite ma una diversa classifica della bravura delle squadre
ritenendo che una squadra e brava non solo se ha vinto ma anche se ha vinto squadre anchesse
brave (ecco il circolo vizioso che ritorna!).
Consideriamo un torneo fra sei squadre ad un solo turno in cui ogni partita non pu`o finire
pari (quindi una delle due squadre deve vincere e laltra perdere). Per ogni i, j {1, . . . , 6},
i 6= j, poniamo aij = 1 se la squadra i vince con la squadra j e aij = 0 se la squadra i perde
con la squadra j. Ovviamente aii = 0 per ogni i = 1, . . . , 6. A torneo finito riassumiamo i
risultati nella seguente tabella

0 1 0 0 1 0
0 0 1 0 1 0

1 0 0 0 0 0

A = (aij ) =
(100)
1 1 1 0 0 1 .

0 0 1 1 0 0
1 1 1 0 1 0
Se poniamo xi = bravura della squadra i, abbiamo il sistema:

x1 = k(a12 x2 + a15 x5 )

x2 = k(a23 x3 + a25 x5 )

x3 = ka31 x1
x4 = k(a41 x1 + a42 x2 + a43 x3 + a46 x6 )

x = k(a53 x3 + a54 x4 )

5
x6 = k(a61 x1 + a62 x2 + a63 x3 + a65 x5 )
che, espresso in forma matriciale, diventa
x = kAx,
ovvero

1
x
k
e quindi, anche questo problema, diventa quello della ricerca di unopportuno autovalore
con un opportuno autovettore ad esso associato. Questo problema oggi e risolto in tempi
brevissimi dai programmi di calcolo a disposizione. Nel nostro caso, la matrice A definita in
Ax =

188

(100) ha un solo autovalore reale positivo k1 = 2.0427 cui possiamo associare lautovettore

x1
0.3113
x2 0.2591

x3 0.1524

x=
= 0.6173 .
x
4

x5 0.3768
x6
0.5383
Quindi, concordemente al vettore delle bravure, la classifica finale in base alla bravura e,
nellordine,
4, 6, 5, 1, 2, 3.
Si noti che, in base al punteggio, avremmo avuto al primo posto con punti 4 le squadre 4 e
6, al secondo posto con punti 2 le squadre 1, 2, e 3.

32

Endomorfismi semplici

Alla fine del Paragrafo 29 abbiamo visto che se f


autovalori distinti sono 1 , 2 , . . . , r , allora

: V V e un endomorfismo i cui

V1 V2 . . . Vr V.
naturale chiedersi quando vale luguaglianza nella precedente inclusione. In tal caso,
E
essendo
V1 V2 . . . Vr = V
sar`a possibile costruire in V una base formata da autovettori: baster`a prendere lunione di
basi prese da ciascun sottospazio Vi , i = 1, 2, . . . , r.
Definizione 32.1 Sia V uno spazio vettoriale sul campo K. Un endomorfismo f : V V
si dice semplice se esiste una base di V formata da autovettori.
Teorema 32.1 Un endomorfismo f : V V e semplice se e solo se esiste una base A di
V tale che la matrice MfA,A risulti una matrice diagonale (si veda la Definizione 10.4).
Dimostrazione. (Dimostrazione facoltativa) Sia f : V V un endomorfismo semplice.
Allora esiste una base A = (v1 , v2 , . . . , vn ) per V con v1 , v2 , . . . , vn autovettori per f . Per
definizione di autovettore, esistono n scalari 1 , 2 , . . . , n K (non necessariamente distinti)
tali che
f (vi ) = i vi , i = 1, 2, . . . , n.
Segue subito

MfA,A

1 0 0
0 2 0
0 0 3

0 0 0
189

0
0
0

n

Viceversa, sia f : V V un endomorfismo per cui esiste una base di V A = (v1 , v2 , . . . , vn )


tale che

1 0 0 0
0 2 0 0

A,A

Mf =
0 0 3 0 .


0 0 0 n
Ne segue
f (vi ) = i vi , i = 1, 2, . . . , n
e quindi i vettori vi della base A sono autovettori ed f risulta semplice.
Teorema 32.2 Sia V uno spazio vettoriale su K di dimensione finita n e sia f : V V
un endomorfismo avente n autovalori distinti. Allora f e semplice.
Definizione 32.2 Sia un autovalore per lendomorfismo f : V V . Dicesi molteplicit`
a
algebrica di , e si denota con m , la molteplicit`a di come radice del polinomio caratteristico
di f .
Teorema 32.3 Sia V uno spazio vettoriale su K e sia f : V V un endomorfismo avente
un autovalore K di molteplicit`a algebrica m . Allora
1 g = dim V m .
In altre parole la molteplici`a geometrica e minore od uguale a quella algebrica.
Teorema 32.4 Sia V uno spazio vettoriale su K e sia f : V V un endomorfismo i cui
autovalori distinti sono 1 , 2 , . . . , r . Allora i seguenti fatti sono equivalenti:
1. f e semplice;
2. V = V1 V2 . . . Vr ;
3. dim V = dim V1 + dim V2 + . . . + dim Vr ;
4. ogni radice del polinomio caratteristico f (x) sta in K e g = dim V = m .
Esempio 32.1 Sia f : R3 R3 lendomorfismo definito da f (v1 ) = hv1 , f (v2 ) = (h
2)v1 +2v2 e f (v3 ) = (2h+4)v1 +4v2 2v3 , dove v1 = (1, 0, 1), v2 = (0, 1, 1) e v3 = (1, 2, 0).
Determinare i valori del parametro reale h per cui f e semplice ed in tali casi trovare una
base di autovettori.
SVOLGIMENTO. Innanzitutto si osservi che

1 0 1

0 1 2 =
6 0,

1 1 0
190

quindi A = (v1 , v2 , v3 ) e una base per R3 e f (v1 ) = (h, 0, 0)A , f (v2 ) = (h 2, 2, 0)A ,
f (v3 ) = (2h + 4, 4, 2)A . Quindi

h h 2 2h + 4
,
2
4
MfA,A = 0
0
0
2

h h 2 2h + 4
1 0 0

x 0 1 0 =
2
4
f (x) = 0

0
0
2
0 0 1

h x h 2 2h + 4

= (h x)(2 x)(2 x).


2x
4
= 0

0
0
2 x
Le radici del polinomio caratteristico sono 2, 2, h che possono essere semplici o doppie
a seconda che h 6= 2 oppure h = 2.
Caso h = 2. Gli autovalori sono 2, 2 e si ha m2 = 2 e m2 = 1. Bisogna quindi
controllare se g2 = m2 , essendo g2 = dim V2 = 3 r MfA,A (2)I3 .

MfA,A

2 4 0
1 0 0
0 4 0
2
4 + 2 0 1 0 = 0 4 4 il cui rango e 2.
(2)I3 = 0
0
0 2
0 0 1
0 0 0

Quindi g2 = 3 2 = 1 < 2 = m2 e lendomorfismo non e semplice. Pertanto non esiste


una base di autovettori.
Caso h = 2. Gli autovalori sono 2, 2 con molteplicit`a algebrica
m2 = 1e m2 = 2. Bisogna

A,A
quindi controllare se g2 = m2 , essendo g2 = dim V2 = 3 r Mf 2I3 .

2 0 8
1 0 0
0 0 8
MfA,A 2I3 = 0 2 4 2 0 1 0 = 0 0 4
0 0 2
0 0 1
0 0 4
il cui rango e 1. Quindi g2 = 3 1 = 2 = m2 e lendomorfismo e semplice ed esiste una base
di autovettori. Essa e data dallunione di una base di V2 con una di V2 .
Ricerca di una base per V2 . Si ha che (x1 , x2 , x3 )A V2 se e solo se

x1
MfA,A 2I3 x2 = 0 ,
x3
0


0 0 8 x1
0

0 0 4 x2 = 0 ,

0 0 4 x3
0
191

x3 = 0.
Quindi
V2 = {(x1 , x2 , 0)A | x1 , x2 R} .
Pertanto ((1, 0, 0)A , (0, 1, 0)A ) e una base per V2 .
Ricerca di una base per V2 . Si ha che (x1 , x2 , x3 )A V2 se e solo se

x1
A,A

x2
0 ,
Mf (2)I3
=
x3
0


4 0 8 x1
0

0 4 4 x2 = 0 ,

0 0 0 x3
0

x2 = x3
.
x1 = 2x3
Quindi
V2 = {(2x3 , x3 , x3 )A | x3 R} .
Pertanto una sua base e ((2, 1, 1)A ).
In conclusione una base di autovettori e data da
D = ((1, 0, 0)A , (0, 1, 0)A , (2, 1, 1)A ) .
Si noti che, per il Teorema 32.1, si ha

2 0 0
= 0 2 0 .
0 0 2

MfD,D

ha

Proviamo questultimo risultato cercando la matrice MfD,D mediante il Teorema 28.2. Si


MfD,D = P A,D MfA,A P D,A .

Cerchiamo le matrici di cambiamento di base P A,D e P D,A mediante il metodo di pagina


160. Si osservi che A = ((1, 0, 0)A , (0, 1, 0)A , (0, 0, 1)A ). Pertanto

1 0 2
PfD,A = 0 1 1 .
0 0 1
Determiniamo P A,D .

1 0 2 1 0 0
1 0 0 1 0 2
0 1 1 0 1 0 0 1 0 0 1 1 ,
0 0 1 0 0 1
0 0 1 0 0 1
192

quindi

MfD,D = P A,D MfA,A P D,A

1 0 2
PfA,D = 0 1 1 ,
0 0 1

1 0 2
2 0 8
1 0 2
2 0 0
= 0 1 1 0 2 4 0 1 1 = 0 2 0 .
0 0 1
0 0 2
0 0 1
0 0 2

Caso h 6= 2. In tal caso si hanno tre autovalori distinti 2, 2, h e quindi lendomorfismo e


semplice (cfr. Teorema 32.2). Cerchiamo le basi dei tre autospazi V2 , V2 e Vh .
Ricerca di una base per V2 . Si ha che (x1 , x2 , x3 )A V2 se e solo se

x1
A,A

0 ,
x2
=
Mf 2I3
0
x3


h 2 h 2 2h + 4 x1
0

0
4
0 ,
=

x2
0

0
4
x3
0

x2 = x1
.
x3 = 0
Quindi
V2 = {(x1 , x1 , 0)A | x1 R} .
Una sua base e quindi (1, 1, 0)A .
Ricerca di una base per V2 . Si ha che (x1 , x2 , x3 )A V2 se e solo se

x1
A,A

x2
0 ,
Mf (2)I3
=
x3
0


h + 2 h 2 2h + 4 x1
0

4
4
0 ,
=

x2
0
x3
0
0
0

Quindi

V2 =

h+6
x1 = h+2
x2
.
x3 = x2

h+6
x2 , x2 , x2
h+2
193

| x2 R .
A

Una sua base e quindi h+6


,
1,
1
.
h+2
A
Ricerca di una base per Vh . Si ha che (x1 , x2 , x3 )A Vh se e solo se

x1
MfA,A hI3 x2 = 0 ,
x3
0


0 h 2 2h + 4 x1
0

0 2h
x2 = 0 ,
4

0
0
2 h x3
0

x2 = 0
.
x3 = 0
Quindi
Vh = {(x1 , 0, 0)A | x1 R} .
Una sua base e quindi (1, 0, 0)A .
In conclusione una base di autovettori e data da

h+6
D = (1, 1, 0)A ,
, 1, 1 , (1, 0, 0)A .
h+2
A
Si noti che, per il Teorema 32.1, si ha

MfD,D

ha

2 0 0
= 0 2 0 .
0 0 h

Proviamo questultimo risultato cercando la matrice MfD,D mediante il Teorema 28.2. Si


MfD,D = P A,D MfA,A P D,A .

Cerchiamo le matrici di cambiamento di base P A,D e P D,A mediante il metodo di pagina


160. Si osservi che A = ((1, 0, 0)A , (0, 1, 0)A , (0, 0, 1)A ). Pertanto

1 h+6
1
h+2
PfD,A = 1 1 0 .
0 1 0
Determiniamo P A,D .

1
1 h+6
1 1 0 0
h+2
1 1 0 0 1 0 0
0 1 0 0 0 1
0

h+6
h+2
2h+8
h+2

194

1 1 0 0
1 1 1 0
0 0 0 1

h+6
h+2
2h+8
h+2

1 0 1 1 0
0 0 1 1 1
0 1 0 0 0

1 0 0 0 1
0 0 1 1 1
0 1 0 0 0

PfA,D

MfD,D

33

0 1
= 0 0
1 1

0 1
= 0 0
1 1

1
2h+8
h+2

, quindi

1
1 ,
2h+8
h+2



h+6
1
1 h+2
1
h h 2 2h + 4
2 0 0
1 1 0 = 0 2 0 .
1 0
2
4
2h+8
0
0
2
0 0 h
0 1 0
h+2

Matrici diagonalizzabili

In questo paragrafo risponderemo alle due seguenti domande:


1. Data una matrice quadrata di ordine n ad elementi in un campo K, e essa simile ad
una matrice diagonale? (cfr Definizione 10.4).
2. Se M e simile (cfr. Definizione 28.1) ad una matrice diagonale D, quale una matrice
invertibile H che ne permette la diagonalizzazione, cio`e tale che D = H 1 M H?
Definizione 33.1 Una matrice quadrata M di ordine n e ad elementi nel campo K si dice
diagonalizzabile se e simile ad una matrice diagonale, cio`e se esiste una matrice invertibile
H per cui H 1 M H e diagonale.
Come noto ad ogni matrice M di ordine n e ad elementi nel campo K si pu`o associare
lendomorfismo
f : Kn Kn ,
tale che, fissata una base A in Kn ,

MfA,A = M.

Quindi f e cos` definita

M
f (x1 , x2 , . . . , xn )A =

Vale il seguente teorema.

195

x1
x2

xn

T



.

Teorema 33.1 Sia A una base di di Kn . La matrice M M(n; K) e diagonalizzabile se


e solo se lendomorfismo associato f : Kn Kn tale che MfA,A = M e semplice. In
questo caso, detta D una base di Kn formata da autovettori di f , la matrice cambiamento di
base P D,A permette la diagonalizzazione. Cio`e P A,D M P D,A e una matrice diagonale che ha
come elementi sulla diagonale principale gli autovalori di f (si ricordi che P A,D e linversa
di P D,A ).
Esempio 33.1 Data la matrice

1
1 2

M=

dire per quali valori di R e diagonalizzabile in M(2; R).


SVOLGIMENTO. Si tratta di studiare la semplicit`a di M . Per fare ci`o calcoliamo il
polinomio caratteristico

1x

= x2 3x + 2 .
M (x) =
1
2x
Essendo = 1 + 4, abbiamo i seguenti casi:
1. Se < 14 allora < 0 e il polinomio caratteristico non ha radici reali. Quindi M
non e diagonalizzabile.
2. Se > 14 allora > 0 e il polinomio caratteristico ha due radici reali e distinte.
Quindi M e diagonalizzabile.
3. Se = 14 allora = 0 e il polinomio caratteristico ha la radice
Daltra parte

1 32

r
=1
1
2 32

3
2

con molteplicit`a 2.

per cui
g 3 = dim V 3 = 2 1 = 1 < 2 = m 3 ,
2

cio`e A non e semplice. Pertanto M non e diagonalizzabile.


Esempio 33.2 Dire se la matrice

M=

1 1
3 1

e diagonalizzabile e, in caso affermativo, determinare la matrice H che permette la diagonalizzazione.


SVOLGIMENTO. M e diagonalizzabile se e solo se e semplice lendomorfismo f : R2 R2
tale che MfE,E = M . Il polinomio caratteristico e

1 x
1
= x2 4.
M (x) =
3
1x
196

Quindi si hanno i due autovalori distinti 2 e 2 e f e semplice. La matrice che permette la


diagonalizzazione e data dalla matrice di cambiamento di base P D,E , essendo D una base di
autovettori. D si ottiene dallunione di una base di V2 con una di V2 .
Base per V2 :



1 2
1
x1
0

=
,
3
12
x2
0
quindi V2 = {(x1 , 3x1 )E | x1 R} e una sua base e (1, 3)E .
Base per V2 :


x1
0
1 + 2
1

=
,
0
3
1+2
x2
quindi V2 = {(x1 , x1 )E | x1 R} e una sua base e (1, 1)E .
Quindi D = ((1, 3)E , (1, 1)E ) e una base di autovettori. Ricordando il metodo di pagina
160, la matrice che permette la diagonalizzazione e

1 1
D,E
P
=
.
3 1
Si noti che, per il Teorema 32.1, si ha

MfD,D

2 0
0 2

Proviamo questultimo risultato cercando MfD,D mediante il Teorema 28.2. Si ha


MfD,D = P E,D MfE,E P D,E .
Calcoliamo P E,D col metodo di pagina 160.

1 1 1 0
1 1
1 0

3 1 0 1
0 4 3 1

4 0
1 1
1 0 14 14

, quindi
0 4 3 1
0 1 34 1
4
1 1
E,D
4
4
Pf =
,
3
1
4

MfD,D = P E,D MfE,E P D,E =

1
4
3
4

1
4
1
4

1 1
1 1
2 0

=
.
3 1
3 1
0 2

Metodo per calcolare la potenza di una matrice diagonalizzabile. Sia M M(n; K)


una matrice diagonalizzabile. In questo caso per calcolare la potenza M k invece di fare il
prodotto M M M k volte, possiamo usare il seguente metodo molto pi`
u rapido del
197

precedente. Per la Definizione 33.1, esiste una matrice invertibile H tale che H 1 M H = D,
ove D e una matrice diagonale. Ne segue M = HDH 1 . Pertanto
M k = (HDH 1 ) (HDH 1 ) (HDH 1 ) = HD(H 1 H)D(H 1 H)D (H 1 H)DH,
|
{z
}
k volte

quindi
M k = HDk H 1 .
Si osservi che lutilit`a della precedente formula dipende dal fatto che, per il Teorema 10.2, il
calcolo della potenza di una matrice diagonale e immediato.
Esempio 33.3 Sia

M=

1 1
3 1

Calcolare M 79 .
Come visto nellEsempio 33.2, M e diagonalizzabile e la matrice H che permette la diagonalizzazione e

1 1
.
H=
3 1
Sempre nello stesso esempio abbiamo determinato
1 1
1
4
4
H =
3
1
4

ed abbiamo verificato luguaglianza



1 1
1 1
2 0
1 1
4
4

=
.

3
1
3 1
0 2
3 1
4
4
Ne segue

1 1
3 1
1 1
3 1

79
=

1 1
3 1

1 1
3 1


79
2 0

0 2
1 1
0
4
34 1
.
(2)79
4
4

1 1
3 1

79
2

Esempio 33.4 Sia



2 0

0 2
1
4
3
4

1
4
1
4

6 7 3
M = 5 6 3 .
1 1
2
198

1
4
3
4

1
4
1
4

Calcolare M 5 .
SVOLGIMENTO. Vediamo se M e diagonalizzabile. Cio`e se lendomorfismo f : R3 R3
tale che MfE,E = M e semplice. Il polinomio caratteristico e

6x
7
3

6 x 3
M (x) = 5
1
1
2x

= (x2 1)(2 x).

Quindi, avendosi i tre autovalori distinti 1, 2 e 1, f e semplice. La matrice H che permette


la diagonalizzazione e data dalla matrice di cambiamento di base P D,E , essendo D una base
di autovettori. D si ottiene dallunione delle basi di V1 , V2 e V1 .
Base per V1 :



7 7 3
x1
0
5 5 3 x2 = 0 ,
1 1
3
x3
0
quindi V1 = {(x1 , x1 , 0)E | x1 R} e
Base per V2 :

4 7
5 8
1 1

una sua base e (1, 1, 0)E .




0
x1
3
3 x2 = 0 ,
0
x3
0

quindi V2 = {(x3 , x3 , x3 )E | x3 R} e una sua base e (1, 1, 1)E .


Base per V1 :


x1
0
5 7 3
5 7 3 x2 = 0 ,
x3
0
1 1
1
quindi V1 = {(2x2 , x2 , x2 )E | x2 R} e una sua base e (2, 1, 1)E .
Quindi D = ((1, 1, 0)E , (1, 1, 1)E , (2, 1, 1)) e una base di autovettori. Ricordando il
metodo di pagina 160, la matrice che permette la diagonalizzazione e

1 1 2
H = P D,E = 1 1 1 .
0 1 1
Cerchiamo H 1 :

1 1 2 1 0 0
1 1 2 1 0 0
1 1 1 0 1 0 0 0 1 1 1 0
0 1 1 0 0 1
0 1 1 0 0 1

199

1 1 2 1 0 0
1 1 0 1
0 1 1 0 0 1 0 1 0 1
0 0 1 1 1 0
0 0 1 1

2 3
1

1 1
H =
1 1



6 7 3
1 1 2
M = 5 6 3 = 1 1 1
1 1
2
0 1 1

2 0
1 1 , quindi
1 0

1
1 ,
0

1 0 0
2 3 1
0 2 0 1 1 1 .
0 0 1
1 1 0

Ne segue


1 1 2
M 5 = 1 1 1
0 1 1


1 1 2
1
= 1 1 1 0
0 1 1
0

34

5
1 0 0
0 2 0
0 0 1

0 0
2
32 0 1
0 1
1

2 3 1
1 1 1 =
1 1 0

3 1
1 1 .
1 0

Similitudine fra matrici

Come osservato alla fine del paragrafo 28, il problema di determinare se due matrici di ordine
n sono simili (cfr. Definizione 28.1) oppure no e difficile. In questo paragrafo daremo una
parziale risposta a questo problema.
In virt`
u dei Teoremi 28.3 e 30.2, due matrici simili A e B hanno lo stesso polinomio
caratteristico (non e detto per`o che vale il viceversa!). Quindi un primo metodo di controllo
consiste nel calcolare i due polinomi caratteristici A (x) e B (x):
Se A (x) 6= B (x) allora A e B non sono simili.
Se A (x) = B (x) allora A e B possono essere simili.
Esempio 34.1 Provare che le matrici

2 0
0 2
A=
, B=
,
0 4
4 6

C=

2 1
0 4

sono a due a due simili.


SVOLGIMENTO. Si verifica immediatamente che A, B e C hanno lo stesso polinomio caratteristico x2 6x + 8. Gli autovalori sono 2 e 4. Si noti anche che A e una matrice diagonale
200

avente gli autovalori nella diagonale principale. Per provare che A e B (risp. A e C) sono
simili e sufficiente provare che B (risp. C) e diagonalizzabile. Infatti, per il Teorema 33.1,
se B (risp. C) e diagonalizzabile allora e possibile determinare una matrice invertibile H1
(risp. H2 ) tale che A = H11 BH1 (risp. A = H21 CH2 ). In particolare se F (risp. G) e una
base di R2 formata da autovettori di B (risp. C , H1 (risp. H2 ) coincide con la matrice di
cambiamento di base P F,E2 (risp. P G,E2 ).
Ricordiamo che
MEB2 ,E2 = B
e che 2 e 4 sono i due autovalori di B .
I vettori di V2 si ottengono risolvendo il sistema


0 2 2
x1
0
=
.
4
62
0
x2
Quindi V2 = {(x2 , x2 )E2 | x2 R} e una sua base e data dal vettore (1, 1).
I vettori di V4 si ottengono risolvendo il sistema


0 4 2
x1
0
=
.
4
64
x2
0
Quindi V4 = {(x1 , 2x1 )E2 | x1 R} e una sua base e data dal vettore (1, 2).
immediato verificare che H1 = P F,E2 =
Pertanto F = ((1, 1), (1, 2)). E
Cerchiamo P E2 ,F .

1 1 1 0
1 1 1 0

1 2 0 1
0 1 1 1

1 0 2 1
1
E2 ,F

. Quindi H1 = P
=
0 1 1 1

1 0 2 1
0 1 1 1

2 1
.
1 1

1 1
1 2

immediato verificare che P E2 ,F BP F,E2 = A. Infatti


E

2 1
0 2
1 1
4 2
1 1
2 0
=
=
.
1 1
4 6
1 2
4 4
1 2
0 4
Abbiamo cos` provato che A e B sono simili. Proviamo ora la similitudine fra A e C.
Ricordiamo che
MEC2 ,E2 = C
e che 2 e 4 sono i due autovalori di C .
I vettori di V2 si ottengono risolvendo il sistema

0
22
1
x1
=
.
x2
0
0
42
201

Quindi V2 = {(x1 , 0)E2 | x1 R} e una sua base e data dal vettore (1, 0).
I vettori di V4 si ottengono risolvendo il sistema


24
1
x1
0
=
.
0
44
x2
0
Quindi V4 = {(x1 , 2x1 )E2 | x1 R} e una sua base e data dal vettore (1, 2).

immediato verificare che H2 = P G,E2 =


Pertanto G = ((1, 0), (1, 2)). E
Cerchiamo P E2 ,G .

1 1 1 0
1 0 1

0 1 0
0 2 0 1

1
2
1
2

1
E2 ,G
. Quindi H2 = P
=

1
2
1
2

1 1
0 2

immediato verificare che P E2 ,G CP G,E2 = A. Infatti


E

1 1
2 1
1 1
2 1
1 1
2 0
2
=
=
.
0 12
0 4
0 2
0 2
0 2
0 4
La similitudine fra B e C segue immediatamente dalla Proposizione 28.2.
Come conseguenza del Teorema 33.1, se una matrice A e diagonalizzabile sar`a simile a
matrici diagonali in cui gli elementi della diagonale sono gli autovalori di A (con la dovuta
molteplicit`a). Daltra parte, se A e diagonalizzabile, cio`e simile ad una matrice diagonale D,
ogni matrice simile ad A e diagonalizzabile alla stessa matrice D: infatti, se H 1 AH = D
(con D diagonale) e B e simile ad A, sar`a A = Q1 BQ da cui avremo
D = H 1 AH = H 1 Q1 BQH = (QH)1 BQH
cio`e B e diagonalizzabile a D.
Cos`, date due matrici A, B M(n; K), per verificare se sono simili si pu`o procedere nel
seguente modo:
1. Se A e B sono diagonalizzabili basta controllare se sono simili ad una stessa matrice
diagonale, in altri termini se i loro polinomi caratteristici A (x) e B (x) hanno le
stesse radici con la stessa molteplicit`a; in caso affermativo A e B sono simili e possiamo
determinare la matrice che individua la similitudine; infatti da
H 1 AH = D

e Q1 BQ = D

segue
H 1 AH = Q1 BQ
da cui

A = HQ1 BQH 1 = QH 1
B QH 1 .

Ovviamente, in caso contrario, cio`e se A e B sono diagonalizzabili a matrici differenti,


per losservazione precedente, A e B non saranno simili.
202

2. Se A e diagonalizzabile e B non lo e (o viceversa), allora A e B non sono simili.


3. Se A e B sono entrambe non diagonalizzabili con questi strumenti non siamo in grado di
decidere in maniera semplici se esse sono simili o no. Un calcolo diretto sar`a necessario
per dare la dovuta risposta (si veda lEsempio 34.3).
Esempio 34.2 Si considerino le matrici

3
1 0
3 0 ,
A= 1
1 1 2

3 0 1
F = 1 4 1 ,
1 0 3

5 3 0
B = 3 1 2 ,
3 3 2

2
0 0
6 4 .
G= 4
2 2 0

Dire se A e simile a B o F o G ed in caso affermativo trovare una matrice invertibile H


che produce tale similitudine.
SVOLGIMENTO. Vediamo dapprima se A e diagonalizzabile. Per quanto visto precedentemente baster`a controllare la semplicit`a di A . Si ha A (x) = (2 x)[(3 x)2 1] per cui
A ammette gli autovalori 2 e 4 con m2 = 2 e m4 = 1. Poich`e il rango della matrice

1
1 0
1 0
A 2I3 = 1
1 1 0
e 1, si ha m2 = g2 = dim V2 = 3 r(A 2I3 ) = 2 cio`e A e semplice, quindi A e
diagonalizzabile, ad esempio alla matrice

2 0 0
D = 0 2 0 .
0 0 4
Per cui adesso baster`a controllare se le matrici B, F e G sono diagonalizzabili (alla stessa
matrice D).
Per quanto riguarda B abbiamo B (x) = x3 + 8x2 20x + 16 per cui gli autovalori di
B sono 2 e 4 con m2 = 2 e m4 = 1 ma il rango di

3
3 0
B 2I3 = 3 1 2
3
3 0
e 2 per cui g2 = 1 < m2 = 2 cos` B non e diagonalizzabile, e quindi non e simile ad A.
Per quanto riguarda F abbiamo F (x) = (4 x)[(3 x)2 1] per cui gli autovalori
di F sono 2 e 4 con m2 = 1 e m4 = 2 e quindi, indipendentemente dal fatto che F sia
203

semplice o meno, F non pu`o essere simile ad A (si noti che gli autovalori sono gli stessi ma
la molteplicit`a e diversa).
Per quanto riguarda G abbiamo G (x) = (2 x)(x2 6x + 8) per cui gli autovalori di
G sono 2 e 4 con m2 = 2 e m4 = 1 inoltre il rango di

0
0
0
4
4
G 2I3 = 4
2 2 2
e 1 per cui g2 = m2 = 2; in definitiva, G e diagonalizzabile alla stessa matrice

2 0 0
D= 0 2 0
0 0 4
e quindi G e simile ad A.
Per trovare in questo caso una matrice invertibile H tale che G = H 1 AH baster`a
trovare matrici diagonalizzanti T e Q per A e G, per cui T 1 AT = D e Q1 GQ = D da cui
G = QT 1 AT Q1 = H 1 AH dove H = T Q1 .
Per avere T bisogna trovare una base di autovettori per A :
V2 = {(x1 , x2 , x3 )E3 | x1 + x2 = 0} ,
V4 = {(x1 , x2 , x3 )E3 | x1 = x2 = x3 }
per cui una base di autovettori sar`a
((1, 1, 0), (0, 0, 1), (1, 1, 1))
quindi

1 0 1
T = 1 0 1 .
0 1 1

Per avere Q troviamo una base di autovettori per G :


V2 = {(x1 , x2 , x3 )E3 | x1 + x2 + x3 = 0} ,
V4 = {(x1 , x2 , x3 )E3 | x1 = x2 + x3 = 0}
per cui una base di autovettori sar`a
((1, 0, 1), (0, 1, 1), (0, 2, 1))
quindi

1
0
0
1 2 .
Q= 0
1 1 1
204

Cos` una matrice H che

1 0
H = 1 0
0 1

fornisce la similitudine fra A e G sar`a

1
1
0
0
0 1 1
1 0
1 2 = 2 1 1 .
1
1 1 1
1 0 1

Esempio 34.3 Dire quali fra le seguenti matrici di M(2; R)

4 1
4 3
3 0
A=
, B=
, C=
1 2
1 2
1 3
sono simili e, quando lo sono, trovare le matrici invertibili che realizzano questa similitudine.
SVOLGIMENTO. Calcoliamo i polinomi caratteristici delle tre matrici: A (x) = (x 3)2 ,
B (x) = x2 6x + 5, C (x) = (x 3)2 . La matrice B, avendo un polinomio caratteristico
diverso da quello di A e di C, non e simile a nessuna delle altre due matrici. Per quanto
riguarda A e C, poich`e r(A 3I2 ) = r(C 3I2 ) = 1, tali matrici sono entrambe non
diagonalizzabili. Cerchiamo tuttavia una matrice invertibile

a b
H=
c d
tale che A = H 1 CH, ovvero HA = CH. Avremo

4 1
3 0
a b
a b
=
1 2
1 3
c d
c d
che conduce al sistema lineare

4a + b = 3a

a + 2b = 3b
,
4c + d = a + 3c

c + 2d = b + 3d

b = a
d=ac

e poich`e H deve essere invertibile, occorre che ad bc = a2 6= 0. In definitiva, ponendo per


esempio a = 1 e c = 0 (da cui b = 1 e d = 1), A e C sono simili e

1 1
H=
.
0 1

205

Indice analitico
2A , 7
En , 154
GF (pk ), 21
GL(n; K), 29
Ker f , 22, 164
MfA,B , 167
P A,B , 160
P B,A , 161
Span(A), 133
N, Z, Q, R, C, 5
M(m, n; K), 23
M(m, n; R), 18
M(n; K), 23
M(n; R), 18
f 1 (b), 6
Imf , 6, 22, 164
addizione fra matrici, 18
angolo fra due piani, 120
angolo fra due rette dello spazio, 120
angolo fra due vettori, 84, 88
angolo fra una retta ed un piano, 120
angolo orientato, 103
applicazione, 5
applicazione biiettiva, 5
applicazione canonica, 9
applicazione composta, 6
applicazione identica, 5
applicazione iniettiva, 5
applicazione inversa, 6
applicazione lineare, 107, 162, 167
applicazione suriettiva, 5
assioma della scelta o di Zermelo, 8
automorfismo, 21, 22, 163
autospazio, 182
autovalore, 180
autovettore, 180
base, 148
base canonica, 154

base ordinata, 153


calcolo matrice inversa, 59
campo, 20
campo finito, 21
caratteristica di una matrice, 71
caratterizzazioni di un sottospazio vettoriale
finitamente generato, 135
cardinalit`a del continuo, 12
cardinalit`a del numerabile, 11
cardinalit`a di un insieme, 11
combinazione lineare, 133
combinazione lineare di equazioni, 74
complemento algebrico, 67
componenti di un vettore, 81, 87, 92
condizione di allineamento fra tre punti, 128
condizione di complanarit`a fra due rette nello
spazio, 126
condizione di parallelismo fra rette del piano,
98
coordinate non omogenee, 97
coordinate omogenee, 97, 121
corrispondenza biunivoca, 5
coseni direttori, 88
determinante, 66, 67
diagramma di un insieme p.o. completo, 10
differenza fra due insiemi, 4
differenza fra due vettori, 80
dimensione, 149
direzione di un vettore, 79
distanza fra due punti dello spazio, 123
distanza fra due rette sghembe, 127
distanza fra un punto e un piano, 123
distanza fra un punto e una retta, 123
elementi confrontabili, 9
elemento neutro, 15
elemento nullo, 17
elemento opposto, 19
elemento simmetrico, 15
206

elemento speciale di una matrice ridotta per isometria piana, 100


colonne, 73
isomorfismo, 21, 22, 163
elemento speciale di una matrice ridotta per
lemma di Zorn, 10
righe, 34
elemento unit`a, 15, 17
massimo, massimo relativo di A, 10
endomorfismo, 163
matrice associata ad una applicazione lineare,
endomorfismo semplice, 189
167, 177
equazioni di un sottospazio di Rn , 137
matrice colonna, 18
estremo inferiore, estremo superiore, 10
matrice completa del sistema, 42
matrice di cambiamento di base, 160
fasci di piani, 123
matrice di tipo m n, 18
fascio di rette del piano, 98
matrice diagonale, 25
formula di Grassmann, 151
matrice diagonalizzabile, 195
funzione, 5
matrice identica, 24
funzione caratteristica, 7
matrice incompleta del sistema, 42
glissoriflessione, 110
matrice inversa, 28
gruppo, 16
matrice invertibile, 27
gruppo abeliano o commutativo, 16
matrice nulla, 18
gruppo additivo, 17
matrice quadrata di ordine n, 18
gruppo delle sostituzioni, 19
matrice ridotta per colonne, 73
gruppo finito, 18
matrice ridotta per righe, 34
gruppo lineare generale, 29
matrice riga, 18
gruppo moltiplicativo, 17
matrice simmetrica, 27
gruppo simmetrico, 19
matrice trasposta, 26
matrici simili, 179, 200
immagine di f , 6, 22
metodo di riduzione per la risoluzione di un
immagine di unapplicazione lineare, 164
sistema lineare, 45
insieme, 4
metodo
per determinare il rango di una mainsieme B A , 7
trice, 72
insieme ben ordinato, 10
minimo di A, 9
insieme complementare, 4
minimo relativo di A, 9
insieme delle parti, 4
minorante, maggiorante, 10
insieme di generatori, 134
minore complementare, 65
insieme finito, 12
minore di ordine h, 71
insieme infinito, 12
modulo di un vettore, 79, 91
insieme numerabile, 11
molteplicit`a algebrica di un autovalore, 190
insieme ordinato, 9
molteplicit`a geometrica di un autovalore, 182
insieme p.o. completo, 10
monoide, 15
insieme quoziente, 9
insiemi equipotenti, 11
nucleo di un omomorfismo, 22
intersezione di sottogruppi, 19
nucleo di unapplicazione lineare, 164
intersezione fra sottospazi, 133
omomorfismo fra campi, 22
ipotesi del continuo, 13
207

omomorfismo fra gruppi, 21


omotetia, 114
operazione algebrica binaria, 13
opposto, 17
opposto di un vettore, 80
ortogonalit`a fra due piani, 116
ortogonalit`a fra due rette del piano, 94
ortogonalit`a fra due vettori, 88

regola della poligonale, 91


regola di riduzione in senso stretto, 70
regole di riduzione per righe, 37
relazione, 8
relazione di equivalenza, 8
relazione di ordinamento parziale, 9
retta del piano passante per due punti, 94
retta del piano, equazione cartesiana, 92
retta del piano, equazione omogenea, 98
parallelismo fra due piani, 116
retta del piano, equazioni parametriche, 93
parallelismo fra due rette del piano, 94
retta dello spazio passante per due punti, 117
partizione di un insieme, 8
retta dello spazio, equazioni parametriche, 116
permutazione, 19
retta impropria, 98
piani incidenti, 117
retta impropria del piano, 121
piani paralleli, 117
retta incidente un piano, 119
piano dello spazio, equazione cartesiana, 115 retta parallela con un piano, 119
piano dello spazio, equazione omogenea, 121 rette incidenti, 98, 119
piano dello spazio, equazione vettoriale, 115 rette parallele, 119
piano improprio, 121
rette sghembe, 119
polinomio caratteristico, 183
riflessione rispetto ad una retta, 108
potenza di una matrice diagonalizzabile, 197 rotazione nel piano, 103
prodotto cartesiano, 4
prodotto di un numero per un vettore, 80
scomposizione di un vettore, 82, 87
prodotto di uno scalare per una matrice, 23 semigruppo, 15
prodotto interno, 85
similitudine nel piano, 113
prodotto misto, 90
sistema omogeneo, 30
prodotto o composizione di applicazioni, 6
sistema impossibile, 30
prodotto righe per colonne fra matrici, 23
sistema lineare, 30
prodotto scalare, 85, 88
sistema quadrato, 77
prodotto vettoriale, 88
sistemi equivalenti, 30
proiezione ortogonale di un punto su una ret- soluzione di un sistema lineare, 30
ta, 123
somma di due sottospazi, 139
propriet`a associativa, 14
somma di vettori, 79
propriet`a commutativa, 14
somma diretta, 139
propriet`a distributiva, 20
sostituzione, 19
propriet`a riflessiva, simmetrica, transitiva, an- sottogruppi banali o impropri, 19
tisimmetrica, 8
sottogruppo, 19
punto improprio, 97, 121
sottoinsieme, 4
punto improprio di una retta, 121
sottospazio vettoriale, 131
punto proprio, 97
sottospazio vettoriale finitamente generato, 134
spanning di A, 133
rango di una matrice, 71
spazio generato, 134
reciproco, 17
spazio lineare, 128
208

spazio vettoriale, 128


struttura algebrica, 15
teorema di Binet, 70
teorema di Cramer, 77
teorema di Laplace, 67
teorema di Pitagora, 82
teorema di Rouche-Capelli, 78
teorema di Zermelo, 10
traslazione piana, 101
trasposta, 26
unione di sottogruppi, 20
unione di sottospazi, 133
unione e intersezione di due insiemi, 4
unit`a del campo, 20
verso di un vettore, 79
versore, 81
versori fondamentali, 87
vettore applicato, 79
vettore libero, 90
vettore nullo, 79
vettori applicati uguali, 79
vettori linearmente dipendenti, 141
vettori linearmente indipendenti, 141, 146
vettori paralleli, 82
zero del campo, 20
zero del gruppo, 19

209

You might also like