You are on page 1of 149

Maria Rita Casali Carlo Gagliardi Luigi Grasselli

GEOMETRIA

PROG8TTO

~LOONARDO

ESCULAPIO BOLOGNA

MARIA RITA CASALI


Professore Ordinario di Geometria
Facolt di Ingegneria di Modena
Universit di Modena e Reggio Emilia
CARLO GAGLIARDI
Professore Ordinario di Geometria
Facolt di Scienze
Universit di Modena e Reggio Emilia
LUIGI GRASSELLI
Professore Ordinario di Geometria
Facolt di Ingegneria di Reggio Emilia
Universit di Modena e Reggio Emilia

Prefazione

n presente testo

sviluppa argomenti tradizionalmente trattati nei corsi di "Geometria" (ovvero di "Algebra e Geometria") nell'ambito delle lauree di primo livello, ed
particolarmente rivolto agli studenti delle Facolt di IngF;gneria e dei Corsi di Laurea
in Matematica, Fisica ed Informatica.
n testo suddiviso in due parti:
la prima parte contiene gli elementi fondamentali di Algebra lineare;
la seconda parte, di carattere pi propriamente geometrico, riguarda le principali propriet degli spazi euclidei, sviluppando in tale ambito la teoria delle
coniche e delle quadriche.
L'esposizione risulta articolata, come ovvio per ogni teoria matematica, in Definizioni
e Proposizioni (o Teoremi, nel caso in cui gli enunciati rivestano particolare importanza) . Particolare rilievo viene attribuito ad Osservazioni ed Esempi atti a:

ISBN 978-88-7488-378-3
Prima edizione: Luglio 2001
Ristampa corretta: Ottobre 2002
Seconda edizione: Settembre 2010
Responsabile produzione: Alessandro Parenti
Redazione: Gabriella Gatti e Giancarla Panigali
Stampa e confezione: L.E.G.O. SpA - Stabilimento di Lavis (TN)

SOCIET EDITRICE

ESCULAPIO
COLLANA PROGETTO LEONARDO
40131 Bologna - Via U. Terracini 30 - Te!. 051-63.40.113 - Fax 051-63.41.136

www .editrice-esculapio.it
Tutti i diritti riservati. Riproduzione anche parziale vietata.
Nessuna parte di questa pubblicazione pu essere riprodotta,
archiviata in un sistema di recupero o trasmessa, in qualsiasi forma
o con qualsiasi mezzo elettroniCo, meccanico, fotoriproduzione,
memorizzazione o altro, senza permesso scritto da parte dell'Editore.

chiarire concetti, risultati, dimostrazioni;


stimolare i necessari collegamenti tra i vari argomenti;
motivare la genesi dei concetti e dei problemi;
evidenziare i casi notevoli di pa'rticolare rilievo nell'ambito di una teoria
generale;
indicare possibili generalizzazioni o descrizioni alternative di una teoria.
Ci pu consentire inoltre al Docente di "dosare" con maggiore libert, secondo le
proprie convinzioni ed esperienze didattiche, il peso da attribuire, durante le lezioni,
ai vari argomenti del corso.
Definizioni, Proposizioni, Osservazioni ed Esempi notevoli sono tutti dotati di una
numerazione autonoma all'interno di ogni Capitolo.
Con l'eccezione delle principali propriet degli insiemi numerici fondamentali e dell'utilizzo di una teoria "ingenua", non rigorosamente assiomatica, degli insiemi (peraltro, brevemente richiamata nel primo Capitolo), il testo appare essenzialmente autocontenuto . In particolare, non risulta necessario alcun prerequisito di Geometria
euclidea cos come viene sviluppata, in modo sintetico, a partire da un sistema di
assiomi, nelle Scuole secondarie.
Seguendo l'impostazione algebrica ormai dominante nelle varie teorie matematiche
e quindi in una ottica di "algebrizzazione della Geometria", i concetti ed i risultati
di natura geometrica, compresi quelli relativi alla Geometria euclidea, sono infatti
ricavati da conoscenze di tipo algebrico precedentemente introdotte. Abbiamo cercato
tuttavia di non fare perdere contenuto geometrico a tali concetti, sia mediante il metodo con cui questi vengono presentati, sia facendo spesso ricorso ad Osservazioni ed

PREFAZIONE

Esempi atti ad aiutare il lettore a ritrovare, pure in ambiti pi generali, le propriet


geometriche gi note.
La scelta privilegiata stata quella di sviluppare la teoria, sia dal punto di vista algebrico che da quello geometrico, per spazi di dimensione finita n; le dimensioni due e
tre sono tuttavia sempre illustrate in modo dettagliato, come casi particolari e nelle
loro specificit, sfruttandone le caratteristiche di rappresentativit.
Tale scelta di
generalit nella dimensione dovuta essenzialmente a due considerazioni: da un lato
riteniamo opportuno evitare inutili ripetizioni nella enunciazione della teoria per le
varie dimensioni particolari, dall'altro siamo convinti che lo sviluppo della teoria in
ambito ragionevolmente generale sia un ottimo stimolo allo sviluppo della capacit di
astrazione e generalizzazione che obiettivo fonda mentale di ogni corso di matematica, anche nell'ambito dei nuovi ordinamenti degli studi universitari.
La presente edizione risulta integrata, rispetto a quella precedente, da una rivisitazione
sostanziale della teoria delle coniche e delle quadriche, dall'inserimento di nuovi argomenti e complementi (algebre di Boole, isometrie del piano euclideo .. .), oltre che
dalla aggiunta di nuove osservazioni ed esempi lungo tutto lo sviluppo del testo.
GLI AUTORI

Indice
Prefazione
Capitolo 1. Insiemi e relazioni
1. Insiemi
2. Operazioni fra insiemi
3. Relazioni ed applicazioni
4. Relazioni di equivalenza e quozienti
5. Cardinalit di un insieme
Capitolo 2. Strutture algebriche
1. Operazioni su insiemi
2. Gruppi
3. Anelli e campi
4. Sottostrutture e morfismi
5. n-ple
6. L'anello dei polinomi
7. Algebre di Boole
Capitolo 3. Matrici e determinanti
1. Matrici e loro operazioni
2. L'anello delle matrici quadrate
3. Matrici ridotte e trasformazioni elementari
4. Permutazioni
5. Determinante di una matrice quadrata
6. Calcolo del determinante
Capitolo 4. Spazi e sottospazi vettoriali
1. Spazi vettoriali
2. Sottospazi
3. Sistemi di generatori
4. Dipendenza e indipendenza lineare
5. Basi e dimensione
6. Componenti di un vettore
7. Somma e intersezione di sottospazi
Capitolo 5. Trasformazioni lineari .
1. Thasformazioni lineari e isomorfismi
2. Matrici associate ad una trasforma~ione lineare

7
7

10
12
15
18

19
19
21

23
26
27
.28

30
33
33

38
41
44

47
54
61
61
65
66
69
72
75

77
81
81
88

INDICE

3.
4.

Rango di una matrice


Cambiamenti di base

94
97

Capitolo 6. Sistemi Lineari


l. Sistemi lineari e loro risolubilit
2. Metodi di risoluzione per sistemi lineari
3. Rappresentazioni dei sottospazi vettoriali

99
99
105
112

Capitolo 7. Autovalori ed autovettori


l. Autovalori ed autospazi di un operatore lineare
2. Matrici simili
3. Polinomio caratteristico
4. Diagonalizzazione di matrici ed operatori lineari

117
117
120
122
127

Capitolo 8. Spazi vettoriali euclidei


l. Prodotti scalari e norme
2. Basi ortonormali
3. Trasformazioni ortogonali
4. Complemento ortogonale
5. Matrici di Gram e proiezioni ortogonali
6. Orientazione di uno spazio vettoriale euclideo
7. Prodotto vettoriale e prodotto misto

131
131
136
141
142
145
149
151

Capitolo 9. Spazi euclidei


l. Definizioni ed esempi
2. Sistemi di riferimento
3. Sottospazi euclidei
4. Rappresentazioni di sottospazi euclidei
5. Condizioni di parallelismo
6. Ortogonalit tra sottospazi
7. Distanza euclidea
8. Simplessi e volumi
9. Simmetrie
10. Isometrie

155
155
157
159
162
165
167
170
172
174
177

Capitolo 10. Il piano euclideo


l. I sottospazi del piano euclideo: punti e rette
2. Distanze
3. Le isometrie del piano euclideo
4. Le coniche come luoghi geometrici

181
181
188
190
191

Capitolo 11. Lo spazio euclideo


l. I sottospazi dello spazio euclideo: punti, rette e piani
2. Distanze

197
197
211

Capitolo 12. Elementi di teoria delle coniche e delle quadriche


l. Ampliamento proiettivo di uno spazio euclideo
2. Le coniche del piano euclideo

219
219
224

INDICE

3. Riduzione a forma canonica delle coniche


4. Fasci di coniche
5. Le quadriche dello spazio euclideo
6. Riduzione a forma canonica delle quadriche

238
244
247
263

Appendice A. Equazioni algebriche


l. Radici di un polinomio
2. Equazioni algebriche a coefficienti reali o complessi

273
273
277

Appendice B. Forme bilineari e quadratiche


1. Matrici simmetriche
2. Forme bilineari, quadratiche e matrici simmetriche associate
3. Congruenza di matrici simmetriche
4. Forme canoniche
5. Forme e matrici definite

281
281
282
283
285
286

Indice analitico

289

:z

CAPITOLO 1

Insiemi e relazioni
1. Insiemi

Non ci addentreremo nella presentazione di una teoria _assiomatica degli insiemi, che
andrebbe oltre gli scopi di questo testo. Supporremo invece noto il concetto intuitivo
di insieme, quale "collezione" di elementi o oggetti, a due a due distinti.
Se A un insieme ed a un elemento di A, diremo che a appartiene ad A e scriveremo
a E A; se a non appartiene ad A, scriveremo invece a r;J. A.
Dati due insiemi A, B, diremo che A un sottoinsieme di B, e scriveremo A B, se
ogni elemento di A anche elemento di B .
Diremo ancora che A e B sono uguali, e scriveremo A = B, se hanno gli stessi elementi
(cio se sono lo stesso insieme). Quindi A = B se e solo se A B e B A. In caso
contrario, diremo che A e B sono diversi e scriveremo A-:/=- B .
Diremo infine che A un sottoinsieme proprio di B, e scriveremo A C B, se A B,
ma A-:/=- B.
Useremo spesso, nel corso della trattazione, i seguenti simboli logici:
"\;/'' (detto quantificatore universale), che si legge "per ogni" o "qualunque
sia";
"3" (detto quantificatore esistenziale), che si legge "esiste un" o "esiste
almeno un";
"3! ", che si legge "esiste uno ed un solo" o "esiste ed unico";
";rl", che si legge "non esiste alcun".
Se P una opportuna propriet ed A un insieme, la scrittura

\:lx E A, P(x)
si legge "per ogni elemento x dell'insieme A, P(x) vera"; la scrittura

3x E A, P(x)
si legge "esiste almeno un elemento x dell'insieme A, per cui P(x) vera"; la scrittura
3!x E A, P(x)
si legge "esiste uno ed un solo elemento x dell'insieme A, per cui P(x) vera"; la
scrittura
;rlx E A, P(x)
si legge "non esiste alcun elemento x dell'insiem e A , per cui P(x) vera".
Useremo anche i .seguenti simboli (connettivi logici) :

1. INSIEMI E RELAZIONI

"=~-'' (detto implicazione) , che si .legge "implica";

"{:}" (detto coimplicazione), che si legge "se e solo se".

Se P e Q sono due proposizioni, allora la scrittura

1. INSIEMI

Si osservi che ci non significa che ogni propriet P dia automaticamente vita ad un
insieme. Infatti il famoso "paradosso di Russel 2 " nasce proprio da una tale assunzione.
Se B un insieme ed A il sottoinsieme di B caratterizzato dalla propriet P,
scriveremo:

P *Q

A= {x E BI P(x)} .

si legge "P implica Q" o anche "se P allora Q" ; la scrittura

P {:}Q
si legge "P se e solo se Q" ed equivale a "P

Qe Q

P".

Supporremo noto al lettore l'insieme dei numeri naturali l , 2, 3, ... , che sar indicato
con N, nonch le sue propriet element ari.

Esempio 1.1. L'insieme IP' dei numeri naturali pari e l' insieme [)) dei numeri naturali
dispari potranno essere indicati come segue:

IP' = {p E N I :l m E N, p = 2m};

[)) = {d E N I :l m

E N, d

= 2m -

IP' {rispettivamente [))) l'insieme di tutti i numeri


naturali p (risp. d), per cui esiste un numero naturale
tale che p = 2m (risp. d =
2m-1).
Le scritture precedenti si leggono:

Il principio d'induzione risulta spesso molto utile per dimostrare una "successione di
proposizioni".
Principio d'induzione. 1 Supponiamo data, per ogni numero naturale n, una
affermazione A( n) . Supponiamo inoltre che:
(1) l'affermazione A(l) sia vera;
(2) \fk E N, k 2: 2, se A(k - 1) vera, allora anche A(k) vera.

Allora A(n) vera, per ogni n E N.

1}.

m,

Le propriet enunciate forniscono un vero e proprio "test di appartenenza" di un numero


naturale n all ' insieme IP' dei numeri pari (risp. all'insieme [)) dei numeri dispari) . Ad
esempio, 12 E IP', in quanto :l 6 E N, tale che 2 6 = 12; invece 13 <f. IP', in quanto non
esiste alcun numero naturale m, tale che 2 m = 13. Analogamente 13 E [)), in quanto
:l 7 E N, tale che 2 7 - 1 = 13.
Esempio 1.2. L'insieme Nn dei primi n numeri naturali pu essere indicato con

Per ogni n E N, indicheremo con Nn l'insieme dei primi n numeri naturali. Indicheremo infine con:
Z l'insieme dei numeri interi relativi;
IQ l'insieme dei numeri razionali;
JR l'insieme dei numeri reali;
e l'insieme dei numeri complessi.
Supporremo inoltre note le principali propriet di tali insiemi numerici.

Nn = {i E N I 1 ::::; i ::::; n}.

Si osservi che, anche nel caso di insiemi con un numero finito di elementi, spesso
preferibile la seconda rappresentazione. Ad esempio, l'insieme A dei numeri naturali
compresi tra 2 e 1.000.000.000 potr essere indicato con

A= {i E N I 2::::; i::::; 1.000.000.000},


Gli insiemi finiti, cio aventi un numero finito di elementi, potranno essere indicati
per "elencazione", racchiudendo tra parentesi graffe gli elementi stessi (o altrettanti
simboli che li rappresentano), separati da virgole.
Ad esempio, l'insieme delle cinque vocali potr essere indicato con {a, e, i, o, u }. Si noti
che l'ordine in cui gli elementi sono scritti non ha alcuna rilevanza: quindi {a, e, i, o, u} =
{o, i, u, a, e}. Inoltre, la ripetizione di uno o pi elementi non ha alcun effetto: ad esempio, {a, e,a, i,u,o,i,a,e,e }

= {a, e,i,o,u}.

Se gli elementi di un insieme A sono caratterizzati da una certa propriet P , diremo


che A l'insieme di tutti gli elementi x, per cui P(x) vera, e scriveremo:

A= {x I P(x)} .
lTale principio pu equivalentemente essere enunciato in una formulazione alternativa , in cui la
ipotesi induttiva (2) viene sostituita con la seguente:
(2') Vk E N, k 2'. 2, se A(h) vero per ogni h E Nk-li alloro anche A(k) vero.

mentre l'elenco dei suoi elementi, pur teoricamente possibile, presenta evidenti problemi di scrittura.
Diremo insieme vuoto l'insieme 0 privo di elementi; per tale motivo, 0 pu essere
considerato sottoinsieme di un qualsiasi insieme A.
Dato un insieme A, diremo insieme delle parti di A l'insieme:

!,p(A) = {BIB

A}.

In altre parole, !,p(A) l'insieme i cui elementi sono tutti e soli i sottoinsiemi di A.

Ad esempio, se A=

{a, b, c} , allora

!,p(A)

{0,{a},{b},{c},{a,b},{a,c}, {b,c} ,A}.

2Bertrond Russe!: filosofo e matematico inglese (Trelleck, 1872 - Penthryfrndraeth, 1970).

1. INSIEMI E RELAZIONI

10

2. Operazioni fra insiemi

Siano A, B sottoinsiemi di un insieme U.

= {x

EU

Ix E A o x

E B},

costituito dagli elementi di U che appartengono ad almeno uno degli insiemi A, B.


Diremo intersezione di A e B l'insieme:

AnB

{x EU

11

(propriet distributiva dell'unione rispetto all'intersezione e dell'intersezione rispetto alt 'unione);


- Se A e B sono sottoinsiemi di un insieme X, si ha:

Diremo unione di A e B l'insieme:

AUB

2. OPERAZIONI FRA INSIEMI

Ix E A

ex E B},

costituito dagli elementi di U che appartengono sia ad A che a B.


Se A n B = 0, diremo che A e B sono disgiunti.

Cx(A U B) =Cx A n CxB;


Cx(AnB) = CxA u CxB
(leggi di De Morgan 3 ).
Nel seguito il simbolo (x, y) indicher la coppia (ordinata) il cui primo elemento x
ed il cui secondo elemento y, con x e y elementi di un insieme X.
Gli elementi x e y saranno anche detti prima e seconda componente della coppia (x, y).
Si osservi che {x,y} = {y,x} 'r/x,y E X, mentre, sex =f=. y, allora (x,y) =f=. (y,x).
In modo del tutto analogo si possono definire le terne, le quaterne e, pi in generale,
le n-ple di elementi di un insieme, essendo n un arbitrario numero naturale.

Ad esempio, se A= {1, 2, 3, 4, 6} e B = {1, 4, 5, 8}, allora A U B = {1, 2, 3, 4, 5, 6, 8} e


AnB={l,4}.
Se invece come nell'Esempio 1.1, lP e !DJ indicano rispettivamente gli insiemi dei numeri
naturali pari e dispari, allora lP U !DJ = N, lP n !DJ = 0 (cio lP e !DJ sono disgiunti).

Diremo differenza tra A e B 1'insieme

A- B = {x E A

I x~

B}.

Se, inoltre, B A, allora l'insieme A - B sar indicato con CAB e sar detto il
complementare di B in A.
Se, ad esempio, A= {1, 2, 3, 4, 6} e B = {1, 3, 5, 7, 9}, allora A - B = {2, 4, 6}, mentre
B - A = {5, 7, 9}.
Dall'Esempio 1.1 segue inoltre che CNJP = !DJ e CN!DJ = JP.

Siano A, B insiemi. Diremo prodotto cartesiano 4 di A per B l'insieme:

A x B ={(a, b) I a E A e b E B}.
Si osservi che A x B = 0 se e solo se A = 0 o B = 0; inoltre, se A =f=. B, allora
A X B =f=. B X A.
Se A = B, allora il prodotto cartesiano di A per se stesso si indica con A x A o con

A2.
Analogamente sar indicato con An l'insieme delle n-ple (ordinate) (ai, ... , an) di
elementi di A.
Ad esempio, se A= {1,2,3}, B = {x,y}, allora

A x B

= {(1, x), (1, y), (2, x), (2, y), (3, x), (3, y)},

mentre
B x A= {(x, 1), (y, 1), (x, 2), (y, 2), (x, 3), (y, 3)}.

Le operazioni sopra definite soddisfano le seguenti propriet, la cui dimostrazione


un utile esercizio.

Inoltre
A 2 =AxA={(1,1), (1, 2), (1, 3), (2 , 1) , (2 , 2), (2, 3), (3, 1), (3, 2), (3, 3)}.

- Se A, B e C sono insiemi, si ha:

B3

AnB=BnA
AUB = BUA,
(propriet commutativa dell'unione e dell'intersezione);
(A u B) u C =A u (B u C),

x B x B

= {(x, x, x), (x, x, y), (x, y, x), (x, y, y),


(y, x, x), (y, x, y), (y, y, x), (y , y, y)}

Si determinino

A3

eB

(A n B) ne= A n (B n C)

(propriet associativa dell'unione e dell'intersezione);

A u (B n C) =(A u B) n (A u C),

=B

A n (B u C) = (A n B) u (A n C)

3 Augustus De Morgan: matematico e logico inglese (Madura, India, 1806 - Londra, 1871).
4Dal nome del filosofo e matematico francese Ren Descartes (Cartesio) (La Hauge, 1596 Stoccolma, 1650).

12

1. INSIEMI E RELAZIONI

3. Relazioni ed applicazioni

+Definizione 1.1. Siano A, B insiemi.

Diremo relazione fra A e B ogni sottoinsieme


!n del prodotto cartesiano A x B.
Se (a, b) E !n, diremo che a in relazione !n con b e scriveremo anche a !n b.

3. RELAZIONI ED APPLICAZIONI

Sia ora Y B. Diremo controimmagine o immagine inversa di Y il seguente


sottoinsieme di A:
f- 1 (Y) ={a E A I f(a) E Y}.
In particolare, se Y = {b}, allora la controimmagine di {b} sar anche detta controimmagine dell'elemento b E B ed indicata con f- 1 (b).
Si osservi che f- 1 (b) risulta definito come segue:

A x B una relazione fra A e B, diremo relazione inversa di !n la relazione


ryt-l fra B ed A, definita come segue:

Se !n

ryt-l

Se, ad esempio, A= {1,2,3}, B


allora
ryt-l

{(b,a) E B x A

{x,y} e !n

I (a,b)

E !n}

= {(1,x), (1,y) , (2,x), (3,y)}

A x B,

+Definizione 1.2. Siano A, B insiemi. Diremo applicazione o funzione o mappa di


A in B ogni relazione f A x B, tale che:

f- 1 (6) = 0.
Sia f : A --+ B una applicazione.
Diremo che
f suriettiva se Im f = B, cio se
't/b E B,3a E A,f(a)

= b;

f iniettiva se
(!(a')= f(a")) =?(a'= a");
f biiettiva se iniettiva e suriettiva, cio se

f.

L'elemento y, univocamente individuato da f e da x, sar detto il trasformato (o


l'immagine) di x mediante f e sar indicato col simbolo f (x).
Ad esempio, se A= {1,2,3}, B = {3,4,5,6} e !n = {(1,3),(1,4),(2,6)} allora !n non
una funzione di A in B; invece f = {(1, 5), (2, 5), (3, 3)} una funzione di A in B. In
tal caso si ha f(l) = f(2) = 5, f(3) = 3.

Se f una applicazione di A in B, scriveremo f: A--+ Bo, se y

f(x),

-----+

B
y
Gli insiemi A e B saranno detti rispettivamente dominio e codominio di
H

f.

+Definizione 1.3. Sia f

: A --+ B una applicazione ed X un sottoinsieme del dominio


A. Diremo immagine di X il seguente sottoinsieme di B:
= {b

b}.

't/b E B, 3! a E A, f(a) =b.

't/x E A,3 !y E B, (x,y) E

f(X)

={a E A I f(a)

+Definizione 1.4.

Il concetto di relazione tra due insiemi si particolarizza in quello di applicazione o


funzione di A in B.
Intuitivamente parlando, una applicazione di A in B una "legge" f, che associa ad
ogni elemento x E A uno ed un solo elemento y E B.
Tale nozione formalizzata nella seguente:

f- 1 (b)

Ad esempio, se f: {1, 2, 3}--+ {3, 4, 5, 6} la funzione definita da : f(l) = 5, f(2) = 5,


f(3) = 3, allora f({l,2}) = {5}, Imf = f({l,2,3}) = {3,5}, f- 1 (5) = {1,2},

= {(x, 1), (y, 1) , (x, 2), (y , 3)} B x A.

f: A

13

E BI 3x E X,f(x)

= b}.

In particolare, l'immagine f (A) del dominio A sar anche detta immagine di f e denotata con Im f.

Ad esempio, l'applicazione f: {1,2,3,4} ...-+ {a,b,c} definita da f(l) = c, /(2) =a,


/(3) = b, /(4) =a suriettiva, ma non iniettiva (in quanto /(2) = /(4) =a). Invece
l'applicazione g: {1, 2, 3}--+ {a, b, c, d}, definita da g(l) = b, g(2) = c, g(3) = d iniettiva, ma non suriettiva (in quanto a fj_ Img = {b, c, d} ). Si determinino due applicazioni
f ,g: {1,2,3,4}--+ {a,b,c,d}, in modo chef non sia n iniettiva n suriettiva e g sia
biunivoca.

Le applicazioni tra insiemi si dicono anche morfismi. Le applicazioni biunivoche (di


A in B) si dicono anche isomorfismi o biiezioni e, se A= B, si parla anche di permutazioni o sostituzioni (su A).
Si osservi che, data un'applicazione f : A --+ B, la relazione inversa 1- 1 = { (b, a) E
B x A I f (a) = b} non , in generale, una applicazione, in quanto l'immagine inversa
1- 1 (b) = {a E A I f(a) = b} di un elemento b E B pu essere vuota (se f non
suriettiva e b fj_ Imi), o costituita da pi di un elemento (se f non iniettiva).
Se, per, f biunivoca, allora la controimmagine di ogni elemento b E B costituita
da un unico elemento di A. Quindi, se f biunivoca, allora 1- 1 un'applicazione di
B in A.
Dimostreremo (Proposizione 1.1) che 1- 1 una applicazione se e solo se f biuni1 )- 1 =f.
voca. In tal caso 1- 1 a sua volta biunivoca e si ha

u-

1. INSIEMI E RELAZIONI

14

Definizione 1.5. Siano A, B, C insiemi ed


Diremo prodotto di g con l l'applicazione:

l :A

---+ B, g : B ---+ C applicazioni.

gol:A---+C
definita, per ogni a E A, da (g o l)(a) = g(f(a)).

Il simbolo "o" (che sar talvolta omesso) detto prodotto o composizione di applicazioni.
Si osservi che, se l : A ---+ B , g : B ---+ C e h : C ---+ D sono applicazioni, allora
risultano definite sia ho (go!) che (ho g) o l e si ha ho (gol) = (ho g) o f. Inoltre se
A = B = C, allora risultano definite sia gol che lo g. In generale, per, gol # l o 9
Si osservi infine che, se l : A ---+ B e g : B ---+ C sono applicazioni biunivoche, allora
1
1
anche gol biunivoca, e si ha (g o
= 1-l o g- .

n-

Per ogni insieme X, diremo identit o applicazione identica su X l'applicazione Id x :


X---+ X definita, 'ix E X, da Idx(x) = x.

+ Definizione

1.6. Una applicazione l : A ---+ B detta invertibile se esiste una


1
applicazione f' : B ---+ A, tale che f' o l = Id A, l o l = Id B

Proposizione 1.1. Una applicazione l invertibile se e solo se biunivoca. In


tal caso, la relazione inversa 1- 1 una applicazione invertibile che coincide con f' .
Dunque 1- 1 biunivoca e la sua inversa (f- 1 )- 1 coincide con l .

4. RELAZIONI DI EQUIVALENZA E QUOZIENTI

15

Esempio 1.4. Sia Z l'insieme dei numeri interi relativi ed l : Z ---+ Z definita da
f(x) = x 2 , 'ix E Z . L'applicazione l non suriettiva, in quanto Iml # Z (ad esempio
2 rt Imf); l non neppure iniettiva, in quanto x 2 = (- x) 2 , Vx E Z. L'applicazione
f: JR---+ JRt. definita da f(x) = x 2 , Vx E JR (dove JR l'i nsieme dei numeri re~li ed
JRri l'insieme dei numeri reali non negativi) invece suriettiva, ma non iniettiva. Infine
l'applicazione fpR;j : JRri ---+ JRri , restrizione di ad JRri e JR, biunivoca e la sua inversa

g = (fpR;j ) - 1 data, per ogni y E JRt . da g(y) =

VY

Esempio 1.5. Le funzioni sen : JR ---+ JR e cos : JR ---+ JR non sono n suriettive (in quanto,
posto [a, b] = {y E JR I a ::; y ::; b}, si ha Imsen = Im cos = [- 1, 1]), n iniettive

(in quanto, ad esempio, sen O = sen n = O e cos(-n /2) = cos(n /2) = O). Le funzioni
sn : [-n/2,n/2]---+ [-1, 1] e cs: [O , n] ---+ [- 1, 1]. definite ponendo sn x = senx e
cs x' = cos x', per ogni x E [-n /2, 7r /2] e per ogni x' E [O , n]. sono biunivoche. Le
loro inverse sono rispettivamente le funzioni are sen : [-1', 1] ---+ [- n /2, 7r /2] e are cos :
[-1, 1]---+ [O, n].
L'applicazione ex : JR ---+ <C definita, 'ix E JR, da ex(x) = eix = cosx + isenx non
suriettiva (in quanto Im ex = { z E <C I lzl = 1} ), n iniettiva (in quanto, ad esempio,
ex(O) = ex(2n) = 1).
Posto [0,2n[= {t E JR I o::; t < 2n}, l'applicazione ex: [0,2n[---+ Imex e <C, definita da
ex(t) = ex(t) , Vt E [O, 2n[, invece biunivoca .

Dimostrazione. Come abbiamo visto precedentemente, se l biunivoca, allora l-


una applicazione. Si ha inoltre 1- 1 o l = Id A, lo l - 1 = Id B Quindi l invertibile
ed l' = 1- 1 .
Viceversa, se l invertibile, allora, da f' o l = IdA segue che se l(x ) = l(x') allora
x = f' o l( x ) = f' o l(x') = x' e dunque l iniettiva; inoltre per ogni y E B, posto
x = f'(y) , si ha l( x ) = l o f'(y) = y e dunque l suriettiva. Ci prova che l
biunivoca, nel qual caso f' = 1- 1 per definizione.
1
1
Si osservi che, se l biunivoca, allora l o 1- 1 = Id B e l- o l = Id A Quindi l 1
1
invertibile (dunque biunivoca) e la sua inversa
)- coincide con f.

u-

Sia l : A ---+ B una applicazione ed X A. Diremo restrizione di l ad X l' applicazione lix : X---+ B definita, 'ix E X, da 11x(x ) = l(x ).
.
Talvolta risulta comodo, dati l : A ---+ B ed Y B, con Im l _ Y, considerare
l'applicazione
A---+ Y, tale che f(a) = l(a), Va E A. Si dir che l la restrizione
di l ad Y B .

J:

Esempio 1.3. Sia l : N ---+ N definita da l (n) = 2n, 'in E N; l iniettiva, in quanto
se l(n) = l(m), cio se 2n = 2m, allora n = m . L'applicazione l non pe~ suriettiva
(e quindi neppure biunivoca), in quanto Iml = lP' # N. L'applicazione l : N ---+ lP',
restrizione di l a lP' e N, invece biunivoca .
_
_
1
1
L'applicazione inversa j - 1 : lP'---+ N definita, \fp = 2n E lP', da
(p) = l- (2n) = n.
1
1
Si osservi che effettivamente
o J = Id N e J o
= Id Il'

J-

J-

4. Relazioni di equivalenza e quozienti

Si ricorda che una relazione tra due insiemi A e B un sottoinsieme !Jl di A x B . Se


A = B, allora !Jl e A x A sar detta una relazione su A. In accordo con le notazioni
del 3, x!Jly equivale a (x,y) E !Jl.

+Definizione 1. 7.

Una relazione !Jl su A sar detta:


(R) riflessiva se
'ix E A, x!Jlx;
(x!Jly) =:} (y!Jlx);
( S) simmetrica se
(x!Jly e y!Jlz) =:} ( x!Jlz).
(T) transitiva se

Diremo poi che !Jl una relazione di equivalenza su A se contemporaneamente


riflessiva, simmetrica e transitiva.
Se a E A, diremo classe di equivalenza di a l'insieme
[a] = {x E A I x!Jla} .
Lemma 1.2. Sia !Jl una relazione di equivalenza su A. Se a, b E A e a E [b], allora
[a]= [b].

Dimostrazione. Innanzi tutto, se a E [b], allora a!Jlb; per la propriet simmetrica (S) ,
b!Jla e quindi b E [a]. Se ora x E [a], allora x!Jla e a!Jlb; per la propriet transitiva
(T), x!Jlb, cio x E [b] . Ci prova che [a] [b]. Per simmetria si prova che [b] [a], e
cio che [a] = [b].
o

1. INSIEMI E RELAZIONI

16

equivalenza su A tale che A/!rt = A/!rt' = Q3, allora evidentemente, \:/x, y E A, si ha


x!rty {=? x!rt'y . Ci prova che !R = !R', completando la dimostrazione del Teorema 1.4.

Lemma 1.3. Se !R una relazione di equivalenza su A, allora si ha:

(i) \:/x E A, X E [x];


(ii) se a, b E A, allora [a] = [b] oppure [a]

n [b] = 0.

Dimostrazione. La propriet riflessiva (R) prova (i).


(ii) Se [a] n [b] i= 0, allora esiste x E [a] n [b]. Per il Lemma 1.2, si ha [a]

= [x] = [b] .
o

I lemmi precedenti giustificano la seguente:

+Definizione 1.8.

Se !R una relazione di equivalenza su A, allora diremo che ogni


x E [a] un rappresentante di [a].
Ad esempio, sia A l'insieme dei cittadini italiani . Se x, y E A, poniamo x!rty se e solo se
x e y hanno lo stesso nome. facile verificare che !R una relazione di equivalenza su A.
Se il nome di x Valeria, allora [x] l'insieme dei cittadini italiani di nome Valeria e
ciascuno di essi un rappresentante di [x].

Definizione 1.9. Sia !R una relazione di equivalenza su A.


quoziente di A modulo !R l'insieme:

Diremo insieme

A/!rt ={[a] I a E A},

Le relazioni di equivalenza saranno solitamente indicate con simboli quali ",.._,", "':::::'." ,
",..._,"
,..._,' "-"
=.
Esempio 1.6. Sia R l'insieme delle rette del piano. Se r, s E R, poniamo r Il s se e solo
se r e s sono parallele o coincidenti. Allora Il una relazione di equivalenza su R e gli
elementi dell'insieme quoziente R/ Il sono i "fasci" di rette parallele del piano.
Se T l'insieme dei triangoli del piano, allora la congruenza e la similitudine di triangoli
sono relazioni di equivalenza su T.
Esempio 1. 7. (L'insieme Q dei numeri razionali) Supposte note le operazioni in Z ,
se m, m' E Zen, n' E Z - {O}, poniamo (m, n)"" (m', n') se e solo se mn' = nm' .
La relazione "" di equivalenza su Z x (Z - {O}).
Infatti le propriet riflessiva e simmetrica sono immediate; per dimostrare la propriet
transitiva, sia (m,n)"" (m',n') e (m' ,n')"" (m",n"). Si ha allora mn"n' = mn'n" =
= m'nn" = m'n"n = n'm"n = nm"n' . Essendo n' i= O, si ottiene che mn" = nm",
cio (m ,n) ""(m",n").
L'insieme quoziente (Z x (Z - {O}))/"" l'i nsieme Q dei numeri razionali. Ogni elemento
di Q dunque una classe di equivalenza [(m, n )]. con m, n E Z, n i= O; d'uso porre

i cui elementi sono le classi di equivalenza degli elementi di A .


Si osservi che A/!rt

[(m,n)]

$(A).

Sia

+ Definizione

1.10. Sia A un insieme e $(A) l'insieme delle parti di A.


sottoinsieme Q3 di $(A) sar detto:
\:/x E A,3B E Q3, x E B;

0 rJ_ Q3

\:/x E A, 3! BE Q3, x E B.

In.altre parole, una partizione di A un ricoprimento, non contenente l'insieme vuoto, i cui elementi sono a due a due disgiunti.
Il risultato che segue mostra come i concetti di "relazione di equivalenza" e di "partizione" siano strettamente connessi.
Teorema 1.4. Se !R una relazione di equivalenza su A, allora l'insieme quoziente
A/!rt una partizione di A .
Viceversa, se Q3 $(A) una partizione di A, allora esiste ed unica la relazione
di equivalenza !R su A, tale che A/!rt = Q3 .

Dimostrazione. Il Lemma 1.3 prova la prima parte del teorema.


Supponiamo ora data una partizione Q3 di A. Definiamo la relazione !R su A ponendo, \:/x, y E A, x!rty se e solo sex e y appartengono ad uno stesso B E Q3. !R una
relazione di equivalenza su A ed A/!R = Q3. Se poi !R' una seconda relazione di

m
n

= - .

z= { 7I ~ E z} Q.

Un

(i) un ricoprimento di A se

(ii) una partizione di A se

17

4. RELAZIONI DI EQUIVALENZA E QUOZIENTI

L'applicazione cp : Z--+ Q definita, per ogni m E Z , da


m
cp(m) = l
iniettiva; inoltre, evidentemente, Im cp = Z. Ci consente di identificare Z con
mediante l'applicazione cp, e di considerare Z sottoinsieme di Q.

Esempio 1.8. (L'insieme Zn delle classi resto modulo n) Sia Z l' insieme dei numeri
interi e si.a n un fissato intero positivo. Se x, y E Z, poniamo x = y (mod n) se e solo
se 3 k E Z, x - y = kn. La relazione = (mod n) (detta congruenza modulo n) di
equivalenza su Z. Infatti : (R) x - x = On; (S) se x - y = kn, allora y - x = -kn;
(T) se x - y = kn e y - z = hn, allora x - z = x - y + y - z = kn + hn = (k + h)n.
L'insieme quoziente, di norma indicato con Zn. anzich con Z/ = (mod n), viene detto
l'insieme delle classi resto modulo n . Tale terminologia giustificata dal fatto che esso
consta di esattamente n classi, indicate con O, I, ... , n - 1, dove la classe 'F contiene tutti
e soli gli interi il cui resto della divisione per n uguale ad r.
Infatti, dato comunque z E Z, si ha che z = kn + r, essendo O ::::; r ::::; n - 1. Quindi
z - r = kn, cio z
r (mod n), il che implica z E 'F .
Inoltre, se O ::::; r < s ::::; n -1, allora 'F i= 8, in quanto O < s - r ::::; n -1 e quindi, \:/k E Z ,
s - r i= kn .

1. INSIEMI E RELAZIONI

18

5. Cardinalit di un insieme

+ Definizione

1.11. Diremo che due insiemi A, B sono equipotenti se esiste una


applicazione biiettiva f : A -t B.
Diremo anche, in tal caso, che A e B hanno la stessa potenza o la stessa cardinalit o
lo stesso numero cardinale, e scriveremo Card A = Card B.

Si osservi che gli insiemi Nn ed Nm sono equipotenti se e solo se n

CAPITOLO 2

Strutture algebriche

= m.

+ Definizione 1.12.

Un insieme A equipotente con Nn detto finito, di cardinalit


n. L'insieme vuoto , per convenzione, l'unico insieme finito di cardinalit O.
Un insieme detto infinito se non finito, cio se non n vuoto, n equipotente con
Nn, per alcun n E N.
I numeri cardinali degli insiemi finiti sono, dunque, in corrispondenza biunivoca con
i numeri interi ~ O. I numeri cardinali degli insiemi infiniti sono detti transfiniti.

Un insieme equipotente con N detto numerabile ed il suo numero cardinale solitamente indicato con No (la lettera N si legge "alef" ed la prima lettera dell'alfabeto
ebraico).
abbastanza semplice provare che ogni sottoinsieme di un insieme numerabile finito
o numerabile. Quindi No il pi piccolo numero cardinale transfinito.
.,.. Osservazione 1.1. Un insieme finito non pu essere equipotente con un suo
sottoinsieme proprio. possibile provare che tale propriet caratterizza gli insiemi

1. Operazioni su insiemi

+ J?efinizione

2.1. Siano A, B, C insiemi. Diremo operazione binaria ogni applicaz10ne cp : A x B -t C.


Se, in particolare, A = B = e, allora diremo che cp : A X A -t A un'operazione
binaria interna su A.

Il trasformato di (x, y) E A x B mediante l'operazione cp sar solitamente indicato con


xcpy, anzich con cp(x, y). Inoltre le operazioni saranno solitamente indicate anzich
'
con lettere, con appositi simboli quali "J_ T * o + ."

'

'

' ' '

'

Esempio 2.1. I "prototipi" di operazioni binarie interne sono l'usuale "somma" e l'usuale
"prodotto" di numeri naturali:

finiti.

Si dimostra inoltre che Z e Q sono insiemi numerabili e che JR non numerabile. Un


insieme equipotente con JR detto avere la potenza del continuo. possibile provare
che e ha la potenza del continuo.
P osto CardJR =e, si ha dunque:
CardQ = CardZ = CardN =No
e
Card C

= Card JR = c.

+:

NxN
(m, n )

--tN
Hm+ n

NxN
(m, n)

--tN
m. n

i--t

Analogamente, l'usuale "somma" e l'usuale "'prodotto" di numeri interi :

+ :ZxZ--tZ

sono operazioni binarie interne su Z.


Si ~sservi che la "differenza" non una operazione binaria interna su N, mentre lo su
Z; invece la "divisione" non una operazione binaria interna n su N, n su z.

Esempio 2.2. Sia Q = (Z x (Z - {O}))/ "' l' insieme dei numeri razionali, costruito
nell'Esempio 1. 7.
Poniamo, Vx, z E Z, Vy, t E Z - {O},
(x, y)

+ (z, t ) =

(xt + yz, yt);

(x, y) (z, t) = (xz , yt).

Non difficile provare che, se (x,y)"' (x',y') e se (z,t)"' (z' ,t'), allora

(xt+yz,yt)"' (x't' +y' z' ,y't') ;


(xz , yt)"' (x'z',y't') .
Ci consente di definire le seguenti applicazioni (ancora indicate con

+:QxQ-tQ

:QxQ--tQ

ponendo:

=::

+~

_x_t_+_ z.:.-y
yt )

e .. ) :

2. STRUTTURE ALGEBRICHE

20
X

XZ

yt

2. Gruppi

Le applicazioni + e sopra definite sono operazioni binarie interne su Q; esse coincidono


con le usuali operazioni di "somma" e "prodotto" di numeri razionali.

Esempio 2.3. Le operazioni di "somma" e "pro dotto" di numeri reali (che saranno
supposte note) sono operazioni binarie interne su JR. A partire da queste si definiscono la
somma ed il prodotto di numeri complessi :
(a+ ib) +(e+ id) =(a+ e)+ i(b + d);
(a+ ib) (e+ id)= (ac - bd) + i(ad +be).
Queste risultano ovviamente operazioni binarie interne su C.

Esempio 2.4. Sia n E N, n ~ 2, e sia Zn = {O, .. . , n - 1} l'insieme delle classi resto


modulo n, costruito nell'Esempio 1.8.
Si osservi che , se x,x',y,y' E Z, x
x' (modn) e y y' (modn), a llora anche

x+ y

= x' +

y' ( mod n)

21

2. GRUPPI

xy

Per struttura algebrica intenderemo una n-pla costituita da insiemi ed operazioni su


di essi.
La pi semplice struttura algebrica, spesso detta gruppoide, una coppia (X, 1-), dove
X un insieme e 1- un'operazione binaria interna su X.

+Definizione 2.2.

Sia (X, 1-) un gruppoide.


(a) L'operazione l_ detta associativa se

(e) Un elemento u

E X

o
o o

+
I

I
I

~1; ~

Esempio 2.5. Sia U un insieme. Le operazioni di unione, intersezione e differenza tra


sottoinsiemi di U (introdotte nel 2 del Capitolo 1) sono operazioni binarie interne su

= y l_ x :

detto elemento neutro per l'operazione 1- se


Xl_ U =

'Vx E X,

l_ X= X.

(d) Se (X, 1-) ammette un elemento neutro u, un elemento x E X detto


invertibile se

3x' E X,

seguenti tabell e:

x1-x'

= x' 1-x = u.

In tal caso, x e x' sono detti inversi o opposti l'uno dell'altro.


Si osservi che, se 1- associativa (e solo in tal caso), ha senso la scrittura x 1- y 1- z ,
intesa come rappresentazione semplificata dell'elemento (x 1- y) 1- z = x 1- (y 1- z) .
Proposizione 2.1. Sia (X, 1-) un gruppoide.
(i) Se (X, 1-) ammette elemento neutro, questo unico.
(ii) Se (X, 1-) ammette elemento n eutro e 1- associativa, allora1 se x E X
invertibile, il suo inverso unico.
Inoltre, se x, y E X sono invertibili, allora anche x 1- y invertibile e, detti
x', y', (x 1- y)' gli inversi rispettivamente dix, y, x 1- y, si ha:

s+J(U).

(x 1- y)' = y' 1- x'.

Esempio 2.6. Sia X un insieme non vuoto ed Hom(X) l'insieme di tutte le applicazioni

f:

Xl_ y

'Vx,y E X,

ponendo:

xy=xy.
Esse sono ovviamente operazioni binarie interne su Zn.
Se ad esempio, n = 2, allora le operazioni introdotte possono essere visualizzate nelle

= x1-(y 1- z) .

(b) L'operazione l_ detta commutativa se

= x' y' (mod n).

Ci consente di definire le seguenti applicazioni (ancora indicate con +e ):

(xl_ y) 1- z

'Vx,y, z E X,

X--+ X . L'applicazione:
o

Hom(X) x Hom(X)

--+

(f,g)

i-+

Dimostrazione. (i) Siano u, u elementi neutri per (X, 1-). Allora, evidentemente:
u

Hom(X)

og

dove f o g : X --+ X il prodotto di f con g (Definizione 1.5), una operazione binaria


interna su Hom(X) .
Sia 6(X) Hom(X) l'insieme di tutte le applicazioni biunivoche (permutazioni)
<p : X --+ X. Se 'f/, '!/; E 6(X), allora anche 'fJ o'!/; E 6(X). Quind i il prodotto di
applicazioni, opportunamente ristretto, induce una operazione binaria interna (ancora indicata con o) su 6(X).

= u1-u = u.

(ii) Sia u l'elemento neutro di (X, 1-) e siano x', x" inversi dix E X . Allora:
x' = x' 1- u = x' 1-(x 1- x") = (x' 1- x) 1- x" = u 1- x" = x" .

Inoltre si ha:
(x 1- y) 1- (y' 1- x') = x 1- (y 1- y') 1- x' = x 1- u 1- x' = x 1- x' = u;
(y' 1- x') 1- (x 1- y) = y' 1- (x' 1- x) 1- y = y' 1- u 1- y = y' 1- y = u.

2. STRUTTURE ALGEBRICHE

22

+Definizione 2.3. Sia G un insieme e ..l un'operazione binaria interna su G. Diremo


che la struttura algebrica (G, ..l) un gruppo se soddisfa le seguenti propriet:
(Gl) l'operazione ..l associativa;
(G2) (G, ..i) ammette elemento neutro;
(G3) ogni elemento x E G invertibile.
Un gruppo (G, ..i) detto commutativo o abeliano 1 se soddisfa l'ulteriore propriet:
L'insieme G sar detto supporto o insieme soggiacente del gruppo (G, ..i).
Si dir anche, con abuso di linguaggio, che G un gruppo, sottintendendo in tal modo
l'operazione ..l su di esso definita.
Solitamente, l'operazione di un gruppo viene indicata o con il simbolo + o con il
simbolo .. In quest'ultimo caso, il simbolo sar spesso omesso.
Nel primo caso, (G, +) detto un gruppo additivo, l'elemento neutro detto zero,
indicato con O, e l'inverso di x E G detto opposto ed indicato con -x.
Nel secondo caso, (G , ) detto gruppo moltiplicativo; l'elemento neutro, indicato con
1, detto unit e l'inverso di x E G indicato con x- 1 .

Esempio 2.1 bis. (N, +) un gruppoide associativo e commutativo. Esso non ammette
elemento neutro.
Se N0 = N U {O}, allora (No ,+) ovviamente associativo e commutativo e O ne l'elemento neutro. Per nessun elemento di N0 , tranne O, ammette opposto.
(N, ) un gruppoide associativo e commutativo; inoltre 1 ne l'elemento neutro. Per
nessun elemento, tranne 1, invertibile.
(Z, +) un gruppo abeliano; O ne l'elemento neutro e l'opposto di z - z .
(Z, ) un gruppoide associativo e commutativo, avente 1 quale elemento neutro. Per i
sui unici elementi invertibili sono 1 e - 1.
Esempio 2.2 bis. (Q, +) un gruppo abeliano; O =
X
-

- X

ne l'elemento neutro e l'opposto

e -- = -.

(Q, ) un gruppoide associativo e commutativo; con 1 =


Si osservi che

E Q,

O.

~1 quale elemento neutro.

o o

t = l .t = t = l

Quindi O = Ql non invertibile in (Q, ). Se

Analogamente, (C, +) un gruppo abeliano; O = O + i O ne l'elemento neutro e


l'opposto di z =a+ ib - z = -a - ib.
Posto C * = C - {O}, (C*, ) un gruppo abeliano; 1 = 1 +i O ne l'elemento neutro
e l'inverso di z =a+ ib (z i=- O)
_
a
.
b
z 1 = -- - - i - - a2
b2
a2
b2 .

(Zn, +) un gruppo abeliano, O ne l'elemento


neutro e l'opposto di x -x.
(Zn , ) un gruppoide associativo e commutativo, con I quale elemento neutro.

Esempio 2.4 bis. Per ogni n :'.:'. 2,

(G4) l'operazione ..l commutativa.

.
dI

23

3. ANELLI E CAMPI

invece~y

EQ e

= O.

~i=O,
y

allora

~
invertibile
y

.in (tr11
-..e, ) e -y ne e, I"inverso.
X

Quindi, posto Q* = Q- {O}, si ha che (Q*, ) un gruppo abeliano.


Esempio 2.3 bis.

(JR,+) un gruppo abeliano e O ne l'elemento neutro. Posto


JR* =JR - {O}, (JR*,) un gruppo abeliano e 1 ne l'elemento neutro.
1Dal nome d el matematico norvegese Niels H. Abel (Findo, 1802 - Froland, 1829).

i=- 0, ( Hom(X) , o) un gruppoide associativo ma, in generale,


non commutativo e l'applicazione identica ldx ne l'elemento neutro. Inoltre una applicazione f E Hom(X) invertibile se e solo se biunivoca (si veda la Proposizione 1.1),
cio se e solo se f E 6(X) . Quindi (6(X) , o) un gruppo (non abeliano se X ha almeno
tre elementi), che viene usualmente detto il gruppo delle sostituzioni o permutazioni su X.
Esempio 2 .6 bis. Se X

3. Anelli e campi
Nel presente paragrafo studieremo strutture algebriche del tipo (X,+,), costituite
da un insieme X e da due operazioni binarie interne su X, che saranno dette rispettivamente somma e prodotto di elementi di X.
+ Definizione 2.4. Sia A un insieme e' +, due operazioni binarie interne su A.
Diremo che la struttura algebrica (A,+,) un anello se soddisfa le seguenti propriet:

(Al) (A, +) un gruppo abeliano;


(A2) il prodotto associativo;
(A3) 'ix,y, zE A,

x (y

+ z) = (x y) + (x z )

(y + z ) x = (y x)

+ (z x).

La propriet (A3) si esprime anche dicendo che il prodotto distributivo rispetto alla
somma.
Un anello (A,+, ) detto commutativo se il prodotto commutativo.
Un anello (A,+,) detto unitario o con unit se (A, ) ammette elemento neutro.
+ Definizione 2.5. Sia OC un insieme e +, due operazioni binarie interne su OC.
Diremo che la struttura algebrica (OC, +, ) un campo se soddisfa le seguenti propriet:

(Kl) (OC,+) un gruppo abeliano;


(K2) se O l'elemento neutro di (OC,+) e OC*= OC-{O}, allora (OC*,) un gruppo
abeliano;
(K3) il prodotto distributivo rispetto alla somma.

2. STRUTTURE ALGEBRICHE

24

In altre parole, un campo (OC,+,) un anello commutativo ed unitario (contenente almeno due elementi), in cui ogni elemento diverso da O invertibile rispetto al prodotto.

25

3. ANELLI E CAMPI

+Definizione 2. 7.

Sia (A,+,) un anello. Se a, b E A - {O} sono due elementi non


nulli di A tali che a b = O, si dice che a e b sono divisori dello zero.

Se (A,+, ) un anello (rispettivamente, se (OC,+,) un campo), allora l'insieme A


(rispettivamente OC) detto insieme soggiacente o supporto.
Si dir anche, con abuso di linguaggio, che A un anello (rispettivamente, che OC
un campo), sottintendendo cos le operazioni su di esso definite.

.., Osservazione 2.2. La mancanza di divisori dello zero nell'anello A equivale alla
seguente propriet, nota come legge di annullamento del prodotto:

Esempio 2. 7. (L'anello degli interi) (Z, +, ) un anello commutativo con unita , ma


non un campo (si veda l'Esempio 2.1 bis) .

Proposizione 2.2. Ogni campo privo di divisori dello zero e la sua caratteristica
zero o un numero primo.

Esempio 2.8. (1 campi dei numeri razionali, reali e complessi) (Q, + , ),


e (C, +, ) sono campi (si vedano gli Esempi 2.2 bis e 2.3 bis).

(JR,+,)

Esempio 2.9. (L'anello delle classi resto modulo n) Per ogni n 2".: 2, (Zn , + , ) un
anello commutativo con unit (si veda l'Esempio 2.4 bis) . Si pu provare che (Zn, +, )
un campo se e solo se n un numero primo.

'V a, b E A, se a b =O allora a= O oppure b =O.

Dimostrazione. Sia OC un campo, e siano a, b E OC tali che a b = O. Se a


1

fatto che (A, +) un gruppo abeliano e che (A,) un gruppoide associativo. Cos
l'elemento O unico e l'opposto -a di a E A unico. Inoltre, se A ammette elemento
unit, questo unico; se poi A un campo, l'inverso a- 1 di a E A* unico.
Gli anelli godono di altre propriet elementari che dipendono, oltre che dagli assiomi
dei gruppi abeliani e dei gruppoidi associativi, anche dalla distributivit del prodotto
rispetto alla somma.
Ad esempio, se (A,+, ) un anello, allora, per ogni x E A, si ha:
0 X

= X Q

= 0.

.,. Osservazione 2.1. Se A un anello con unit che contiene almeno 2 elementi,
allora, quale conseguenza immediat a della propriet precedente, si ha sempre 1 =f. O.
In particolare, ogni campo contiene due elementi distinti O e 1.

ci6 prova la prima parte dell'enunciato.


Supponiamo ora che la caratteristica di OC sia n = n' n", con 1 < n' < n, 1 < n" < n.
Poich
o= 1+ . .. + 1 = (1+ . . . +1). (1+ . . . +1 ),
n' volte

n 11 volte

la mancanza di divisori dello zero implica che uno almeno dei due fattori deve essere
nullo, contro l'ipotesi che n sia la caratteristica di OC.

Esempio 2.10. L'anello degli interi (Z, +, ) privo di divisori dello zero ed ha caratteristica zero. I campi (Q, +, ), (JR,+, ) e (C, +,)dei numeri razionali, reali e complessi
hanno caratteristica zero.

Esempio 2.11. Per ogni n 2".: 2, l'anello delle classi resto modulo n (Zn, +,)ha caratteristica n; inoltre, ha divisori dello zero se e solo se n non un numero primo. Ad esempio
2 e 3 sono divisori dello zero in Z 6 . Ci conferma che, se n non primo, Zn non un_
campo.
Esempio 2.12. Se U un insieme non vuoto, poniamo, 'V A, B

I concetti di caratteristica e di divisore dello zero, che stiamo per introdurre, inducono
a riflettere su alcune familiari propriet, valide nell'anello Z degli interi (e nei campi
Q, JR o C dei numeri razionali, reali o complessi), che devono essere usate con cautela
in ambito pi generale.

Definizione 2.6. Sia (A,+,) un anello con unit (in particolare, un campo) .
Se, per ogni m E N, si ha 1++1 =f. O, allora diremo che A ha caratteristica
mvolte

zero. In caso contrario, diremo caratteristica di A il minimo intero positivo n tale che
1+ . . . +1 =o.
nvolte

A+ B = (A U B) - (A n B);

U:

AB=AnB.

Con tal i posizioni, (!,lJ(U), +, ) un anello commutativo con unit (l'insieme U) .


L'elemento neutro di (1,fJ(U), +) l'insieme vuoto 0. Si osservi che 'VA E !,lJ(U), A+A = 0;
dunque, !,lJ(U) ha caratteristica due.
Inoltre, ogni elemento A E 1,fJ(U), con A =f. 0, A =f. U, un divisore dello zero. Infatti
ACuA=0.
Infine si osservi che 'V A E !,lJ(U), si ha : A 2 = A A =A. Un anello con tale propriet
detto booleano2 .

Si osservi che, se A ha caratteristica n, allora, \fa E A, si ha:


a++ a= 1 a++ 1 a = (1++1) a= O a= O;
n volte

n volte

n volte

inoltre, n il minimo intero positivo per cui ci accade.

=/. O, allora

b = (a- a) b = a- (a b) = a- O= O;

n volte

In ogni anello (A,+,) valgono alcune propriet elementari che sono conseguenze del

2Dal nome del matematico inglese George Boole (Lincoln, 1815 - Cork, 1864).

26

2. STRUTTURE ALGEBRICHE

4. Sottostrutture e morfismi
+ Definizione 2.8. Sia X un insieme, T un'operazione binaria interna su X ed
Y X. Diremo che Y chiuso rispetto all'operazione T se:

'rfx,y E Y,

xTy E Y.

In tal caso, possibile restringere opportunamente dominio e codominio di T, in modo


da ottenere una applicazione

Ty:YxY-tY
che risulta un'operazione binaria interna su Y.
Diremo, per brevit, che T y la restrizione ad Y X dell'operazione T. Inoltre,
con abuso di linguaggio, spesso indicheremo T y ancora con T.
Nel seguito l'elemento neutro del gruppo G sar indicato con u.

27

5. n-PLE

Esempio 2.14. Se (A,+,) un anello con unit, allora il sottoinsieme {1, -1}, con
/'operazione di prodotto indotta da A, un gruppo.
Se A tale che 1+1 =O, allora 1 = -1 e quindi {-1, 1} si riduce al gruppo banale {1}
costituito dalla sola unit di A.
Se, invece, 1+1 =!= O, allora l'applicazione f : Z 2 = {O, I} -+ {1, -1}, definita da
f(O) = 1 e f(I) = -1 un isomorfismo di (Z2, +) in ({l, -1}, ).
Esempio 2.15. Sia J(A) l'insieme degli elementi invertibili (rispetto al prodotto) di un
anello unitario A.
Evidentemente 1 E J(A) e, per la Proposizione 2.1 (i), 'rfx,y E J(A), x Y.~ I(A) .e.
x-1 E J(A). Ci prova che (J(A), ) un gruppo, detto il gruppo degli elementi mvert1b1/t
di A.
Si osservi che {-1, 1} un sottogruppo di J(A). Inoltre, se IK. un campo, allora
J(IK.) = IK. - {O}.

I a> O}.
Evidentemente, (JR+,) un sottogruppo di (JR*,).
Se a E JR+, a=!= 1, indichiamo con expa : JR-+ JR* la funzione esponenziale che ad x E JR
associa expa(x) = ax E JR*.
noto che expa una funzione crescente, dunque iniettiva, e che Im expa =JR+. Inoltre,
se x,y E JR, allora
Esempio 2.16. Sia JR il campo dei numeri reali, JR*= JR-{O} e JR+= {a E JR

+ Definizione 2.9. Sia (G, *) un gruppo ed IHI un sottoinsieme di G, chiuso rispetto


all'operazione* Diremo allora che IHI un sottogruppo di (G, *)se (IHI, *) un gruppo,
dove * = *JHI indica la restrizione ad IHI dell'operazione definita su G.
+ Definizione 2.10. Sia (lF, +,-) un anello (rispettivamente un campo) ed IHI un
sottoinsieme di lF, chiuso rispetto ad entrambe le operazioni definite su lF. Diremo
che 1HI un sottoanello (rispettivamente un sottocampo) di (JF, +, ) se (IHI, +, ) un
anello (rispettivamente un campo), dove+= +JHI e = 'IHI indicano le restrizioni ad IHI
delle operazioni di somma e prodotto definite su lF.

expa(x + y) = ax+y = ax aY = expa(x) expa(y).


Ci prova che expa un isomorfismo del gruppo additivo (JR,+) dei numeri reali nel
gruppo moltiplicativo (JR+,) dei numeri reali positivi.
L'isomorfismo inverso exp;;: 1 la funzione logaritmo loga : JR+ -+JR.

+Definizione 2.ll. Siano (G,*) e (G',*) due gruppi. Diremo omomorfismo di G


in G' ogni applicazione cp : G -+ G' tale che, V x, y E G:

cp(x

* y) = cp(x) * cp(y).

+Definizione 2.12. Siano (JF, +,)ed (JF', +,)due anelli (in particolare, due campi).
Diremo omomorfismo di lF in JF' ogni applicazione cp : lF-+ JF' tale che, V x, y E lF:
(i) cp(x + y) = cp(x) + cp(y);
(ii) cp(x y) = cp(x) cp(y).
Per isomorfismo (tra due gruppi o tra due anelli o tra due campi) intenderemo sempre
un omomorfismo biiettivo. Si noti che l'inverso cp- 1 di un isomorfismo cp ancora un
isomorfismo.

5. n-ple
Sia IK. un anello commutativo con unit (in particolare, un campo). Se n E N sia poi
ocn l'insieme delle n-ple di elementi di IK (si veda 2 del Capitolo 1):

ocn ={a= (a 1 ,. . .,an) I ai E IK, 1:::; i:::; n} .


La somma definita su IK. induce su ocn una "somma di n-ple", definita come segue:
se a=(a 1 ,. . .,an), b=(b 1 ,. . .,bn)EIK.n, allora

Esempio 2.13. Sia (Q, +, ) il campo dei numeri razionali e Z = {m/1 m E Z} Q.


Evidentemente Z un sottoanello (commutativo ed unitario) di Q.
Identificando Z con Z, mediante l'applicazione cp : Z -+ Q, che associa ad ogni intero
m E Z il razionale m/1 E Q (si veda l'Esempio 1.7), si pu considerare Z sottoanello di
J

Q.
Analogamente Q pu essere identificato con un sottocampo Q del campo JR dei numeri
reali ed JR pu essere identificato con un sottocampo i del campo C dei numeri complessi.

a+b=(a 1 +b1, .. .,an+bn) .

Rispetto a tale somma, (IK.n, +) un gruppo abeliano.


Si osservi che l'elemento neutro la "n-pla nulla" O = (O, O, . . . , O) e che la "n-pla
opposta" di a= (a 1 , . . . , an) -a= (-a 1 , ... , -an).
Si definisce anche una operazione di prodotto di un elemento di IK per una n-pla
: IK.

IK.n -+ IK.n

11

2. STRUTTURE ALGEBRICHE

28

ponendo:

6. L'ANELLO DEI POLINOMI

29

Indicheremo con OC[t] l'insieme dei polinomi nella indeterminata t a coefficienti in OC.
Le operazioni di somma e prodotto di polinomi in OC[t], sono definite come segue:

Ad esempio, se OC = JR., n = 3, a = (1, 7r, O), b = (3, O, -4), a =


a+ b = (4, 7r, -4) e J2 a= ( J2, 7r\1'2, O).

J2.

se

ocn

che sar anche indicata con il simbolo


m

2: aiti,
+ q(t)

p(t) q(t) = s(t) =

= r(t) =

biti E OC[t],

L Cktk,

L (ai+ bi)ti;
k

dove Ck =

L arbk-r
r=O

kElllo

La struttura (OC[t], +, ) un anello commutativo con unit (lo zero di OC[t] il polinomio nullo O, cio il polinomio LiElllo ziti, con Zi = O per ogni i E N 0 ; l'unit di
OC[t] il polinomio 1, cio il polinomio LiElllo uiti con u 0 = 1 e u 1 =O, per ogni j ;::: 1).

>. p(t) =

e Vp(t) =

L (>. aiW

i E No

La definizione di combinazione lineare di polinomi lasciata al lettore.

= (1 , 3, O),

a2 =(O, 1, 1),

.xi = 2,

a 3 =(O, O, 1),

~ =

(1, 7, -3)

>.2 = -1,

i ai +>. 2 a2 +>. 3 a3 +>.4 ~ = 2 (1, 3, O)+ (-1) (O, 1, 1) +~(O, O, 1) +0 (1 , 7, -3) =


= (2, 6, O)+ (O, -1, -1) +(O, O,

+ Definizione

2.14. Si dice grado gr(p(t)) di un polinomio non nullo p(t) =


aiti il massimo intero r 2:: O tale che ar f= O; ar detto coefficiente principale
di p(t). Se il coefficiente principale uguale a 1, il polinomio si dice manico.
Al polinomio nullo O si attribuisce, convenzionalmente, grado - 1.
Per ogni r ;::: -1, poniamo
LiElllo

allora

) +(O, O, O)= (2, 5, -2).


2

6. L'anello dei polinomi


Nel presente paragrafo, OC indicher un campo.
Una scrittura formale

L
i E lii o

Definiamo inoltre un'operazione : OC x OC[t] -+ OC[t], ponendo, V>. E OC


LiElllo ai ti E OC[t],

Ad esempio, in JR. 3, se

ai

q(t) =

i E lii o

p(t)

Definizione 2.13. Siano ai = (aL .. . , af ), ... , 3.m = (a;., ... , a~) n-ple di
elementi di OC e siano .xi, ... , >. m elementi di OC. Diremo combinazione lineare di
ai, , a..n con coefficienti .xi, ... , .xm la n-pla
.xi. (aL ... ) af) + ... + .xm. (a;,,, ... )a~) =.xi . ai+ ... + .xm. 3.m E

p(t) =

allora:

2: aiti
i E No

con ai E OC per ogni i E N0 , detta polinomio nell'indeterminata t a coefficienti in OC


se :J m E N tale che, per ogni i ;::: m, ai = O. Per ogni i E No, aiti detto monomio
di grado i ed ai detto coefficiente di grado i del polinomio.
Si noti che l'indeterminata t un simbolo astratto e non deve essere considerata un
elemento di OC.

ocr[t] = {p(t) E OC{t]

I gr(p(t)):::; r}.

Evidentemente oc-i[t] ={O}.


..,. Osservazione 2.3. Sia '!/; : OC -+ OC[t] l'applicazione che associa ad ogni a E OC il
polinomio LiElllo uiti definito ponendo uo = a e, per ogni i ;::: 1, Ui = O. Si verifica
facilmente che '!/; un omomorfismo iniettivo dell'anello OC nell'anello OC[t] tale che
Im '!/; = OC0 [t].
Ci consente di identificare, in maniera naturale, ogni a E OC con 'l/;(a) E oc 0 [t] e di
considerare quindi OC come sottoanello di OC[t]. Con tale identificazione, il prodotto di
un elemento a E OC per un polinomio q(t) E OC[t] coincide con il prodotto del polinomio
a E OC 0 [t] per q(t) .
..,. Osservazione 2.4. Per ogni j E No, conveniamo di indicare semplicemente con il
simbolo t1 il polinomio LiElllo viti definito ponendo v1 = 1, e, per ogni i E No - {j},
vi =O. Con tale convenzione, posto ti = t e ricordata l'osservazione precedente, ogni
polinomio
r ;::: O,
i E lii o

combinazione lineare degli r+ 1 polinomi 1, t, t 2 , ... , tr, con coefficienti a0 , ai, a 2 , ..


ar E OC. Si ha cio:

.,

30

2. STRUTTURE ALGEBRICHE

Ad esempio, l'espressione 1 + 2t + t 3

31

(iii) ciascuna delle due operazioni distributiva rispetto all'altra, cio per ogni
a, b, c E A, risulta

t 4 rappresenta il polinomio

7. ALGEBRE DI BOOLE

ai ti E Z[t],

au(bnc) =(aub)n(auc)

i E No

an(buc) =(anb)u(anc)
(iv) Per ogni a E A esiste a' E A (detto complemento di a) tale che

dove ao = 1, a1 = 2, a2 =O, a3 = 1, a4 = -1 e, per ogni j;::: 5, ai= O.


Se p(t) = 1 - 3t 2, q(t) = -1+2t + 3t 2 + 2t3 E Z [t], allora :

a u a'

p(t) + q(t) = 2t + 2t 3 ;
p(t). q(t) = -1+2t + 6t 2 - 3t 3 - 9t 4 - 9t 5 ;
7p(t)=7-21t 2.

=1

a n a'

= O.

Esempio 2.17. Sia A = {O, 1} e siano U, n le operazioni binarie interne su A definite


dalle tabelle seguenti:

11o11

OlfOT1
1lfTTT

Proposizione 2.3. Se p(t), q(t) E JK[t] e a E JK, allora:


(a) gr(p(t) + q(t))::; max{ gr(p(t)), gr(q(t))};
(b) se a-/= O, gr(a p(t)) = gr(p(t)) ;
(c) se p( t) e q( t) sono entrambi non nulli, si ha:

Il o 11

1lfOlT

immediato verificare che (A , U, n) una algebra di Boole, detta algebra di commu-

gr(p(t) q(t)) = gr(p(t)) + gr(q(t)) .


Le dimostrazioni sono semplici verifiche.

o
.... Osservazione 2.5. Dalla Proposizione 2.3 (a) segue subito che ocr[t] un sottogruppo del gruppo abeliano (JK[t], + ).
Inoltre, per la Proposizione 2.3 (b), se a E lK = JK 0 [t] e q(t) E lKr [t], allora
a q(t) E lKr[t].
In generale, per, se p(t), q(t) E ocr[t], con r;::: 1, allora p(t) q(t) E JK 2r [t](si veda la
Proposizione 2.3 (c)). Dunque, per r;::: 1, ocr [t] non un sottoanello di (JK[t], +, ).
.,. Osservazione 2.6. (JK[t], +, ) non un campo. Infatti, se p(t) E JK[t] ha grado
m;::: 1, allora, qualunque sia il polinomio non nullo q(t), per la Proposizione 2.3 (c),
gr (p(t) q(t));::: me quindi p(t) q(t)-/= l. Ci prova che p(t) non invertibile.

tazione o algebra a due valori.


Si noti che, considerando la corrispondenza di O (risp. 1) con Falso (risp. Vero) e
dando alle operazioni U, n il significato logico di disgiunzione e congiunzione rispettivamente , l'algebra di Boole a due valori rappresenta la cosiddetta logica proposizionale, ed
in tale ambiente le tabelle sopra esposte sono dette Tabelle di verit; in questo caso, il
complemento di una proposizione logica coincide con la sua negazione.
La medesima algebra di Boole riveste un'importanza particolare anche nelle applicazioni ,
ad esempio considerando i circuiti elettrici, dando a O (risp. 1) il significato di interruttore
spento (risp. interruttore acceso) ed associando all'operazione U (risp. n) un circuito
con interruttori in parallelo (risp. in serie) . .
Esempio 2.18. Per ogni insieme non vuoto X, indicando con O l'insieme 0 e con 1
l'insieme X stesso, e considerando le operazioni U e n come l'usuale unione e intersezione
insiemistica, la terna (\P(X) , U, n) risulta una algebra di Boole (avente come sostegno
l'insieme 1,p(X) delle parti di X )3 . Nel caso in cui X contenga un solo elemento, tale
algebra di Boole si identifica con l'algebra di Boole a due valori .

7. Algebre di Boole

+Definizione 2.15.

Si dice algebra di Boole una struttura algebrica (A, U, n), dove


A un insieme contenente almeno due elementi e U, n sono due operazioni binarie
interne su A (dette rispettivamente disgiunzione (o OR) e congiunzione (o AND))
che godono delle seguenti propriet:
(i) U e n sono commutative, cio per ogni a, b E A si ha
a u b = bU a

a n b = b n a;

(ii) esistono in A un elemento neutro rispetto a U (indicato con O) ed un elemento


neutro rispetto a n (indicato con 1) , cio per ogni a E A si ha
a U O= a

a n 1 = a;

.,. Osservazione 2. 7. Si not i che negli assiomi che definiscono le algebre di Boole
(Definizione 2.15) possibile intercambiare le operazioni U e n e gli elementi neutri
O e 1 rimanendo all'interno del sistema di assiomi st esso. Ne segue che da ogni
affermazione vera su un'algebra di Boole A , espressa in termini di U, n, O e 1, se ne
pu ottenere un'altra - detta duale della precedente-, pure vera su A, intercambiando
ovunque i simboli U e n ed i simboli O e 1. Tale propriet nota come Principio di
dualit.
3In realt, si dimostra che ogni a lgebra di Boole finita (A, u, n) isomorfa a ll 'algebra di Boole
dei sottoinsiemi di un insieme X; da questo segue che la cardinalit di A esattamente 2n, dove n
la cardinalit di X.

2. STRUTTURE ALGEBRICHE

32

Proposizione 2.4. Sia (A, U, n) un'algebra di Boole. Allora:


aUa=a e ana=a
Va E A,
aU l =l e anO=O
Va E A,
Va, b E A, au(anb)=a e an(aUb)=a

CAPITOLO 3

Dimostrazione. Per il Principio di dualit (Osservazione 2.7), sufficiente provare


soltanto la prima uguaglianza di ogni affermazione. Facendo uso opportunamente
degli assiomi delle algebre di Boole, si ha:
a U a= (a U a) n 1 = (a U a) n (a U a') =a U (a n a')= a U O= a;
a U 1 = 1 n (a U 1) = (a U a') n (a u 1) = a U (a' n 1) = a U a' = 1;
a u (a n b) = (a n 1) u (a n b) =a n (1ub)=an1 =a.

Matrici e determinanti
1. Matrici e loro operazioni

:----::-:--._

Analogamente, facendo uso degli assiomi delle algebre di Boole (Definizione 2.15)
e del Principio di dualit (Osservazione 2. 7), uniti alle propriet contenute nella
Proposizione 2.4, non difficile provare le seguenti affermazioni:

t,..f _!>efinizione 3.1 ia X un insieme e sia (m, n) una: coppia di interi positivi. Si
illce matrice di tipo m x n a coefficienti in X una applicazione A : Nm x !'.in -+ X.
Se m = n, allora A detta matrice quadrata dj ordine n.,

Proposizione 2.5. In ogni algebra di Boole (A, U, n), le operazioni U e n sono


associative:

Indicheremo l'insieme delle matrici di tipo m x n a coefficienti in X con il simbolo


Mmxn(X). Se m = n, l'insieme delle matrici quadrate di ordine n sar indicato con
Mn(X), anzich con Mnxn(X).
Una generica matrice A di Mmxn(X) dunque completamente individuata dagli
m n elementi A(i,j) E X, con i E Nm e j E Nn. Per ogni (i,j) E Nm X Nn, porremo
A(i,j) = a;.(1)
Per ogni fissato i E Nm, la n-pla ai = (ai, a~, ... , a~) E xn sar detta la i- esima riga
di A. Analogamente, per ogni fissato j E Nn, la m-pla a 1 = (a), aJ, ... , aj) E xm
sar detta la j-esima colonna di A.
Se A E Mmxn(X), scriveremo ancora:

Va,b,cEA,

(aub)Uc=aU(buc) e (anb)nc=an(bnc) .

Inoltre:
Va E A, unico l'elemento a' E A tale che
Va,bEA, (aUb)'=a'nb';
Va E A, (a')' = a.

a U a'= 1 e a n a' = O;

+ Definizione

2.16. Sia (A, U, n) una algebra di Boole. Si dice costante in A


ogni simbolo che indica un elemento specificato di A (ad esempio O e 1), mentre
si dice variabile in A ogni simbolo che rappresenta un elemento arbitario di A. Si
dice funzione booleana ogni espressione ottenuta a partire da un numero finito di
elementi di A, combinati mediante le operazioni U e n. Il numero di variabili di una
funzione booleana il numero di variabili distinte che compaiono in essa, supponendo
di identificare ogni elemento con il suo complemento.
'Ifamite le propriet dell'algebra di Boole possibile semplificare espressioni booleane
complesse; in particolare, possibile esprimere ogni funzione booleana come "unione
di intersezioni" contenenti tutte le variabili (forma canonica disgiuntiva) oppure come
"intersezione di unioni" contenenti tutte le variabili (forma canonica congiuntiva) . Ci
riveste una particolare importanza nel caso dell'algebra di Boole a due valori, per le
implicazioni alla semplificazione dei circuiti (elettrici o logici).

A=

al1

al2

ain

a21

a22

a2n

am
1

a2

am
n

o anche, pi semplicemente, A= (a;), qualora sia chiaro dal contesto il tipo di A.


Diremo ancora che a; il generico elemento di A e che gli interi i e j sono rispettivamente l'indice di riga e l'indice di colonna di a;.
Le notazioni precedenti giustificano il termine di matrice con m righe ed n colonne,
spesso usato per "matrice di tipo m x n".

Ad esempio, la matrice
A= (
1 Scriveremo talvolta A(i,j) =

-1

v'3
4

a;j (anzich A(i,j) =a;).

3. MATRICI E DETERMINANTI

34

appartiene a M2 x3(1R); le sue due righe sono le terne a 1 = (2, v'3, -2), a 2 = (-1, 4, O) E
JR 3, mentre le sue tre colonne sono le coppie a 1 = (2,-1), a2 = (v'3,4), a3 = (-2,0) E

JR2.

1. MATRICI E LORO OPERAZIONI

Ad esempio, date

A=(~

Si osservi che ogni matrice di tipo 1 x n (risp. mx 1) si identifica con la n-pla (risp.
con la m-pla) costituita dalla sua unica riga (risp. colonna). Pertanto, l'insieme
M1 xn (X) (risp. Mmxi(X)) si identifica con xn (risp. con xm).

+ Definizione 3.2.

Si dice matrice trasposta di A = (aj) E Mmxn(X) la matrice


tA = (b~) E Mnxm(X) , i cui elementi, per ogni h E Nn e k E Nm, sono definiti come
segue:
k
bhk =ah.

35

-1

v'2

e 4 E JR, si ha:

B=(2+5
3-4

-1 +6
v'2+1

0-2)
l+O

~l

42
4-A = ( 4.3

4. (-1)
4. v'2

40
8
)
=
(
12
41

5
v'2+1
-4 o
4v'2 4

-2
1

La matrice tA si ottiene dunque semplicemente considerando come colonne le righe di


A e viceversa. Si ha pertanto:
... Osservazione 3.1. Le Definizioni 3.4 e 3.5 introducono rispettivamente un'operazione binaria interna

+ : Mmxn(OC)

Ad esempio, la trasposta della matrice


A= (

-2O )

v'3

2
- 1

M2 x3 (1R)

- 1 )
4
E M3x2(1R).

efinizione 3 . . Una matrice quadrata A E Mn(X) detta simmetrica se~


In altre parole, A = ( aj) E Mn (X) simmetrica se, per ogni i, j E Nn, aj = ai.

L'insieme delle matrici simmetriche di ordine n su X sar indicato con Sn(X).


D'ora in poi, considereremo matrici a coefficienti in OC, essendo (OC, +, ) un campo.
Come di consueto, indicheremo con O e 1 lo zero e l'unit di OC.

ate due matrici A = (aj), B = (b;) E Mm xn (OC), si dice


matrice somma di A con B la matrice A-=-''-=Bo---=_ ,..cj)_
::: E Mm xn (OC), dove, per ogni
i E Nm e j E Nn, si ha:

~~one 3 . . Dato_ un elemento a E

OC e una matrice A= (a;) E Mmxn(OC),


a per A la matrice a A = (dj) E Mmxn(OC), dove, per

si dice matrice prodot~di


ogni i E Nm e j E Nn, si ha:

d =a aj.
.:i

f-----t

Mmxn(OC)
A+ B

ed un'operazione

: OC
v'3
-2

Mmxn(OC) --+
(A, B)

la matrice
2

Mmxn(OC) --+
(a, A) f-----t

Mmxn(OC)
a A.

Il concetto di combinazione lineare di matrici appartenenti a Mmxn(OC), in analogia


con la Definizione 2.13, si ottiene applicando pi volte le operazioni precedenti.

Si noti poi che, nel caso particolare delle matrici riga (risp. colonna), tali operazioni
coincidono con quelle gi introdotte nel 5 del Capitolo 2, identificando Mi xn (OC)
(risp. Mmxi(OC)) con ocn (risp. con ocm).
Proposizione 3.1. La struttura algebrica (Mm xn (OC), +) un gruppo abeliano.
Valgono inoltre, per ogni a, (3 E OC e per ogni A, BE Mmxn(OC), le seguenti propriet:
(a) (.a+f3)A=(aA)+(f3A);
(b) a(A+B)=(aA)+(aB);
(e) a ((3 A)= (a(3) A;
(d) l A= A.
Dimostrazione. una semplice verifica.
Si noti comunque che l'elemento neutro rispetto alla somma la "matrice nulla"
O E Mmxn(OC) avente tutti gli elementi uguali a O, mentre l'opposta di A= (a;) la
matrice -A= (-aj) .
D

Introdurremo ora una operazione di prodotto tra matrici che, assieme alla somma,
dar all'insieme delle matrici quadrate di ordine fissato una struttura di anello con
unit.

3. MATRICI E DETERMINANTI

36

Definiamo innanzi tutto prodotto naturale di due n-ple a= (ai, .. . , an), b = (b 1 , ...
bn) E Kn l'elemento

37

1. MATRICI E LORO OPERAZIONI

In ogni caso, anche se (A, B) e (B , A) sono entrambe coppie conformabili, si ha, in


generale, A B =f. B A.

(a, b) =

L akbk E K.

Ad esempio,

k= l

(~

Ad esempio, date

a=

mentre

(3,-1,~),
.

----

(a, b) = 3 1 + (-1) O+

2 v'2 =

3+

~)=(~ ~)

V2
2 .
Proposizione 3.2. Se (A, B) e (B, C) sono coppie conformabili, allora anche
(A B, C) e (A, B C) sono coppie conformabili e si ha:

,
efinizione 3.6. Una coppia (A, B) di matrici a coefficienti in
K detta coniormabile se il urrrero delleColOnn cIT'lJ uguale al 6lu mero delle :ig~ di

BJ -

+Definizione 3. 7. Data una coppia conformabile (A, B), con A= (ai) E Mmxn(K)
e B

o 1
( o o )(~

b = (1, 0, V2) E JR 3 ,

si ha

~)(~ ~)=(~ ~),

(A B) C = A (B C).
Dimostrazione. Supponiamo A E Mm xn(K), BE Mn xp(K), CE Mp x 9 (K); allora

A B E Mm xp,

(bj) E Mnxp(K), si dice prodotto (righe per colonne) di A er B la matrice


A B = (~;l_ E Mmxp(K), il cui generico elemento c; il prodotto naturale della
i-esima riga ai di A per la j-esima colonna bi di B.
In altre parole, per ogni i E Nm e j E Np, si ha:

e dunque la prima parte della proposizione risulta evidente.


B = (b{), C = (c~), il generico elerhento
Inoltre, se A=

(a;),

t,

'i~ (t,a;~)
mentre il generico elemento

Ad esempio, se

si di (A B) C sar

,;,

ti di A (B <?) sar
i

tk

B C E Mnxq

~ aii
= f;:i.

2i bh ckh) .

({-..

Utilizzando la distributivit del prodotto rispetto alla somma in K si prova che


e dunque la proposizione risulta completamente dimostrata.

allora la coppia (A, B) conformabile e si ha :

(a1, b1)
A B =
(a 2, b1)
( (a3, b1)

(a1, b2)
(a2, b2)
(a3, b2)

3 2+v'2 v'2
=

La coppia (B, A) non invece conformabile.

si = ti

Proposizione 3.3. Se (A, B) (risp. (B,A}) una coppia conformabile e C una


matrice dello stesso tipo di B, anche (A, C) e (A, B + C) (risp. (C, A) e (B + C, A))
sono coppie conformabili e si ha:

+ C) = (A B) + (A C)
(risp . (B + C) A= (B A)+ (C A)) .
A (B

Dimostrazione. una semplice verifica (il cui procedimento risulta del tutto analogo
a quello della Proposizione 3.2).
D

... Osservazione 3.2. La conformabilit di (A, B) non implica, in generale, la conformabilit di (B, A) . In effetti, se A E Mmxn(K) e B E Mrxs, allora (A, B)
conformabile se e solo se n = r, mentre (B, A) conformabile se e solo se s = m.

Risultano inoltre di immediata verifica le seguenti propriet relative alle matrici


trasposte.

3. MATRICI E DETERMINANTI

38

+ Definizione 3.10.

Proposizione 3.4.
(a) t(A+B) = tA+ tB;

39

2. L'ANELLO DELLE MATRICI QUADRATE

Una matrice quadrata A

(a;) E Mn(lK) si dice triangolare

alta (risp. bassa) se:

(b) t(a A) =a tA;


(c) se (A, B) una coppia conformabile, allora anche (tB,t A) una coppia
conformabile e si ha:

(risp. (i 2': j)).

(aj -I= O)==> (i~ j)

In altri termini, A triangolare alta (risp. bassa) se tutti gli elementi "al di sotto"
(risp. "al di sopra") della sua diagonale principale sono nulli.
Evidentemente, se A triangolare alta, allora tA triangolare bassa e viceversa.

o
Ad esempio, la matrice

u ~)
o

2. L'anello delle matrici quadrate

A=

Sia Mn(lK) l'insieme delle matrici quadrate di ordine n a coefficienti nel campo JK.

triangolare alta, mentre la matrice

+ Definizione 3.8.

Si dice diagonale principale (risp. secondaria) di una matrice


quadrata A= (aj) E Mn(lK) la n-pla (aL a~, ... , a~) (risp. la n-pla (a~, a;,_1' ... , a!)).

tA =

o
2

o o
1 o
v'3 o

triangolare bassa .

Ad esempio, nella matrice

Una matrice diagonale contemporaneamente triangolare alta e bassa : cos n


sono, in questo esempio, matrici diagonali, mentre diagonale la matrice

U!O

la diagonale principale la terna (3, 1, O), mentre la diagonale secondaria la terna

(-1, 1,5).

A n tA

(aj) E Mn(lK) detta matrice

(a;-/= O)==> (i= j).

Si osservi che tutte le coppie di matrici di Mn (JK) risultano conformabili. In altri


termini, il prodotto tra matrici una operazione binaria interna su Mn(lK).
Si ha inoltre:

In altre parole, A diagonale se gli unici elementi eventualmente non nulli di A


appartengono alla sua diagonale principale.

Proposizione 3.5. La struttura (Mn(lK), +, ) un anello, avente la matrice


identica In quale unit moltiplicativa.

Risulta
utile, ai fini notazionali, introdurre i seguenti simboli 5iJ (indicati anche con
..
8'3 o con 8ij), noti come simboli di K ronecker 2 , definiti, per ogni i E Nm e per ogni
j E Nn, da:
sei-/=j

Dimostrazione. una semplice verifica (si vedano anche le Proposizioni 3.2, 3.3).

Definizione 3.9. Una matrice quadrata A


diagonale se

se

i= j

essendo, come d'uso, O e 1 gli elementi neutri rispettivamente della somma e del
prodotto in JK.
Si dice matrice identica di ordine n su lK la matrice In = (8j) E Mn(lK), cio la
matrice diagonale di ordine n avente ogni elemento della diagonale principale uguale
a 1.
2 Leopold Kronecker: matematico tedesco (Liegnitz, 1823 - Berlino, 1891) .

.,. Osservazione 3.3. Si noti che M 1 (JK) identificabile con lK e che, se n


l'anello Mn(lK) non commutativo.

> 1,

Inoltre, se n ~ 1, nell'anello Mn(lK) non vale la legge di annullamento del prodotto:


una coppia di divisori dello zero in M2(JK) , ad esempio,

Infine, se n

> 1, esistono in Mn(lK) matrici non nulle che non ammettono inversa.

40

3. MATRICI E DETERMINANTI

Ad esempio, la matrice

3. MATRICI RIDOTTE E TRASFORMAZIONI ELEMENTARI

41

Esempio 3.1. Il gruppo ortogonale 0 1(JK) costituito dalle matrici (I) e (-1).
Esempio 3 .2. Analizziamo il gruppo ortogonale 0 2(JR). Se

non invertibile. Infatti, se

X=(~~)

A= (

una generica matrice di M 2(JK), allora

~ ~

) E M2(JR),

si ha A E 02(JR) se e solo se

AX=(~ ~)
non pu mai essere la matrice identica h di M 2(JK).

cio se e solo se valgono le seguenti uguaglianze:

(I)
Le matrici di Mn(lK) invertibili rispetto al prodotto sono dette regolari. L'insieme
delle matrici regolari di Mn(lK) si indica con il simbolo GLn(lK).
Si osservi che, come caso particolare della Proposizione 2.1 (ii), se A, B E GLn(lK),
allora anche A BE GLn(lK) e si ha (A B)- 1 = s- 1 A- 1.
Si ha pertanto:
Teorema 3.6. La struttura algebrica ( GLn(lK), ) un gruppo (non abeliano per
n > 1) detto "gruppo lineare di ordine n su lK ".

(II)

(III)

a 2 + b2 = 1
c2 +d2 =1
ac+bd= O

(I')
(II')

(II I')

a2_+c2=1
b2 +d2 =1
ab+ cd= O.

Come noto, condizione necessaria e sufficiente affinch, nel campo JR, valga (I) {risp.
(II)) che esista uno e un solo cp E [O, 2n[ {risp. 'ljJ E [O, 2n[) tale che:

ab = cos cp
= sencp

(risp.

c=cos'ljJ)
{ d=sen'ljJ

Sostituendo tali espressioni in (II I) si ottiene


cos cp cos 'ljJ + sen cp sen 'ljJ = cos( cp - 'ljJ) = O,

Proposizione 3.7. Se A E GLn(lK) , allora anche tA E GLn(lK) e si ha:


(tA)-1 = t(A-1) .

da cui cp - 'ljJ = n/2 oppure cp - 'ljJ = 3n/2. Poich, per tali valori, anche (I'), (II'),
(II I') risultano soddisfatte, si conclude che:

Dimostrazione. Si ha infatti (Proposizione 3 .4 (e)):


tA. t(A-1) = t(A-1. A)= tin =In e t(A-1). tA = t(A. A-1) = tin =In.

('.) 2(JR)= { (

coscp
-sen cp

sencp )
cos cp

I cp E [O ' 2n[} U { (

coscp
sen cp

sencp )
- cos cp

I cp E [O ' 2n[}.

o
+Definizione 3.11. Una matrice

re~re A si dice ortogonale se~

L'insieme delle matrici ortogonali di ordine n su lK sar indicato con On(lK).


3. Matrici ridotte e trasformazioni elementari

Proposizione 3.8. On(lK) un sottogruppo del gruppo lineare ( GLn(lK), ) .

Dimostrazione. Ricordando la Proposizione 3.4 (c), si ha infatti, per ogni A, B E


On(lK) :
(AB)- 1 =B- 1 A- 1 = ts. tA= t(AB),
(A-1)-1 =A= t(tA) = t(A-1).

o
Il gruppo ( On(lK), ) detto gruppo ortogonale di ordine n su lK.
Proveremo in seguito (Proposizione 3.20) una importante caratterizzazione delle matrici ortogonali.

Il presente paragrafo si riveler di notevole importanza nel successivo 6 e, soprattutto, nel Capitolo 6.

+ Definizione 3.12.

V~rice
= (ai) E Mm ~ n(lK) si dice '(ridotta a gradini 1
(per riga) o anche, pi semplicemente, ridotta se esiste un intero jh, O :::; h < m) tale
che:

(1) se 1 :::; r:::; h, la r-esima riga ardi A contiene un elemento ajr i- O (jr E Nn) ,
mentre tutti i suoi elementi aj aventi indice di colonna j < Jr sono nulli;
inoltre si ha )1 < )2 < < Jhi
(2) se h + 1 :::; r :::; m, la r-esima riga ar di A nulla.

3 . MATRICI E DETERMINANTI

42

43

3. MATRICI RIDOTTE E TRASFORMAZIONI ELEMENTARI

Gli elementi ajr, r E Nh, sono detti[iementi speciali o pivotJdi A, mentre l'intero h
detto (rango~ A.
- Si osservi che se h = O, A necessariamente la matrice nulla.

Teorema 3.9. Ogni matrice A E Mmxn(OC) trasformabile in una matrice ridotta (risp . completamente ridotta) mediante una successione finita di trasformazioni
elementari T1 e T2 (risp. T1, T2 e T3).

Inoltre, la matrice ridotta A si dice completamente ridotta se:

Dimostrazione. Supponiamo che la colonna di indice 11 in A sia la prima contenente


almeno un elemento non nullo; mediante la trasformazione T1 possibile permutare
le righe in modo che tale elemento compaia nella prima riga.
Supponiamo dunque a], =f. O; per ogni indice di riga i > 1, si applichi la seguente
trasformazione elementare T2:

(3) per ogni r E Nh, ajr = 1 e, per ogni i E Nm - {r }, ajr =O.


Si osservi che le condizioni (1) e (2) implicano che:

Vr E Nh, se r < i :::; m, allora ajr

O,

cio che ogni elemento speciale l'ultimo elemento non nullo della colonna cui appartiene. Pertanto, una matrice quadrata ridotta sempre triangolare alta.
Si osservi che la condizione (3) equivale a richiedere che ogni pivot sia uguale a 1 e
costituisca l'unico elemento non nullo della colonna cui appartiene.
Pertanto l'unica matrice quadrata di ordine n completamente ridotta di rango n la
matrice identica In.
Ad esempio, se

A~

o 2 3 -1
o o o 1 3
o o o o 2
o o o o o

e~

( o 5
o o

4
6
-1

)
)

B=

u ),

D~ (

3 4 o o
o o 1 o
o o o 1
o o o o

1 o o
o o o
o o 1

allora:
A ridotta, ma non completamente ridotta;
B completamente ridotta;
quadrata ridotta (e dunque triangolare alta), ma non completamente ridotta;
D non ridotta, ma risulta triangolare alta (anzi, addirittura diagonale) .

[ai~ ai+ ai a 1 ],

essendo ai = -at (a},)- 1 .

Nella matrice A 1 cos ottenuta, i cui elementi, per comodit di notazione, saranno
ancora indicati coi simboli
le prime 11 - 1 colonne sono tuttora nulle ed inoltre,

a;,

a;,

per ogni i > 1,


=O.
.
Si ripeta allora il procedimento sulla matrice ottenuta da A 1 sopprimendo la sua prima riga, osservando che, in tale matrice, la prima colonna avente almeno un elemento
non nullo ha indice )2 > 11
Ripetendo induttivamente tale procedimento si perviene dunque ad una matrice ridotta Ah-l = B = (b;) ; siano b},, ... , bjh i suoi pivot.
Si applichino a B, inizialmente per k = 2 e poi per ogni k fino ad h, le seguenti
trasformazioni elementari T2:
[bi~ bi+ aikbk], con aik

= -b;k (bjk)- 1,

In tal modo si perviene ad una matrice ridotta C i cui pivot sono gli unici elementi
non nulli delle rispettive colonne.
Moltiplicando la riga k-esima, per ogni k E Nh, per l'inverso del pivot in essa contenuto (e, dunque, applicando ad ogni riga una trasformazione elementare T3), si perviene
ad una matrice completamente ridotta D .

Esempio 3.3. Applichiamo il procedimento indicato nella dimostrazione del Teorema 3.9

alla matrice

+ Definizione 3.13.

Si definiscono trasformazioni elementari (di riga) le seguenti


modifiche sulle righe di una matrice AEMmxn (OC) :

T1: scambiare tra loro due differenti righe [ai tt aJ];


T2: sommare ad una riga una differente riga moltiplicata per un elemento di ][{
[ai ~ai +a aJ];
T3: moltiplicare una riga per un elemento non nullo di ][{ [ai ~a. ai].
Si noti che l'applicazione iterata della trasformazione elementare T 2 alla stessa riga
produce la seguente trasformazione:
T~: sommare ad una riga una combinazione lineare di righe differenti [ai ~
.
"
'
a'+
~l#i

a1al ].

per ogni i E Nk-1

o
3

-2

-2

Nella prima colonna di A si ha a~ = O, mentre af = 1 =/:- O; applichiamo quindi ad A una


trasformazione elementare T 1 scambiando fra loro la prima e la seconda riga.
Partendo dalla matrice A cos ottenuta, attraverso la seguente successione di trasformazioni elementari T2 , si perviene alle matrici ridotte B e C (secondo le notazioni della
dimostrazione del Teorema 3.9) :

-A=

(~

3
-2

2
1 )

-2

-2 -2
2 -8

44
a3

a3 +

~a2

a4

a4 -

~a2

~B~u

o
3

A,~

o
3

o
o

o -2
o o
al

a2

a3

3.
3

o
-2
-8

al~

21

2
1
2/3
-14/3

C=

a3 + ...!..a4
11

a3

a4

la2
3
_la3
2

-.l..a4
22

A3 =

o o
o 3 o
o o -2
o o o

o o
o
o -2
o o

o
o
o
-22/3

3
1
2/3
-22/3

)~

C si giunge infine a una matrice

o o o
o 1 o o
o o 1 o
o o o 1
1

D=

4. PERMUTAZIONI

45

+ Definizione 3.15. Per ogni n E N, indicheremo con il simbolo n! (che si legge n


fattoriale) il prodotto dei primi n numeri naturali. Cio
n!=n(n-1) 21

al+ la3
2

Applicando le seguenti trasformazioni elementari T3 su


completamente ridotta D
a2

a 4 ~ a 4 -4a3

2/3
-22/3
al + J1...a4
22
a2 + .l..a4
22

MATRICI E DETERMINANTI

evidente che tutte le considerazioni del presente paragrafo continuano a valere


scambiando il ruolo delle righe con quello delle colonne. In particolare, possibile
introdurre le nozioni di matrice (completamente) ridotta per colonna e di trasformazioni elementari di colonna; per esse vale un risultato analogo al Teorema 3.9. Si
noti inoltre che una matrice quadrata ridotta per colonna sempre triangolare bassa.

Porremo poi, convenzionalmente, O! = l.


Teorema 3.10. Il numero delle permutazioni su n oggetti (n

+ -eflnizi~.4:) Sia n un numero naturale. Diremo permutazione o sostituzione


su n oggetti ogni applicazione biunivoca p: Nn-+ Nn.
Indicheremo con 6n (anzich con 6(Nn), come nell'Esempio 2.6) l'insieme delle permutazioni su n oggetti.
Si osservi che, come caso particolare dell'Esempio 2.6 bis, la struttura algebrica (6n, o)
un gruppo, non abeliano se n ;::=: 3.
Ogni permutazione p E 6n si rappresenta usualmente, in modo esplicito, come
n-pla (p1,P2, ... ,pn) di elementi distinti di Nn, dove Pi = p(i) indica l'immagine
dell'elemento i .E Nn, mediante p.

l} n!.

Dimostrazione. Applichiamo il Principio d'induzione (pag. 8).


Per n = , il numero delle permutazioni di 6 1 evidentemente 1! = l.
Supponiamo quindi che, per n E N, n ;::=: 2, il numero delle permutazioni di 6n-l sia
(n - 1)! e proviamo che il numero delle permutazioni di 6n n!.
A tale scopo, osserviamo che, per ogni fissato k E Nn, l'insieme
l(k) = {p =(pi, ... ,pn) E 6n I Pk. = n}

in corrispondenza biunivoca (e quindi equipotente) con 6n-l Quindi il numero di


elementi di l(k) (n - 1)!.
Poich
6n = 1(1) U 1(2) U U l(n)
ed essendo tali insiemi a due a due disgiunti, si pu concludere che il numero di elementi di 6n effettivamente n (n - 1)!, cio n!.
D

+ Definizione 3.16. Sia p E 6n ed l;E = {(i,j) E Nn x Nn I i < j} . Una coppia


(i,j) E l;E detta in inversione risn to . p s p(i ) p(j).
Il numero delle coppie in inversione rispett.o a p sar indicato con (p) .
+Definizione 3.17. Fissato un campo lK ed una permutazione p E 6n, si dice segno
~(in IK) l'elemento signp = (-l)(p) E {1, -1} K 3.
Sia, ad esempio, p = (6, 8, 1, 7, 5, 3, 4, 2) E 6

4. !Per utazion!J

;::=:

8;

l'insieme delle coppie in inversione di p :

{(1, 3), (1, 5), (1, 6), (1, 7), (1, 8), (2, 3), (2, 4), (2, 5), (2, 6), (2, 7), (2, 8),
(4,5), (4,6), (4, 7), (4,8), (5,6) , (5, 7), (5,8), (6,8), (7,8)}.
Pertanto si ha (p) = 20, signp = (-1) 20 = l.

+ Definizione 3.18. Una permutazione t = th,k E 6n (n ;::=: 2) detta trasposizione


o scambio (di indici h, k E Nn, h of. k) se t(h) = k, t(k) = h e t(i) = i, per ogni
i E n - {h, k}.
In altre parole, th,k "scambia tra loro h e k" lasciando fissi tutti gli altri elementi di
Nn.
3Si osservi che signp vale 1 E IK, se (p) pari, mentre vale -1 E IK, se (p) dispari. Nel caso
particolare in cui il campo lK abbia caratteristica due, poi, si ha ovviamente signp .== 1 E IK, \/p E 6n.

46

3. MATRICI E DETERMINANTI

Proposizione 3.11. (a) Se Idn indica la permutazione identica di 6n, allora


sign Id n = 1.
(b) Se p E 6n una qualsiasi permutazione e t E 6n una qualsiasi trasposizione,
allora sign (po t) = - signp . In particolare, si ha sign t = -1.
Dimostrazione. (a) Basta osservare che Id n. non ha coppie in inversione.
(b) Proviamo direttamente che sign (pot) = - signp. Ponendo poi p = Idn , si ottiene,
come caso particolare, che

5. DETERMINANTE DI UNA MATRICE QUADRATA

(ii) Per
signp =
dispari)
sia di r
(-lY =

la Proposizione 3.11 (b) e per il punto (i) del presente Teorema, si ha che
1 (risp. signp = -1) se e solo se p prodotto di un numero pari (risp.
di trasposizioni. Ci prova che, se p pu essere espresso come prodotto
trasposizioni che di s trasposizioni, allora r e s hanno la stessa parit e
(-1) 8 = signp.
D

Se, ad esempio, p ancora la permutazione (6, 8, 1, 7, 5, 3, 4, 2) E 6 8, allora, procedendo


come nella precedente dimostrazione, si ha :

sign t = sign ( Id n o t) = - sign Id n = -1.


Supponiamo dapprima t = tr,r+1, con r E Nn-1 In tal caso, se

h1=1,
h2 = 2,
hJ = 3,
h4 = 4,

allora
PO tr,r+l = (p1, 1Pr+l1Pr1 1Pn)
Sia (i , j) E 1;;: : si attribuisce segno + 1 o -1 alla coppia (i, j), a seconda che essa sia
o no in inversione.
Nel passaggio da p a potr,r+I, ci sono un numero dispari di coppie che cambiano segno:
infatti, oltre alla coppia (r, r + 1), cambiano segno, per ogni i < r (risp. i > r + 1) tale
che min{p(r ), p(r + 1)} < p( i) < max{p(r ), p(r + 1)}, tutte le coppie (i, r ), (i , r + 1)
(risp. (r, i), (r + 1, i)). Quindi

(po tr,r+I) = (p) 1

Se ora t

47

k1=3;
k2 = 8;
kJ = 6;
k4 = 7;

pot1,J
po t1,J
po t1,J
po t1,3

= (1,8,6, 7,5 ,3,4,2)


o t2,8 = (1, 2, 6, 7, 5, 3, 4, 8)
o t2,8 o tJ,6 = (1 , 2., 3, 7, 5, 6, 4, 8)
o t2,s o tJ,6 o t4,1 = Id 8

Si ha allora
p = t4,7 o t3,6 o t2,8 o t1,3

Si osservi che anche possibile ottenere p come segue:


p = t6,7 o t4,7 o t1,4 o t3,4 o t4,6 o t2,8

Questo conferma che signp = (-1) 4 = (-1)6 = l.

sign (po tr,r+I) = - signp.

th,k, con h < k, si ha:

. th ,k = th ,h+l o th+l ,h+2 o . .. o tk - 2,k-l o tk- 1,k o tk- 2,k-l o ... o th+l,h+2 o th,h+l

Quindi

Corollario 3.13. Se p, q E 6n, allora:


sign(poth,k) = (-1) 2(k- h-l)+l signp = -signp.
D

Teorema 3.12. (i) Ogni permutazione p E 6n (n 2: 2) prodotto di trasposizioni.


(ii) Se p E 6n prodotto di m trasposizioni, allora signp = (-l)m. Quindi, se p
esprimibile sia come prodotto di r trasposizioni che come prodotto di s trasposizioni,
allora r e s sono entrambi pari (se signp = l) oppure entrambi dispari (se signp =

-l) .
Dimostrazione. (i) Sia p = (p 1, ... , pn) E 6n. Dal momento che, data comunque una
trasposizione t;,j E 6n, si ha t;,j o t; ,j = Id n, possiamo supporre p =/=- Id n Sia allora
h1 il minimo intero per cui Ph 1 =/=- h1 (1 :::; h1 :::; n- l) . Se h1 = n- l , allora p = tn-1,n
una trasposizione ed il risultato banalmente vero.
Se, invece, h 1 < n - 1, sia k 1 l'intero tale che Pk, = h1 (h1 + 1 :::; k1 :::; n). Allora la
permutazione p' = po th 1 ,k1 tale che p~ =i , per 1 :::; i:::; h1 .
Un numero finito di passi analoghi prova che esistono (h 1 , k1) , ... , (hm , km) E 1;;: , tali
che

Ci implica che

(i) sign(poq) = (signp) (signq) .


(ii) signp = sign(p-1) .
Dimostrazione. (i) Se p esprimibile come prodotto di r trasposizioni e q come
prodotto di s trasposizioni, allora po q prodotto di r + s trasposizioni. Quindi

sign(poq) = (-1y+s = (-lY (-1) 8 = signp signq.

(ii) Dapp- 1 = Idn segue


1 = sign (Id n) = sign (po p- 1) = signp sign (p- 1),
che prova l'asserto.
D

5. Determinante di una matrice quadrata

Sia IK un campo e sia Mn(IK) l'insieme delle matrici quadrate di ordine n a coefficienti
in lK.

3. MATRICI E DETERMINANTI

48

5. DETERMINANTE DI UNA MATRICE QUADRATA

+ Definizione 3.19.

Se A = (a;) E Mn(OC), si dice determinante di A, e si indica


con detA o con IA I, l'elemento

signp a~(l) a~( 2 )

Ad esemp;o,

a;(n) E OC,

p E6n

dove signp indica il segno della permutazione p in OC.


La definizione 3.19 introduce dunque una applicazione det: Mn(OC) --+ OC.
Si osservi che, prescindendo dal segno, il determinante di A la somma di tutti i
prodotti ottenibili estraendo n elementi da A in modo che tra essi figuri un solo
elemento di ciascuna riga e ciascuna colonna.

"' A~ ( ~I ~

2)
3

49

, allora A'=

(3

0..2 3 ,, 0)
-' , 2;3 "} 1 2
1 - 5X.o,'( 1"'- 5

e quindi :
det A = 3 2 O+ O 3 1 + 2 ( -1) 5 - 2 2 1 - 3 3 5 - O ( -1) O
= o+ o - 10 - 4 - 45 - o = -59.

Proposizione 3.14. P er ogni A E Mn(OC) , si ha:

detA = det(tA).
Dimostrazione. Basta provare che, per ogni A = (a;) E Mn(OC), si ha:

Esempio 3.4.

(a) Se n = 1, allora A= (a) e dunque detA =a.


(b) Se n = 2, poich 6 2 contiene due soli elementi (l 'identit Id 2 e la trasposizione
ti,2), si ha :
det A = a 11 a 22 - a 21 a 21 .
In altri termini , il determinante di una matrice quadrata di ordine due si ottiene
sottraendo dal prodotto degli elementi della diagonale principale il prodotto degli
elementi della diagonale secondaria .
Ad esempio, se A= (

(c) Se

~l

; ).allora detA=17-3(-1)=10.

n = 3, si ha

6 3 = { ld 3 = (1, 2, 3), (2, 3, 1) , (3, 1, 2), (3, 2, 1), (1, 3, 2), (2, 1, 3)}
dove le prime tre permutazioni sono di classe pari mentre le ultime tre sono di
classe dispari .
Pertanto si ha :
1 2 3
1 2 3
1 2 3
1 2 3
1 2 3
1 2 3
)
d et A = a 1 a 2 a 3 + a 2 a 3a 1 + a 3 a 1 a 2 - a3a 2 a 1 - a 1 a3a 2 - a 2 a 1 a3 .
Si usa spesso, per ricordare i sei addendi dei determ inanti di ordine tre, la
seguente regola di Sarrus4 : costruita la matrice A' aggiungendo alla destra di A
le prime due colonne di A stessa, il determinante di A si ottiene come somma
algebrica dei prodotti degli elementi della diagonale principale di A e delle sue
due parallele in A' (col segno positivo) e dei prodotti della diagonale secondaria
di A e delle sue due parallele in A' (col segno negativo), cos come indicato nel
seguente schema :

A'=

("l ""
ai

a31

a~
a~

al
1

al
3

al
2

X
a2
3

X
/

a~

/
ai

X
ar

""

al
a~

""
"" + ""

signp af(l) . a~( 2 )

.... .

a~(n).

pE6n

Il risultato si ottiene essenzialmente dalla commutativit del prodotto in OC, riordinando gli elementi di ogni addendo di det A per colonna, anzich per riga.

o
Esaminiamo ora alcune notevoli propriet del determinante di una matrice A E
Mn(OC) .
Con il termine linea intenderemo indifferentemente una riga o una colonna di A;
qualora una stessa propriet coinvolga pi linee, intenderemo che queste siano contemporaneamente tutte righe o tutte colonne.
Dimostreremo tali propriet relativamente alle righe; la validit delle analoghe propriet relative alla colonne immediata conseguenza della Proposizione 3.14.

,) "?:

C:1

c).o~

Propriet I. Se A E Mn(OC) contiene una linea nulla, allora detA =O.


Dimostrazione. Se A= (a;) ha la k-esima riga nulla, allora, per ogni j E Nn, aj =O.
Dunque ogni addendo nello sviluppo di det A nullo.

o
Propriet II. 5 Se B la matrice ottenuta scambiando tra loro due linee della matrice
A E Mn(OC) (cio mediante una trasformazione elem entare T1 di riga o di colonna),
si ha:

det B = -detA.
Dimostrazione. Supponiamo che B si ottenga da A = (a~) scambiando la sua h-esima
riga con la k-esima (h < k). Si ha pertanto, posto B = (b~), per ogni j E Nn, bj = aj,
lM
{h , k} , bii =ai.
i
bik =aih e, per ogm i E 1'1n
Allora, ricordando che, se p E 6n, signp = - sign (po th,k) (Proposizione 3.11 (b)),

a~

4 Pierre-Frdric Sarrus: matematico francese (St. Affrique, 1798-1861) .

det A=

+
5Si noti che, nel caso in cui il campo lK abbia caratteristica 2, essendo +l = -1, questa proprieta
si traduce nella invarianza del determinante rispetto allo scambio di linee.

3 . MATRICI E DETERMINANTI

50

ed osservando che {p' =po th,k Ip E 6n}

det B

5. DETERMINANTE DI UNA MATRICE QUADRATA

51

= 6n, si ha:
Ad esempio, se:

signp b;(l) b;(h) b;(k) b;(n)

2 4)

pE6n

s1gnp ap(l)

ap(h) ap(k) ap(n)

ap(k) ap(h) ap(n)

2
5

poich (6, 2, 4)
s1gnp ap(I)

= 2(3, 1, 2),

3
6

ed A 1 =

(3
- 1
1

1
2

si ha det A = 2 det A 1.

pE6n

L: (- sign (po th ,k)). a;oth.k(l) a;oth ,k(h) a;oth ,k(k) a;oth .k(n)
pE6n

'"' '
~

1
s1gnp ap'(l)

Propriet IV". Se una linea di una matrice A E M n (OC) la somma di due n-ple e
A1 (risp. A2) denota la matrice ottenuta da A sostituendo a tale linea la prima (risp .
la seconda) n-pla, si ha:
det A = det A 1 + det A 2.

h
k
n
ap'(h)
ap'(k)
ap'(n)
-- - detA

p'E6n

Propriet III. Se A E Mn (JK) contiene due linee uguali, allora det A

Dimostrazione. Supponiamo che, posto A= (aj), A 1 = Wj), A 2 = (cj), si abbia, per


ogni j E Nn, aj = bj + cj, mentre, per ogni i E Nn - {h} , aj = bj = cj. Allora, per
la propriet distributiva del prodotto rispetto alla somma in OC, si ha:

= O.

det A =

Dimostrazione. Scambiando le due linee uguali, si riottiene la matrice A: per la Propriet II si ha quindi det A = - det A. Nel caso in cui il campo lK abbia caratteristica
diversa da 2, questo implica necessariamente det A= O, come affermato dall'enunciato . La Propriet comunque valida per ogni campo JK, ma la dimostrazione nel caso
di un campo a caratteristica 2 esula dagli scopi del presente testo.

signp a;(l)

a;(h) a;(n)

(bhp(h)

p E 6n

_ '"' .

1
s1gnp ap(l)

+ cp(h)
h ) ap(n)
n

pE6n

L
L

signp b;(l ) b;(h ) b;(n )+

p E 6n

Si soliti esprimere la Propriet III dicendo che l'applicazione det : Mn(lK) --+ lK
alternante.
Propriet IV'. Se A la matrice ottenuta moltiplicando una linea della matrice
A 1 E Mn(lK) per un elem ento a E lK (in particolare, per a -=/= O, se A si ottiene da
A 1 mediante una trasformazione elementare T3 di riga o di colonna), si ha:
detA =a detA1.

Dimostrazione. Supponiamo che A si ottenga moltiplicando la h-esima riga di A1


per l'elemento a E JK; si ha pertanto, posto A= (a;) e A1 = (b;), per ogni j E Nn,
aj =a bj, mentre, per ogni i E Nn - {h}, aj = b;. Allora:

'"'"
'"' .
~

det A =

1
s1gnp ap(l)

= a

c;(h) c;(n) =

det A1 + det A2.

o
)

Ad esempio, se:

A ~ ( ~1 ~

n,

A,~ ( ~1

J
3

n,

A,~ ( ~1

4)

o
1 3

8 6

poich (2, 2, 5) = (2, 1, -3) +(O , 1, 8), si ha det A= det A 1 + det A 2.

h
n
ap(h)
ap(n)

p E 6n

s1gnp blp(l)

signp c;(l)

p E 6n

Propriet V. Se, in una matrice A E Mn(OC) , una linea combinazione lineare di


altre linee di A, si ha det A = O.

a bhp(h) bnp(n) --

signp b;(l) b;(h) b;(n) =a detA1.

pE6n

Dimostrazione. sufficiente provare la propriet nei casi particolari in cui (a) la riga
h-esima di A sia a volte la riga k-esima, (b) la riga h-esima di A sia somma della
riga r-esima e della riga s-esima. La prova, nel caso generale, si ottiene per ripetute
applicazioni di (a) e (b).
(a) Supponiamo quindi che ah= a ak. La matrice B, ottenuta moltiplicando per

53

5. DETERMINANTE DI UNA MATRICE QUADRATA

3. MATRICI E DETERMINANTI

52

Dimostrazione. Identificheremo, per comodit di notazione, ogni matrice con la


n-pla delle sue righe.
Supponiamo dunque che sia A = (a1, ... ,an) = (a;),
B = (b 1 , ... , bn) = (b;), C =A B = (c 1 , . .. , cn) = (c;) .
Per definizione di prodotto righe per colonne, si ha, per ogni i,j E Nn:

a la riga k-esima di A ha due righe uguali e pertanto det B = O (Propriet III). Del
resto, per la Propriet IV', det B = a det A, per cui det A = O.
(b) Supponiamo che ah = ar + a 8 . Indichiamo con A 1 (risp. A2) la matrice otte~uta
da A sostituendo ar ad ah (risp. a 8 ad ah). Ai ed A2 hanno entrambe due nghe
uguali e pertanto (Propriet III) det A 1 = det A2 = O. Del resto, per la Propriet
IV", det A = det A 1 + det A2 per cui det A = O.

cio, per ogni i E Nn:

Ad esempio, se

A~ ( ~7

1
7
5

poich

(-7, 7, 6) = -3. (3, 1, 2)

ci= l:a~bh.
h=l
Si ottiene pertanto:
det e= det(c 1 , c 2, .. . ) cn) = det ( t
h=l

+ 2. (1, 5, 6),

si ha detA =O. Infatti, posto

B,

~(

3 1 2
3 1 2
1 5 6

) 'B,

~(

a~bh, t a~bh, ... )t


h=l

ahbh,) .

h=l

La multilinearit del determinante, applicata alla prima riga di C, prova allora che:

3 1 2
1 5 6
1 5 6

detC= ta1det
k=l

(bk,ta~bh, ... ,tahbh,).


h=l

h=l

Applicando ancora iterativamente tale propriet a partire dalla seconda riga di C fino
alla sua n-esima riga, si ottiene:

dalle Propriet lii e V segue:

detA = -3 detB1 +2 detB2 =O.

det

2::

e=

ad(l) . a~( 2 )

.....

ad(n) . det(bd(l), bd( 2), . . . , bd(n) ),

dEV;_,n

Propriet VI. Se B ottenuta dalla matrice A E Mn(lK) sommando ad una sua


linea una combinazione lineare di altre linee di A {cio se B ottenuta da A mediante
una trasformazione elementare T2 o T~ di riga o di colonna), si ha:

detB

det e=

= detA .

Dimostrazione. Basta provare la propriet nel caso in cui B si ottenga da A sostituendo alla riga ai la riga ai + a ai, con a E lK e i =f. j. Se C indica la matrice ottenuta
da A sostituendo alla riga ai la riga ai, si ha, per la Propriet III, det C = O. Dalle
Propriet IV' e IV" segue allora:
det B = det A

avendo indicato con V~ .n l'insieme delle n-ple di elementi (anche non tutti distinti) di
Nn 7 . Poich dalla Propriet III segue che le n-ple d E V~ n che non sono permutazioni
producono addendi nulli nella sommatoria, si ottiene: '

+ a det C = det A.

2:: a~(l) . a;( 2) .. ... a;(n) . det(bp(l), bP(2), ... , bp(nl).


pE6n

Ricordando la Propriet II, si ha infine:


detC =

a~(l) a;( 2) a;(n) (signp det(b1, b 2, ... , bn))

pE6n

(~
L

i
2 ) ap(n)
n
) det(b 1 , b 2, ... , bn) = detA detB .
s1gnp
ap(l)
ap(
2

pE6n

Concludiamo il paragrafo dimostrando il seguente importante risultato.


Proposizione 3.15. (Teorema di Binet 6 )

Se A, BE Mn(lK), si ha:

det(A B) = detA detB .


7 Gli elementi di V~,n sono detti usualmente "disposizioni con ripetizione di n oggetti a n a n".

6 Jacques Philippe Marie Binet: matematico e astronomo francese (Rennes, 1786 - Parigi, 1856).

Si osservi che 6n

V~,n

3. MATRICI E DETERMINANTI

54

Proposizione 3.16. Il determinante di una matrice triangolare il prodotto degli


elementi della diagonale principale.
Dimostrazione. Ogni permutazione diversa dall'identit produce, nello sviluppo del
determinante di una matrice triangolare, un addendo nullo.
Poich sign(Idn) = 1, si ha quindi: detA =al a~ a~.
D

Data una matrice A= (ai.)


E Mmxn(lK), si dice sottomatrice
1
di tipo h x k (con h :::; m e k :::; n) estratta da A ogni matrice avente per elementi
gli elementi di A appartenenti contemporaneamente ad h righe fissate e a k colonne
fissate. In particolare, si dice minore (di ordine k, con k:::; min{m,n}) di A ogni
sottomatrice quadrata (di ordine k) estratta da A. Nel caso in cui A= (ai) E Mn(lK),
si dice poi minore complementare dell'elemento ai.J la matrice MiJ di ~rdine n - 1
ottenuta da A cancellandone la i-esima riga e la j-esima colonna.
.
Si dice infine complemento algebrico dell'eleme.n to aj in A (con A= (a;) E Mn(lK))
l'elemento
Ai.=
(-l)i+j detMiJ E lK )
.
J
essendo M] il minore complementare di
in A.

a;

= 1.

Si ricordi che il Teorema 3.9 fornisce un metodo algoritmico per trasformare una
qualunque matrice quadrata in una matrice ridotta (e dunque triangolare) mediante
una successione finita di trasformazioni elementari T 1 e T2 . Poich tali trasformazioni,
a meno del segno, lasciano inalterato il determinante della matrice (Propriet II e VI),
la Proposizione 3.16 consente di interpretare tale algoritmo come uno strumento, noto
come metodo di Gauss8 , per il calcolo del determinante di una matrice quadrata.

Ad esempio, considerata la matrice

A=
le matrici
Mi=

Nell'Esempio 3.3 la matrice

A~u

55

+ Definizione 3.20.

6. Calcolo del determinante

Si ha dunque, in particolare: det(In)

6. CALCOLO DEL DETERMINANTE

3
4
-2

-2
2

1
2
4

2
2

-2
2

3
4
-2

!)

(~ ~

B~

1f'L

-2
2

3
3

o -2
o o

2
1
2/3
- 22/3

attraverso una trasformazione elementare T 1 , seguita da una successione di trasformazioni


elementari T2 . Facendo uso del metodo di Gauss, si ottiene dunque:
detA

-detB

= -(13 (-2) (-22/3)) =

).

= (~

M2

!)

sono rispettivamente una sottomatrice di tipo 2 x 3 ed un minore di ordine 2 estratto da


A. Si ha poi:
r ,,.,l"V'(.A
'1.

viene trasformata nella matrice triangolare


3

1
2
4

{'

~ ~ ~fo + 8 -

8) = +8;

+-1(o r--v +-1 - f3)-g


-1 ('&+8-2)~

3 = -(18+6) = -24.
-2

Teorema 3.17. (Teorema di Laplace) Se A= (a;) E Mn(lK), per ogni h E Nn,


si ha
n

-44.

detA = _LaJ Aj = _Lah Ah.


j=l

Si vuole ora descrivere un importante strumento, noto come Teorema di Laplace ,


che consente, in alternativa alla definizione e al metodo di Gauss, di calcolare il
determinante di una matrice quadrata.

i=l

Dimostrazione. Basta provare la prima uguaglianza, la seconda essendo conseguenza


immediata di det A= det(t A).
Fissato arbitrariamente h E Nn, sia Bj, per ogni j E Nn, la matrice ottenuta da A
sostituendo alla h-esima riga di A la n-pla

(O, ... , O, 1, O, ... , O),


8 Karl Priederich Gauss: matematico, fisico ed astronomo tedesco (Brunswick, 1777 - Gottinga,
1855).
9 Pierre-Simon Laplace: matematico ed astronomo francese (Beaumont-en-Auge, 1749 - Parigi,

1827).

J.

in cui l'elemento 1 compare al posto j-esimo. Da


(a~, a~, ... , a~) = a~ (1, O, .. . , O)+ a~ (O, 1, .. . , O)+ + a~ (O, ... , O, 1),

-o)

56

3. MATRICI E DETERMINANTI

applicando ripetutamente le Propriet IV' e IV" alla h-esima riga di A, si ottiene:

57

dell'Esempio 3.3, di cui si gi calcolato il determinante facendo uso del metodo di Gauss.
Lo sviluppo di Laplace secondo la prima riga d allora:

detA =

6. CALCOLO DEL DETERMINANTE

I>J det Bj.

j=l

detA =

Non resta dunque da provare che, per ogni j E Nn, detBj = Aj.
A tale scopo, sia Bj la matrice ottenuta da Bj scambiando consecutivamente ogni
riga, dalla h-esima alla (n - 1)-esima, con la sua successiva, e quindi scambiando
consecutivamente ogni colonna, dalla j-esima alla (n - 1)-esima, con la sua successiva.
La matrice Bj dunque del tipo seguente:

+O

o-

M'J

2
4

3
4
-2

-2

1
2
2

24 +

o
2
4

-2
2

o-

-3

-1

1
2
2

3
4
-2
1
2
2

2
4

o
-2
2

3
4
-2

20 = -44,

dove il calcolo dei determinanti di ordine tre ottenibile ricordando la regola di Sarrus
oppure riapplicando il Teorema di Laplace.

o o... o

aj

essendo Mj il minore MJ' complementare di


in A. Si osservi ora che, se 6~
indica il sottogruppo di 6n costituito dalla permutazioni p E 6n tali che p(n) = n,
l'applicazione che associa ad ogni p E 6~ la sua restrizione ad Nn-l definisce una
biiezione tra 6~ ed 6n-l in cui permutazioni corrispondenti hanno lo stesso segno .
Pertanto, posto Bj =(a:~), poich a:~= 1 e, per ogni s E Nn_ 1, a:~= O, si ottiene:
""'

1 a:p(n-l)
n-1
d et B jI = 'L....,
s1gnp
a:p(l)

n
a:p(n)

pE'5n

p
L s1gn

n-1

a: p ( 1) a:p(n-1) .

l =.

lll> Osservazione 3.4. Il Teorema di Laplace "riduce" il calcolo del determinante


di una matrice quadrata di ordine n al calcolo di n determinanti di ordine n - 1.
Si vuole qui sottolineare come il tentativo di "ottimizzare" il calcolo manuale di un
determinante passi, di solito, attraverso l'applicazione di trasformazioni elementari
nella matrice, unita all'utilizzo mirato del Teorema di Laplace. Una tecnica usuale
consiste nell'ottenere, mediante trasformazioni elementari T1 e T 2 (o TD di riga o di
colonna, una matrice avente una linea nulla eccettuato, eventualmente, un elemento
e nel calcolare poi il determinante tramite lo sviluppo di Laplace secondo tale linea.

pES;_

'""'
L....,

.
1 a:p(n-l)
n-1 = d et M'j = d et Mh
s1gnp
a:p(l)
j .

Ad esempio, data ancora la matrice

Poich Bj ottenuta da Bj operando n - h scambi di righe ed n - j scambi di colonne,


dalla Propriet II del determinante segue che:
detBj = (-l)n-h (-lt-j detBj =
= (-1) 2 n-(h+j) detBj = (-l)h+j detMjh = Aj.

t,aj Aj

(risp.

ta~ A~)

detta sviluppo di Laplace di det A secondo la h-esima riga (risp. colonna).


Sia data, ad esempio, la matrice

A~

o
1
( 2
2

-2

3
4

-2

1
2
4

1
( 2
2

-2
2

3
4
-2

~).

applicando la trasformazione elementare T 2 di colonna [a2 +- a 2

o
La formula

A~

A'~

o o

-6

3
4
-2

1
( 2
2

-14
2

e, sviluppando secondo la prima riga,


detA = detA' = -

1
2
2

-6
-14
2

334]. si ottiene

n
3
4
-2

= -44.

Si vuole dimostrare che le matrici regolari (cio invertibili) sono caratterizzate dal
fatto di avere determinante non nullo. A tal fine, premettiamo il seguente risultato,
noto come II Teorema di Laplace:

3. MATRICI E DETERMINANTI

58

Proposizione 3.18. Per ogni matrice A= (a;) E Mn(IK), se h, k E Nn, h


ha

=f. k,

6. CALCOLO DEL DETERMINANTE

59

si
Ad esempio, la matrice

A= (
Dimostrazione. Sia B = (bj) la matrice ottenuta da A sostituendo alla k-esima riga
di A la sua h-esima riga (dove, per ipotesi, h =f. k); si ha quindi, per ogni j E Nn,
i
l'ln - {k} , bij -- aj.
bkj -- ajh e, per ogm. t. E lM
Per la Propriet III, det B = O. D'altra parte, poich A e B differiscono solo per la
k-esima riga, tra i complementi algebrici degli elementi di t ale riga sussiste la seguente
relazione:

~
-1

o)

-1
O

E M J (JR)

regolare, in quanto det A = 2.


La matrice dei complementi algebrici degli elementi di A

A"= (

~1 ~3 ~)
- 1

-1

e quindi si ha

Pertanto:

1/2 -1/2)
1/2 -1/2 .

'""ah.
Ak = '""bk Bk = detB =O.
~ J
J
~ J
J
j=l
j=l
L'uguaglianza a zero della seconda sommatoria si prova in modo del tutto analogo.

.,.. Osservazione 3.5. I due teoremi di Laplace (Teorema 3.17 e Proposizione 3.18)
possono essere riassunti in un'unica formulazione, nota come Teorema di Laplace
generalizzato:
'v'A = (aj) E Mn(IK)

j=l

i=l

e'v'h,k E Nn, LaJ A; = Lah Aie

(detA) o~.

Teorema 3.19.
1
1
(a) SeAEMn(IK) regolare, allora si ha: detA=f.O e det(A- )=(detA)- .
(b) Se A= (a;) E Mn(IK) tale che detA =f. O, allora A regolare e, posto A"= (Aj),
si ha:
A- 1 = (detA)- 1 t(A").
1 = detin = det(A A-

= detA det(A-

).

Ci prova (a).
(b) Sia A" = (A;) E Mn(IK) la matrice avente per elementi i complementi algebrici
A; di aj in A. Dai due teoremi di Laplace (Teorema 3.17 e Proposizione 3.18) ovvero dal Teorema di Laplace generalizzato contenuto nella Osservazione 3.5 - segue
facilmente, attraverso la definizione di prodotto righe per colonne, che:

Dimostrazione. Prima di tutto, osserviamo che, poich il generico elemento bi.


di A. tA
1
(risp. c; di tA A) dato da:
(risp. cj=(~,aj)),

l'affermazione (b) (risp. (e)) risulta equivalente all'uguaglianza A tA = In (risp.


tA A= In)
Ora, se A E On(IK), allora A regolare e si ha A- 1 = tA (Definizione 3.11), cio
A tA =In = tA A. Dunque (a) implica sia (b) che (e) .
Supponiamo viceversa che valga (b) (risp. (e)) e quindi che si abbia A tA =In (risp.
tA A= In) Dal Teorema di Binet e dalla Proposizione 3.14 segue allora :
(risp. 1 = det In= det(tA A)= det(tA) A = (det A) 2 ).

=f. O, si ha allora

A (det A)- 1 t(A") =In= (det A)- 1 t(A") A


e dunque la tesi.

Proposizione 3.20. Sia A= (a;) E Mn(IK). Le seguenti affermazioni risultano


equivalenti:
(a) A E On(IK);
(b) per ogni i, j E Nn, (ai, ai) = oii;
(c) per ogni i,j E Nn, (ai,aj) = Oij .
Inoltre, nell'ipotesi che una di esse risulti verificata, si ha: det A = l.

1 = detin = det(A tA) = detA det(tA) = (detA) 2

A t(A") = (detA) In= t(A") A.


Nel caso in cui A E Mn(IK) sia tale che det A

Si vuole ora dare, come anticipato nel 2, una importante caratterizzazione delle
matrici ortogonali.

b~=(ai,ai)

Dimostrazione. (a) Se A regolare, per il teorema di Binet, si ha:


1

Dunque detA = 1 e, tenuto conto che, come gi provato, (a) implica sia (b) che (e),
la seconda parte dell'enunciato completamente dimostrata.
Inoltre, per il Teorema 3.19, A regolare e la sua inversa A- 1 data da:
A- 1 = A- 1 . In= A- 1 . (A .t A)= (A- 1 . A). tA =In. tA = tA

r;

60

3. MATRICI E DETERMINANTI

(risp. A- 1 =In A- 1 = (tA A) A- 1 = tA. (A. A- 1 ) = tA. In= tA).


Quindi A E On(OC) e pertanto (b) (risp. (c)) implica (a).

o
CAPITOLO 4
Si soliti enunciare l'affermazione (b) (risp. (c)) di Proposizione 3.20 dicendo che la
somma dei quadrati delle componenti di una riga (risp. colonna) uguale al, mentre
nulla la somma dei prodotti delle componenti di ugual indice di due differenti righe
(risp . colonne).
Si verifichi, come esempio, la validit della Proposizione 3.20 in M 2 (JR.) (Esempio
3.2).

Spazi e sottospazi vettoriali


1. Spazi vettoriali
Sia V un insieme e OC un campo (le cui operazioni ed i cui relativi elementi neutri
saranno indicati rispettivamente con +, O e , 1).
.

+Definizione 4.1. Diremo spazio vettoriale su OC una struttura algebrica (OC, V, EE , O),
costituita da un campo OC, i cui elementi sono detti scalari, da un insieme V, i cui
elementi sono detti vettori, da una operazione binaria interna su V, detta somma di
vettori,
EE:VxV-tV
e da una funzione, detta prodotto di uno scalare per un vettore,

o: oc X V-7 V,
soddisfacente i seguenti assiomi:
(SVl) (V, EE) un gruppo abeliano;
(SV2) V a, (3 E OC, "lv, w E V,
(a) (a.+(3)0v=(a.Ov)EE((30v),
(b) a.O(vEEw)=(a.Ov)EE(a.Ow),
(c) a.0((30v)=(af3)0v,

(d) 10 V=

V.

Uno spazio vettoriale su JR. (risp. su C) sar anche detto spazio vettoriale reale (risp.
complesso).
L'insieme V detto sostegno dello spazio vettoriale.
Per brevit di notazione, converremo di indicare l'operazione di somma di vettori
con lo stesso simbolo + gi usato per denotare la somma di elementi in OC (anzich
col simbolo EE introdotto nella Definizione 4.1), in quanto la natura degli operandi
su cui risultano applicate elimina ogni arbitrariet interpretativa. Analogamente,
indicheremo l'operazione di prodotto di uno scalare per un vettore col simbolo gi
usato per denotare il prodotto di elementi in OC (anzich col simbolo O introdotto nella
Definizione 4.1). Inoltre tale simbolo sar spesso omesso.
L'elemento neutro del gruppo abeliano (V,+) (unico, come provato nella Proposizione
2.1 (i)) detto vettore nullo; esso sar solitamente indicato con O. Il vettore opposto
di un vettore v E V (unico come provato nella Proposizione 2.1 (ii)) sar indicato
con -v.
Nel seguito, con abuso di linguaggio e per brevit di notazioni, indicheremo lo spazio
vettoriale col solo nome del suo sostegno.

62

4. SPAZI E SOTTOSPAZI VETTORIALI

Si osservi, in ogni caso, che lo stesso insieme V pu essere sostegno di differenti spazi
vettoriali, definiti sullo stesso campo lK o anche campi diversi.
La proposizione che segue d alcune utili propriet degli spazi vettoriali, che sono
conseguenza pressoch immediata degli assiomi .
Proposizione 4 .1. Sia V uno spazio vettoriale sul campo lK. Per ogni a, fJ E lK e
per ogni v E V, si ha:

(i) a v =O se e solo se a= O oppure v =O;


(ii) (-a)v = a (-v) = -(av) ;
(iii) se av = fJv e v =/=O, allora a= fJ.
(iv) se au = a v e a=/= O, allora u = v.
Dimostrazione. (i) P er gli assiomi dei campi e degli spazi vettoriali, si ha immediatamente: v =lv= (1 +O)v = lv+Ov = v +Ov = Ov+v. Quindi Ov = v+ (-v) =O,
per ogni v E V.
D a av = av +O = a(v +O)= av + aO segue invece a O = O.
Quindi, se a = O o v = O, allora a v = O.
1
1
Viceversa, se a v = O e a =/= O, allora si h a: v = lv = (a- a)v
a - (a v) =
= a- 1 0 =O. Ci completa la prova di (i).
(ii) Si h a immediatamente:

1. SPAZJ VETTORIALI

63

(a) Se f1 ed f2 hanno la stessa direzione (cio se O , P 1 e P 2 sono allineati) e verso


concorde (cio se P1 e P2 appartengono alla stessa semiretta so di origine O),
allora Q il punto di so avente distanza da O pari ad m 1 + m 2 .

(b) Se f1 ed f2 hanno la stessa direzione, ma verso discorde , allora :


(bl) se m1 = m2, allora Q = O, cio f 1 + f 2 = O;
(b2) se m1 > m2 (rispettivamente, se m2 > m 1), allora f 1 + f 2 ha verso concorde con f1 (rispettivamente con f 2) e lunghezza m 1- m 2 (rispettivamente
m 2 -m1).
(e) Se f1 e f2 non hanno la stessa direzione (cio se O,P1 e P2 non sono allineati) ,
allora f1 + f2 il vettore (O, Q) "diagonale" del parallelogramma di lati f 1 ed
f2 (Figura 4.1) .

f2
fz

Pz

pi

Pz

f1

f1

l
t-

pi

fz

f1 + f2

(a)

a v + (-a)v = (a+ (-a))v = Ov =O,

(bi)

f1 + fz

a v + a (- v) = a(v + (-v)) = a O = O.
Ci prova (ii)
(iii) Se av = fJv, si h a: (a+ (-fJ)) v = a v + (-fJv) = fJv + (-fJv) =O. Essendo
v =/= O p er ipotesi, questo implica (per (i)) che a + (-fJ) = O e cio che a= fJ.
La prova di (iv) del tutto an aloga.

f1

O=Q

Pz

f1 + fz
Q

fz

pI

Pz

f2

f1

pi

f1

(b'.4)

pi

. f1

Esempio 4.1. (Lo spazio dei "vettori applicati") L'esempio forse pi noto di "vettore"
dato da una "freccia" f, cio da una coppia ordinata (O, P) di punti dello "spazio
euclideo elementare" F, intesi come primo e secondo estremo di un segmento.
Una tale freccia f comunemente detta un vettore applicato in O.
Fissato il "punto di applicazione" O, f completamente individuato dal punto P. In
particolare il vettore O = (O, O) detto vettore nullo (applicato in O) .
I vettori applicati sono particolarmente adatti a rappresentare grandezze fisiche (dette,
appunto, "vettoriali"), quali ad esempio, gli spostamenti, le velocit, le accelerazioni, le
forze, caratterizzate da una direzione (quella della retta OP), da un verso (quello da O
a P) e da un numero reale m ~ O, detto modulo o norma o lunghezza (la distanza tra O
e P).
Si osservi che il vettore nullo O l'unico avente lunghezza O e, per convenzione , direzione
e verso arbitrari.
Se ora f 1 =(O, P 1) ed f 2 = (O, P 2) sono due vettori applicati in O ed m 1, m 2 sono le
lunghezze di f 1 ed f 2 rispettivamente, allora la somma f 1 + f 2 , per definizione , il vettore
(O, Q) determinato come segue.

f1 + f2

'

,,

,,

(e)

Pz

Figura 4.1
Se ora a E JR ed f = (O, P) un vettore applicato in O, di lunghezza m, allora il vettore
a f = (O, Q) definito come segue.

(1) Se a= O, allora a f = O.
(2) Se a
(3) Se a

> O,
< O,

allora a f ha stessa direzione, verso concorde con f e lunghezza am .


allora a f ha stessa direzione, verso discorde da f e lunghezza - am.

(Figura 4.2, per a = 2).

64

4 . SPAZI E SOTTOSPAZI VETTORIALI

2. SOTTOSPAZI

65

2. Sottospazi

Definizione 4.2. Sia (IK, V ,+, ) uno spazio vettoriale e W un sottoinsieme non
vuoto di V . Diremo che W linearmente chiuso se, per ogni n E lK e per ogni u ,
wEW,

Q'

2f
-2f

(i)u+wEW,
(ii) nuEW.
Se W linearmente chiuso, allora possibile restringere opportunamente dominio e
codominio delle operazioni definite su V , in modo da ottenere due applicazioni

Figura 4.2

Se indichiamo con F(O) l'insieme dei vettori applicati in O, facile rendersi conto che
la somma prima definita un'operazione binaria interna su F(O) e che (F(O), +)
un gruppo abeliano (solo la propriet associativa richiede un po' di lavoro); l'elemento
neutro del gruppo il vettore O = (O, O) e l'opposto del vettore f = (O, P) il vettore
-f = (O, P'), dove P' il punto simmetrico di P rispetto ad O.
Inoltre il prodotto di un numero reale per un vettore applicato, prima definito, soddisfa le
quattro propriet dell'assioma (SV2) della Definizione 4.1.
In conclusione, la struttura algebrica (JR, F( O),+,) uno spazio vettoriale.
Si osservi che gli assiomi della Definizione 4.1 catturano l'essenza "algebrica" dello spazio
F(O), prescindendo tuttavia dalla nozione di "lunghezza" e da tutti i concetti che ne
derivano. Tali nozioni saranno riprese nel Capitolo 8, in ambito pi generale, dotando gli
spazi vettoriali reali di strutture addizionali .
Esempio 4.2. Il pi piccolo spazio vettoriale (su un arbitrario campo IK) ha per sostegno
un insieme formato da un solo elemento (denotato con O) . Si rammenti che, al contrario,
ogni campo deve contenere almeno i due elementi distinti O e 1 (Osservazione 2.1).
Esempio 4.3. Se (IK, +, ) un campo, allora la quaterna (IK, IK, +, ) uno spazio
vettoriale (in questo caso, le operazioni effettivamente coincidono).
Esempio 4.4. Lo spazio vettoriale !Kn delle n-ple di elementi di lK si ottiene considerando
le operazioni gi definite nel 5 del Capitolo 2. Tale spazio sar anche detto lo spazio
vettoriale standard n-dimensionale sul campo lK.
Esempio 4.5. Lo spazio vettoriale Mmxn(IK) delle matrici di tipo mx n, a coefficienti in lK si ottiene considerando le operazioni definite nel 1 del Capitolo 3.
Si rammenti che, come provato nella Proposizione 3.5, l'insieme Mn(IK) delle matrici quadrate d'ordine n ha pure una struttura di anello con unit (non commutativo se
n ~ 2).

+w : W X W ---+ W,
w : JK X W---+ W .
Con abuso di linguaggio, indicheremo spesso ancora con + e le operazioni sopra
definite.
Definizione 4.3. Sia (IK, V,+,) uno spazio vettoriale e W un sottoinsieme linearmente chiuso di V . Diremo che W un sottospazio vettoriale di V, se (IK, W , +w, w)
uno spazio vettoriale.
Proposizione 4.2. Se (IK, V,+,) uno spazio vettoriale, allora ogni sottoinsieme
linearmente chiuso di V un sottospazio vettoriale di V .

Dimostrazione. Supponiamo che W sia un sottoinsieme linearmente chiuso di V . Per


la propriet (ii) della Definizione 4.2 e per la Proposizione 4. 1 (ii), per ogni w E W,
si ha:
- w=(-l)wEW.
Essendo W chiuso rispetto alla somma di vettori (propriet (i)), immediato verificare che W un sottogruppo (abeliano) di ' (V, +).
Le propriet dell'assioma (SV2) della Definizione 4.1 sono banalmente verificate,
in quanto +w e w sono restrizioni di operazioni che verificano le medesime propriet. Ci prova che (IK, W , +w, w) uno spazio vettoriale, concludendo cos la
dimostrazione.
D

.,.. Osservazione 4.1. Ogni sottospazio vettoriale W di V anche sottogruppo di


(V, +) e pertanto contiene necessariamente il vettore nullo O. Inoltre, {O} il pi
piccolo sottospazio vettoriale di V .
Se, ad esempio, si pone
W1 = {(x,y,z) E IR 3 I z =O},
W 2 = {( x,y,z ) E IR 3 Ix= O,z =O},

W 3 = {(x, y, z) E IR 3 I 2x + y - z = O},
facile provare che W 1, W 2, W 3 sono sottospazi vettoriali dello spazio vettoriale standard IR 3 . Invece, il sottoinsieme {(x,y,z) E IR 3 I z = 1} non linearmente chiuso e
quindi non costituisce un sottospazio vettoriale di JR 3 .

4. SPAZI E S OTTOSPAZI VETTORIALI

66

Esempio 4.6. (Lo spazio vettoriale OC[t] dei polinomi) Sia OC[t] l'insieme dei polinomi
nell'indeterminata t a coefficienti in K
La struttura algebrica (OC, OC[t], +, ) uno spazio vettoriale, dove + indica la somma di
polinom i e il prodotto di uno scalare per un polinomio definiti nel 6 del Capitolo 2.
Fissato r > O, sia ocr [t] il sottoinsieme di OC[t] costituito da tutti i polinomi di grado ~ r ;
risulta immediato verificare che ocr [t] linearmente chiuso e pertanto un sottospazio
vettoriale di OC [t] .
Si rammenti infine che OC[t] possiede una struttura addizionale di anello; ci non vale per
ocr [t], se r ~ 1.

3. SISTEMI DI GENERATORI

67

Proviamo ora che, se W un sott ospazio di V tale che X


L {X) W . A tale scopo, sia
1
U = a x 1 + + QmXm E L(X)

W , allora si ha anche

con ai E OC, Xi E X, per 1 ~ i ~ m. Del rest o x i E W {in quanto X W) e, essendo


W linearment e chiuso, anche aix i E W e, quindi, anche
U

= a 1x 1 + + Qm Xm E W

{in quanto somma di vettori di W) . Ci prova che L(X ) il pi piccolo sot tospazio
di V che contiene X, completando cos la prova della P roposizione 4.3.

3. Sistemi di generatori
Nel presente paragrafo, V indicher sempre uno spazio vettoriale sul campo K

Definizione 4.4. Siano (v 1 , .. . , v m) una m-pla di vettori appartenent i a V e


(>. 1 , . . . , .xm) una m-pla di scalari (m ~ 1) . Diremo combin azione lineare dei vettori
V1, .. . , v m con coefficienti .X 1, .. . , >. m il vettore
V = .X 1v 1 + + mVm
(spesso indicat o con

Definizione 4.6. Sia X V. Se L(X) = V , diremo che X un sistema di


gen eratori per V o che V gen erato da X .
Lo spazio V sar poi detto finitam ente generato se ammette un sist ema fi nito di
generat ori.
Risulta evidente che ogni spazio vettoriale V ammette sempre almeno un sistema di
generatori X ; infatti , bast a porre X = V . Esistono invece spazi vettoriali che n on
sono fi nitamente generati (si veda l'Esempio 4.10) .

:L:Z:, 1 >.iv i )

+Definizione 4 .5.

Dato un sottoinsieme X =f. 0 di V , diremo chiusura lin eare di X


il sottoinsieme L(X ) di V , cost ituit o da tut t i e soli i vettori che sono combinazioni
lineari di vettori di X. Se X= 0, porremo convenzionalmente L(0) ={O} .
Se X = {xi, . . . , Xr} un insieme finito , scriveremo anche L(x1 , . . . , Xr ) invece di
L({x1, . . . , xr}) .
Evidentemente X

..,. Osse rvazione 4.2. Un sot toinsieme X di V un sottospazio vett oriale di V se e


solo se X = L(X ) ovvero, come si usa dire, se X "chiuso rispetto alle combinazioni
lineari".

L(X ) {in quanto 't/x

Proposizione 4 .3. Se X
contenente X .

E X , 1 x = x) . Inoltre:

V , L(X) il pi piccolo sottospazio vettoriale di V

Dimostrazione. Se X = 0, l'assert o ovvio. Supponiamo allora X =f. 0 e proviamo


innanzi tutto che L(X ) un sottospazio vettoriale di V . A t ale scopo, siano
1
U = a x1 + + QmXm ,
V = /3 1Y1 + + /3nYn

Esempio 4.7. Sia F(O) lo spazio vettoriale dei vettori applicati in O, descritto nell' Esempio 4.1. Se P 1 un qualunque punto diverso da O ed f 1 = (O , P 1), allora facile
rendersi conto che L(f1) = {f = (O, P) I f = .Xfi, >. E JR} costituito da tutti e soli
i vettori f = (O , P) tali che P appartiene alla retta OP1. Se ora P2 un punto non
allineato con O e P 1, ed f2 = {O, P 2 ), allora
L(fi, f2) = {f = (O , P) I f = .X 1f1 + >. 2f2, >.1, >. 2 E JR}
costituito da tutti e soli i vettori f = (O , P) tali che P appartiene al piano passante per
O , P1 e P2. Infine, se P3 un punto non complanare con O , P 1 e P2, ed f3 = (O , P3),
allora
L(f1 , f2, f3) = {f = (O , P) I f = .X 1f1 + .X 2f2 + .X 3f3, >. 1) >. 2, >. 3 E JR} = F(O) .
Quindi ogni insieme X F(O) contenente {f1, f 2,f3} un sistema di generatori per
F(O) .

due vett ori di L(X ) {con ai,/3j E OC, x i, Yj E X, per 1 ~i~ m , 1 ~ j ~ n) e sia
>. E K Allor a si ha:
1
1
U + V = a X1 + + QmXm + /3 Y1 + + /3nYn,

Esempio 4.8. Nello spazio vettoriale standard ocn {Esempio 4.4), si considerino gli n
vettori e1 = (1 , O, . .. , O) , e2 = (O, 1, . .. , O) , . .. , en = (O, .. . , O, 1) . Poich ogni n-pla
a = (a 1 ) ... ) an ) di ocn esprimibile come combinazione lineare

>.u = (.Xa 1)x1 + + (>.am )xm .

2: aiei,

Pertanto sia u + v che >.u appartengono a L (X), essendo combinazione lineare di


vett ori di X . Ci prova che L (X ) linearmente chiuso, il che implica, per la P roposizione 4. 2, che L{X ) un sottospazio vettoriale di V .

n
i= l

si ha che l'insieme B = (e1 ) . .. ) en) un sistema di generatori per ocn. Lo spazio ocn
quindi finitamente generato.

4. SPAZI E SOTTOSPAZI VETTORIALI

68

Esempio 4.9. In completa analogia con l'esempio precedente, si considerino, nello spazio
vettoriale Mmxn(lK) (Esempio 4.5), le m n matrici Ej, i E Nm. j E Nn. il cui generico
elemento e~ , per ogni h E Nm. k E Nn. risulta definito nel modo seguente:
h
ek

1 se h = i, k
O altrimenti.

=j

4. DIPENDENZA E INDIPENDENZA LINEARE

La propriet di lineare indipendenza che verr introdotta nel prossimo paragrafo


costituisce, come si vedr in seguito, condizione necessaria e sufficiente per un sistema di generatori X di V affinch la rappresentazione di ogni vettore v E V come
combinazione lineare di vettori di X risulti unica.

Poich ogni matrice A= (aj) E Mmxn esprimibile come combinazione lineare


m

69

4. Dipendenza e indipendenza lineare

LLa}Ej,
i=l j=l

si ha che l'insieme {Ej I i E Nm,J E Nn} un sistema di generatori per Mm xn (lK). Lo


spazio Mm xn(lK) risulta quindi finitamente generato.
Esempio 4.10. Sia JK[t] lo spazio vettoriale dei polinomi nell'indeterminata t a coefficienti
in lK (Esempio 4.6) e sia JKr[t] il sottospazio dei polinomi di grado :::; r con r E No. Come
gi rilevato nell'Osservazione 2.4, ogni polinomio

p(t)

Nel presente paragrafo, come gi nel precedente, V indicher sempre uno spazio
vettoriale sul campo JK.

+ Definizione 4. 7.

Una n-pla (vi, ... , vn) di vettori di V sar d etta linearmente


dipendente se esiste una n-pla ( 1, ... , n) di scalari non tutti nulli, tale che

1
v1

+ + nVn

=O.

In caso contrario, e cio se

aiti E JK[t]

1
( a v1

i E lii o

di grado r ::=: O esprimibile come combinazione lineare degli r + 1 polinomi


t 1 = t, t 2, .. . , tr, con coefficienti ao, a 1, a2, ... , ar E JK. Si ha cio:

1,

p(t) = ao + ait + a2t 2 + artr .


Ci prova che l'insieme X= {tk I k E No} un sistema di generatori (infinito) per JK[t] e
O, l'insieme Xr = {l, t, t 2, ... , tr} un sistema di generatori per ocr[t].
che, per ogni
Quindi /o spazio lKr[t]. per ogni r E N 0 , finitamente generato. Invece, /o spazio JK[t]
non finitamente generato. Infatti, se Y un qualsiasi sottoinsieme finito di JK[t]. detto
r il massimo dei gradi dei polinomi appartenenti ad Y, per la Proposizione 2.3 (a), (b),
si avrebbe L(Y) JKr[t]. Quindi JK[t] non pu essere generato da Y.

r::::

.,.. Osservazione 4.3. Sia X un sistema di generatori per V e sia v un generico

vettore di V; in generale, la "rappresentazione" di v come combinazione lineare di


vettori di X non unica.
Ad esempio, nello spazio vettoriale standard IR. 2, l'insieme X = {(1, O), (O, 1), {l_!. l)}
un sistema di generatori per JR. 2, in quanto contiene il sistema di generatori B =
{(1, O), (O, l)} dell'Esempio 4.8 .
Il vettore (1, 1) pu essere espresso, come combinazione lineare dei tre vettori di X negli
infiniti modi seguenti :

(1, 1) = a(l, O)+ a(O, 1) + (1 - a)(l, 1),

con a E JR..

+ + anvn

=O)

=?

(ai = O, Vi E Nn)

la n-pla (vi, . .. , vn) sar detta linearmente indipendente.

Ad esempio, la coppia ((2, O, O), (1, 1, 1)) di vettori di JR. 3 linearmente indipendente.
Infatti,
1
a (2, O, O)+ a 2(1, 1, 1) = (2a 1 + a 2, a 2 , a 2) =(O, O, O)
implica 2a 1 + a 2 = O e a 2 = O, quindi a 1 = a 2 = O.
Invece
(a) la coppia ((O, O, O), (1, 1, 2)),
(b) la terna ((1/2, 1/2, 1/2), (-1, 3, 1), (-1, 3, 1)),
(c) la quaterna ((1, 1, O), (O, 1, 1), (1 , O, 1) , (3, 2, 3))
sono linearmente dipendenti .
Infatti :

(a) 3 (0,0,0)+0 (1,1,2) = (0,0,0);


(b) 0 (1/2,l/2,l/2)+1 (-1 ,3, l)+(-1) (-1,3,1)=(0,0,0),
(c) 1(1,l,0)+1 (0,l,1)+2(1,0, l)+(-1)(3,2,3)=(0, 0,0) .
""' Osservazione 4.4. Una n-pla (vi, ... , vn) di vettori linearmente dipendente
(risp. linearmente indipendente) se e solo se tali sono fatte le n-ple (vp 1 , . , vPn)

ottenute permutandone le componenti in tutti modi possibili.

Ci giustifica la locuzione "i vettori vi, ... , Vn sono linearmente dipendenti" (rispettivamente, "linearmente indipendenti"), che sar spesso usata come sinonimo di "la
n-pla (v1, .. . , vn) linearmente dipendente" (rispettivamente, "linearmente indipen-

dente") .

4. DIPENDENZA E INDIPENDENZA LINEARE

4 . SPAZI E SOTTOSPAZI VETTORIALI

70

Osservazione 4.5. Nel caso n = 1, ogni "1-pla" pu identificarsi con un singolo


vettore di V . Anche alla luce dell'osservazione precedente, si ha:

11-

un vettore v E V linearmente dipendente se e solo se v =O.


Infatti v linearmente dipendente se e solo se 3 E
(per la Proposizione 4.1 (i)) se e solo se v =O.

li( -

{O} , tale che v = O, cio

71

Osservazione 4.6. Se (vi, ... , vn) una n-pla di vettori distinti di V, allora la
n-pla (v1, ... , vn) linearmente dipendente {rispettivamente, indipendente) se e solo
se l'insieme {v1, ... , vn} linearmente dipendente {rispettivamente, indipendente).
Si osservi per che, se i vettori componenti (v 1, ... , vn) non sono tutti distinti, allora la
propriet precedente pu essere falsa. Ad esempio, se v -j. O, la coppia (v, v) linearmente dipendente (Corollario 4.5 (b)) , mentre l'insieme {v, v} = {v} linearmente
indipendente.

Il>

La seguente proposizione fornisce un utile criterio per riconoscere n-ple linearmente


dipendenti.

Teorema 4.6. Un sottoinsieme X di V linearmente dipendente se e solo se esiste


un vettore x E X tale che x E L(X - {x}) . Inoltre, in tal caso, L(X) = L(X -{x}).

Proposizione 4.4. Dati n vettori v 1, . .. , Vn E V, se m (m < n) di essi sono


linearmente dipendenti, allora gli n vettori sono linearmente dipendenti.

Dimostrazione. Se X = {O}, allora O E L(0) = L( {O} - {O}) . Possiamo quindi


assumere X i- {O}. Supponiamo che esista x E X, tale che

Dimostrazione. Possiamo supporre che siano linearmente dipendenti, per ipotesi, i


primi m vettori v 1, ... , Vm Si ha allora
a 1v1 + + amvm =O,
essendo gli a1, 1 ::::; j ::::; m, non tutti nulli. Ma allora si ha anche
a 1v 1 + + amVm + Ovm+l + + Ovn = O.
con gli a1 non tutti nulli.

Corollario 4.5. Sia (vi, ... , vn) una n-pla di vettori di V (n 2': 2).
(a) Se esiste i E Nn tale che vi = O, allora (vi, ... , vn) linearmente dipendente.
(b) Se esistono i,j E Nn, i i- j, tali che Vi = v 1 , allora (vi, . .. , v n) linearmente dipendente.

Dimostrazione. (a) conseguenza immediata della Proposizione 4.4 e dell'Osservazione 4.5.


Per provare (b), basta osservare che, se v E V, la coppia (v, v) sempre linearmente
dipendente.

i=l
essendo (>.1, . .. , m) una opportuna m-pla di scalari e (x 1, ... , xm) una opportuna
m-pla di vettori di X - {x}, che possiamo supporre distinti.
Ne consegue che
1
X1 + + mXm - X = X - X = 0 ,
cio che la (m+l)-pla (x1, ... , X171 , x) di vettori distinti di X linearmente dipendente.
Ci prova che X linearmente dipendente.
Viceversa, sia X linearmente dipendente. Ci equivale ad affermare l'esistenza di una
n-pla (xi, ... , xn) di vettori distinti di X, e di una n-pla (>. 1, ... , n) di scalari non
tutti nulli, tali che
n

ix;i =O.
i=l
Inoltre, dal momento che X i- {O}, possiamo supporre n 2': 2.
Fissiamo ora un indice j E Nn tale che .>,1 i- O. Si ottiene allora, evidentemente:

(.>,1) -1 ( t i Xi) = t(.>,1)-1 iXi = 0 .


Posto, per ogni i E Nn, ai= (>.1)- 1 >,i, dal momento che a1 = (>.1)- 1 . .>,1=1, si ha:
x1 =

(-ai)xi

iENn -{1}

Le nozioni di lineare dipendenza e indipendenza si estendono facilmente ad insiemi,


anche infiniti, di vettori.

+Definizione 4.8.

Un sottoinsieme X di V detto linearmente dipendente se esiste


una n-pla linearmente dipendente di vettori distinti di X.
In caso contrario, cio se ogni n-pla di vettori distinti di X linearmente indipendente, allora X detto a sua volta linearmente indipendente.
Pertanto l'insieme vuoto pu essere considerato sottoinsieme linearmente indipendente di ogni spazio vettoriale.

essendo evidentemente (x 1, . , X1-1, X1+i, . .. , Xn ) una (n - 1) -p1a d"i ve tt on. d"1


X - {x1 }.
Ci prova che x1 E L(X - {x1} ), completando cos la dimostrazione.

o
Ad esempio, l'insieme {(1 , O), (O, 1), (1, 1)} IR 2 linearmente dipendente, in quanto si
ha: (1, 1) = (1, O)+ (O, 1) E L((l , O), (O, 1)) .

4. SPAZI E SOTTOSPAZI VETTORIALI

72

.,.. Osservazione 4.7. Dal Teorema 4.6 e dalla Osservazione 4.6 segue, tenuto conto
anche del Corollario 4.5 (b), che una coppia (v 1 , v 2 ) di vettori non nulli linearmente
dipendente se e solo se esiste E lK tale che v1 = v2.

Proposizione 4.7. Se X un sottoinsieme linearmente indipendente di V e

v E V - L(X), allora anche X U {v} linearmente indipendente.


Dimostrazione. Supponiamo, per assurdo, che in X U {v} esista una h-pla (v 1, v 2,
. . . , v h) di vettori distinti tale che

5. BASI E DIMENSIONE

73

k-1

=L

(a{ -

(a~ )- 1 a~ a!,.) Wj

E L(w 1, . . . , w k_i) .
j=l
Essendo m - 1 > k - 1, l'ipotesi induttiva prova che {yi, ... , Ym-d linearmente
dipendente. Si ha pertanto:
m-1
riyi =o, con /3 1, .. . , /3m-l non tutti nulli .
i=l

I:

L:aivi =O,
i=l
1
con a , ... , ah E lK non tutti nulli. Per la lineare indipendenza di X, si ha allora v E {vi, ... , vh}i sia, ad esempio, v = v 1. Si ha, in tal caso, a 1 =I- O, perch
altrimenti X risulterebbe linearmente dipendente. Pertanto v esprimibile come
combinazione lineare dei vettori v 2, ... , vh E X e ci assurdo in quanto, per ipotesi,
V~ L(X).
Quindi, X U { v} linearmente indipendente.

m-1
O=

i=l

m-1

/3iYi

/3i

(xi - (a~)- 1 afxm) =

i=l

con

/3 1, .. . , /3m

non tutti nulli.

i=l
Ci prova la lineare dipendenza di X .

o
5. Basi e dimensione
In questo paragrafo, V indicher sempre uno spazio vettoriale sul campo JK.

+ Definizione

Corollario 4.9. Se V ha una base finita costituita da n elementi, allora ogni sottoinsieme linearmente indipendente di V contiene al pi n vettori.

4.9. Si dice base di V un suo sistema di generatori linearmente

indipendente.
Si osservi che l'insieme vuoto

0 l'unica base dello

spazio vettoriale {O} .

Lemma 4.8. Se W un sottospazio vettoriale di V generato da n vettori distinti,


ogni sottoinsieme di W contenente m > n vettori linearmente dipendente.

Dimostrazione. Proveremo il lemma usando il principio d 'induzione su n .


Se n = 1, l'enunciato evidentemente vero.
Supponiamo allora che il lemma valga per n = k - 1.
Sia X= {x1, ... , xm} W = L(w1 . . . , wk), con m > k. Si ha allora:
k

perognii=l , ... ,m

Xi=L:cxlwj.
j =l

Se, per ogni i, a~ = O, allora X L(wi, ... , wk-l) e quindi, per l'ipotesi induttiva,
X linearmente dipendente.
In caso contrario, possiamo supporre a!;.. =f. O. Se si pone, per 1 :::; i :::; m - 1

Yi = Xi si ha:

k )-1
( am

aik Xm,

Teorema 4.10. Sia V uno spazio vettoriale finitamente generato. Allora:


(a) V ammette almeno una base finita.
(b) Tutte le basi di V sono finit e e hanno la stessa cardinalit (cio lo stesso numero
di elementi).

Dimostrazione. (a) Sia X un sistema di generatori finito di V. Se X linearmente


indipendente, allora X una base (finita) di V. Se, invece, X linearmente dipendente, per il Teorema 4.6 si pu eliminare un suo vettore lasciando inalterata la sua
chiusura lineare. Poich X finito , ragionando induttivamente si perviene, attraverso
l'eliminazione successiva di opportuni elementi di X, ad una base (finita) di V.
Se B una base finita di V allora, per il Corollario 4.9, ogni altra base di V finita.
(b) Siano B e B due basi finite di V, di cardinalit ne m rispettivamente. Essendo
B una base e B un sottoinsieme linearmente indipendente, il Corollario 4.9 prova che
m :::; n. Del resto, invertendo i ruoli di B e B, si ottiene n :::; m e quindi n = m.

Definizione 4.10. Se V uno spazio vettoriale finitamente generato , diremo


dimensione di V il numero di elementi di una sua qualunque base B. Se B ha n
elementi, diremo quindi che V ha dimensione (finita) n e scriveremo dim V = n.
Si osservi che dim {O} = O.

4. SPAZI E SOTTOSPAZI VETTORIALI

74

Esempio 4.7 bis. Nello spazio vettoriale F(O) dei vettori applicati in O il sistema di
generatori {f1, f 2 , f 3 } costruito nell'Esempio 4.7 , come facile verificare, linearmente
indipendente e costiuisce quindi una base di F(O). Si ha pertanto:
dimF(O)

= 3.

Esempio 4.8 bis. Nello spazio vettoriale standard ocn' il sistema di generatori B
{ei, ... , en} costruito nell'Esempio 4.8 , come facile verificare, linearmente indipendente e costiuisce quindi una base di ocn. Si ha pertanto:
dimlKn

= n.

Esempio 4.9 bis. In completa analogia con l'esempio precedente, nello spazio vettoriale
Mmxn(lK), il sistema di generatori {Ej I i E Nm,j E Nn} costruito nell'Esempio 4.9
linearmente indipendente e costituisce quindi una base di Mmxn(lK). Si ha pertanto:
dimMmxn(lK)

= m n.

6. COMPONENTI DI UN VETTORE

75

Proposizione 4.12. (Teorema del completamento a una base) Sia V uno


spazio vettoriale avente dimensione finita n e sia X un sottoinsieme linearmente
indipendente di V, avente cardinalit h < n. Allora esiste sempre un sottoinsieme
X' di V avente cardinalit n - h e tale che X U X' una base di V .
Dimostrazione. Poich h < n, per il Teorema 4.11 (b), si ha V - L(X) =j:. 0. Esiste
quindi V1 E V - L(X) e dunque per la Proposizione 4.7, X U {v 1} un sottoinsieme
linearmente indipendente di cardinalit h + l.
Induttivamente, supposto costruito il sottoinsieme X U {vi, . . . , Vj} linearmente indipendente, se h + j < n, allora esiste v j+l E V - L(X U {v 1, . . . , v j}) e quindi
l'insieme X U {v 1, ... , Vj+i} linearmente indipendente e ha cardinalit h + j + l.
Si costruisce in tal modo, per induzione e in modo non univoco, un insieme X' =
{v1, ... , v n-h} tale che X U X' un sottoinsieme linearmente indipendente di cardinalit n. Il Teorema 4.11 (a) prova allora che X U X' una base di V.

o
La base X U X' si dice ottenuta completando X.

Esempio 4.10 bis. Per ogni r E N0 , il sistema di generatori Xr = {l, t, t 2 , ... , tr} del
sottospazio vettoriale ocr[t]. linearmente indipendente e costituisce quindi una base di
ocr[t]. Si ha pertanto:
dimlKr[t] = r + l.
Si noti che JK[t], non essendo finitamente generato, non ammette una base finita.

6. Componenti di un vettore

Nel presente paragrafo, vn indicher sempre uno spazio vettoriale di dimensione finita
n sul campo lK. Supporremo inoltre n >O, cio yn =j:. {O} .

Teorema 4.11. Sia V uno spazio vettoriale di dimensione finita n. Allora:


(a) ogni sottoinsieme linearmente indipendente di V ha cardinalit h ~ n ed
una base di V se e solo se h = n;
(b) ogni sistema di generatori per V ha cardinalit k 2 n ed una base di V se
e solo se k = n.
Dimostrazione. Poich V ha dimensione finita n, ogni base di V ha cardinalit n.
(a) Tenuto conto del Corollario 4.9, basta provare che, se X un sottoinsieme linearmente indipendente di cardinalit n, allora X una base di V.
A tale scopo, supponiamo, per assurdo, che X non sia un sistema di generatori per
V, cio V - L(X) =j:. 0. Se v E V - L(X), allora, per la Proposizione 4.7, X U {v}
un sottoinsieme linearmente indipendente di cardinalit n + 1 e ci impossibile per
il Corollario 4.9. Quindi X una base di V.
(a) Sia S un sistema di generatori per V, avente cardinalit k.
Se fosse k < n, S conterrebbe una base di V avente cardinalit s ~ k < n e c10 e
assurdo per il Teorema 4.10 (b). Quindi k 2 ne, se S una base, k = n.
Resta da provare che, se k = n, allora S una base. Ci ancora conseguenza del
Teorema 4.10 (b), dal momento che, se S fosse linearmente dipendente, S conterrebbe
una base di V avente cardinalit s < n.

Definizione 4.11. Diremo base ordinata di yn una n-pla B = (e 1, ... , en) di


vettori di vn, tale che l'insieme B = {e 1, ... , en} sia una base di vn .
Si osservi che, per il Teorema 4.11 (a), ogni n-pla linearmente indipendente di vettori
di vn una base ordinata.
Evidentemente ad ogni base B = {e1, ... , en} sono associate n! basi ordinate Bp =
(ep(l)> .. . , ep(n)) (una per ogni permutazione p E 6n)
Sia ora B = (e1, ... , en) una base (ordinata) di vn e sia V E vn. Essendo L( e1' . .. '
en) = yn, il vettore v combinazione lineare dei vettori e 1, ... , en: esiste pertanto
una n-pla (v 1, ... , vn) di scalari, tale che
n

v= Lviei.
i=l

Proveremo ora che, per la lineare indipendenza di B, la n-pla (v 1, ... , vn) univocamente determinata da v (e da B) .
Proposizione 4.13. Sia (e 1, ... , em) una m-pla di vettori linearmente indipendenti
di yn . Se (>. 1 , ... , m) e ( 1 , ... , m) sono due m-ple di scalari tali che
m

(4 .1)

Ljej = Ljej,
j=l
j=l

.76

4. SPAZI E SOTTOSPAZI VETTORIALI

7. SOMMA E INTERSEZIONE DI SOTTOSPAZI

Dimostrazione. Dalla relazione (4.1), sommando ad ambo i membri l'opposto del


secondo membro, si ottiene immediatamente:

77

7. Somma e intersezione di sottospazi

Nel presente paragrafo, V indicher sempre uno spazio vettoriale sul campo OC, con
V =J {O}.

L(i - i)ei =O.


j=l

Essendo la m-pla (e 1, ... , em) linearmente indipendente, questo implica che, per
1 ~ j ~ m, ,\i - i = O, e cio che ,\i = i.

Proposizione 4.15. Sia V uno spazio vettoriale di dimensione finita n e W un


suo sottospazio vettoriale. Allora W ha dimensione finita m ~ n. Inoltre:

Corollario 4.14. Sia B = (e 1, ... , en) una base ordinata di vn. Allora, per ogni
vettore v E vn, esiste una ed una sola n-pla (v 1 , . . . , vn) di scalari, tale che:
n

v = l:viei.
i=l

+Definizione 4.12.

Con le notazioni del Corollario 4.14, diremo che (v 1, ... , vn) E


ocn la n-pla delle componenti o coordinate del vettore V E yn, rispetto alla base
{ordinata) Be scriveremo v =13 (v 1, ... , vn ).
Diremo anche che lo scalare vi la i-esima componente o coordinata di v rispetto alla
base (ordinata) B.
Esempio 4.8 ter. (La base naturale di ocn). Nello spazio vettoriale standard ocn, la base
ordinata B = (e1, ... 'en). associata alla base B = {e1, ... 'en} costruita nell'Esempio
4.8 (e 4.8 bis), l'unica base di ocn che gode della seguente propriet:
( a 1 , ... , a n) .
a =B
Per tale motivo,

B sar

detta base naturale o base canonica di ocn.

~ Osservazione 4.8. Se B = (e 1, ... ,en) una base ordinata di v n, allora, per


ogni i E Nn, la n-pla delle componenti del vettore ei rispetto a B l'i-esimo vettore
ei della base naturale 8 di ocn.
Si ha cio, per ogni i E Nn:

ei

=B

(O, ... , O, 1, O, ... , O).


i

=B

Dimostrazione. Una base di W un sottoinsieme linearmente indipendente di V e


pertanto contiene al pi n elementi (Corollario 4.9) .
Se poi dim W =O, allora necessariamente W = L(0) ={O}.
Se invece dim W = n, allora W possiede una base B di cardinalit n. Per il Teorema
4.11 (a), B anche una base di V e quindi W = L(B) =V.
D

Corollario 4.16. Se X un sottoinsieme linearmente indipendente di V , avente


cardinalit h, la chiusura lineare L(X) l'unico sottospazio h-dimensionale di V
contenente X.

Dimostrazione. Infatti X una base di L(X) e quindi dim L(X) = h. Inoltre, se


W un sottospazio h-dimensionale di V contenente X, per la Proposizione 4.3 si ha
L(X) W; la Proposizione 4.15 prova allora che W coincide con L(X).
D

Siano ora W i, W 2 due sottospazi vettoria di V. Risulta evidente che l'intersezione


W in W 2 ancora un sottospazio vettoriale di V; pertanto W 1 n W 2 contiene sempre
almeno il vettore nullo O.
Al contrario, l'unione W i U W 2 non , in generale, linearmente chiusa.
Ad esempio, se V = JR 2,
2
W1 = {(x,y) E IR I y =O}, W2 = {(x,y) E IR 2 Ix= O},
allora, w1 = (1, O) E W1, w2=(O,1) E W2, ma w 1 + w 2 =(1,1) (j. W 1 U W 2.

Esempio 4.11. La coppia B = ((2, 1), (O, 4)) una base ordinata di IR2. Se a= (x, y)
un generico vettore di JR 2, si ha (x, y) = a(2, 1) + ,8(0, 4), con a= ~x e (3 = (2y - x).
Dunque

dim W = O se e solo se W = {O}


dim W = n se e solo se W = V.

(~x, ~(2y- x)).

Ad esempio, se a= (1, O), allora a =B (1/2, -1/8). Si noti che, in accordo con l'Osservazione 4.8, se e 1 = (2, 1) ed e 2 = (O, 4), allora si ha e 1 =B (1, O), e 2 =B (O, 1).

+Definizione 4.13.

Siano H1, H2

V. Si dice somma di H 1 e H 2 il sottoinsieme

H1 +H2 = {w1 +w2 E V I w1 E H1,w2 E H2}.


Proposizione 4.17. Se W 1 e W 2 sono sottospazi vettoriali di V, allora:
W1 + W2 = L(W1 U W2).

Pertanto W i + W 2 il pi piccolo sottospazio vettoriale di V contenente W 1 U W 2;


esso detto "spazio somma" (o "spazio congiungente") di W 1 e W 2.

4. SPAZI E SOTTOSPAZI VETTORIALI

78

h =O, B1 e B2 sono due qualsiasi basi di W 1 e W 2 rispettivamente).


Vogliamo ora provare che

Dimostrazione. immediato verificare che


W1 UW2

79

7. SOMMA E INTERSEZIONE DI SOTTOSPAZI

W1 + W2 L(W1 UW2).

Ricordata la Proposizione 4.3, basta quindi provare che W 1 + W 2 linearmente


chiuso, per concludere che

B+ = B1 U B2 = Bn U {f1, ... , fr-h} U {g1, . .. , gs-h}


una base di W1 + W2. Questo conclude la prova, in quanto B+ ha cardinalit

W1 + W2 = L(W1 UW2).

h + (r - h) + (s - h) = r + s - h.

A tale scopo, sia E lKe u, w E W 1+W2; esistono allora u1, W1 E W1 e u2, w2 E W2


tali che u = u 1 + u2, w = w1 + w2. Quindi:

Evidentemente B+ = B1 UB2 genera W 1 +W2 Resta quindi da dimostrare la lineare


indipendenza di B+
Supponiamo, a tale scopo, che esistano scalari ci, 131, 'Yk, con i E Nh, j E Nr-h,
k E Ns-h, non tutti nulli, tali che:

u+w = (u 1 + u 2) + (w1 +w2) = (u1 +w1) + (u2 +w2) E W1 + W2,


u

= .X(u1 + u2) = u1 + u2 E W1 + W2.

(4.2)

Ci conclude la prova.

+Definizione 4.14. Due sottospazi vettoriali W 1 e W 2 di V sono detti indipendenti


se W 1 n W 2 = {O} . In tal caso, il loro spazio somma sar detto somma diretta di
W 1 e W2 ed indicato con W 1 Ef) W 2. Se V= W 1 Ef) W2, diremo che V somma
diretta di W 1 e W 2

r-h

aiei + L

i=l

s-h

f31fj + L

j=l

"(kgk = o

k=l

(convenendo che, se h =O, la prima sommatoria di (4.2) non sia presente).


Gli scalari 'Yk, k E Ns-h, non possono essere tutti nulli, perch, se cos fosse, B 1
sarebbe linearmente dipendente . Quindi il vettore
s-h

= L'Ykgk
k=l

Proposizione 4.18. Se V = W 1 Ef) W 2, allora ogni vettore v E V determina


univocamente una coppia (v 1, v2) E W1 x W2 tale che v = v1 + v2.

Dimostrazione. Essendo V = W 1 Ef)W2, \:/v E V, :3 (v1, v2) E W 1xW2, v = V1 +v2.


Per provare l'unicit di (vi, v2), supponiamo

diverso dal vettore nullo (in quanto l'insieme {g 1, . .. , gs-h} linearmente indipendente).
Del resto, dalla relazione (4.2), si ottiene:
h

- L

V= V1 + V2 = U1 + U2,

i=l

Se ne deduce che:

s-h

f31fj = w = L

j=l

"(kgk.

k=l

Pertanto w E L(B 1 ) n L(B2) = W 1 n W 2.


Se h =O, cio se W 1 n W 2 ={O}, ci assurdo. Altrimenti, si ha

w = v1 - u1 = u2 -v2 E W1 n W2 ={O}.
Ne consegue che w =O, e cio che u1 = v1, u2 = v2.

r- h

aiei - L

w = 2.:.:.xiei,
i=l

Teorema 4.19. (Relazione di Grassmann 1) Se W 1, W 2 sono sottospazi vettoriali finitamente generati di V si ha:

essendo i >.i, i E

dim(W1 E9 W2) = dim W1 + dim W2.

Dimostrazione. Si ponga dim W 1 = r, dim W 2 = s e dim(W 1 n W 2) = h.


Se W 1 W 2, allora W 1 n W 2 = W 1 e W 1 + W 2 = W 2; in tal caso h = r, m = s e
la relazione banalmente vera. Analogo il caso in cui W 2 W 1
In caso contrario, sia Bn = {e 1, ... , eh} una base di W 1nW2 (se h = O, sia Bn = 0).
Costruiamo ora, usando il Teorema del completamento (Proposizione 4.12), una base
B1 = Bn U {f1, ... , fr-h} di W1 ed una base B2 = Bn U {gi, ... , gs-h} di W2 (se
1 Hermann Gunther Grassmann: matematico tedesco (Stettino, 1809-1877) .

opportuni scalari (non tutti nulli). Quindi:


h

s-h

2.:..:: .xiei - 2.:..:: "(kgk

dim W 1 + dim W2 = dim(W1 + W2) + dim(W1 n W2).

In particolare, se W1 n W2 ={O}, allora

Nh,

i=l

= w - w =o,

k=l

essendo gli scalari "fk, k E Ns-h, e i, i E


lineare indipendenza di B 2.

Nh,

non tutti nulli. Ci contrasta con la

o
La definizione di "somma" si estende naturalmente al caso di p sottospazi W 1, ... , W P
di V . Si pone, come nel caso p = 2,
W1 + + Wp = {w1 + + wp E V I \:/i E Np, wi E Wi}
e si prova che:

4. SPAZI E SOTTOSPAZI VETTORIALI

80

Se poi, 'Vi E Np,


wi n (W1 + .. . + wi-1 + WH1 + + Wv) ={o},
allora i sottospazi W 1, . .. , W

sono detti indipendenti; la loro somma, indicata con

CAPITOLO 5

W1 EB EB Wv,
o anche con

Trasformazioni lineari
i=l

detta somma diretta.


Se V = W 1 EB EB W P> allora si dice che V somma diretta dei suoi sottospazi
(indipendenti) W i, . . . , W p
Come nel caso p = 2, se V= W 1 EB EB Wp, allora ogni vettore v E V determina
univocamente una p-pla
(w 1, . . . ,wp) EW 1 x xWP,
tale che v = w1 + +wv.
Si ha inoltre:
Proposizione 4.20. Se i sottospazi W 1, ... , Wp di V sono indipendenti ed hanno

tutti dimensione finita, allora anche la loro somma diretta ha dimensione finita e si
ha

(4.3)
Dimostrazione. Se p = 2, la formula (4.3) si riduce alla relazione di Grassmann.
Supponiamo, per induzione, che (4.3) sia vera per i p - 1 sottospazi Wi, . .. , Wp-1
Ricordando che

e che, per l'indipendenza dei sottospazi W1, .. . , Wp,

1. Trasformazioni lineari e isomorfismi

In questo paragrafo, i simboli U, V, W indicheranno sempre spazi vettoriali sullo


stesso campo OC, mentre con Ou, Ov, Ow saranno denotati i rispettivi vettori nulli. Indicheremo inoltre, per brevit, con gli stessi simboli le operazioni di somma e
prodotto per uno scalare rispettivamente definite nei vari spazi vettoriali considerati,
anche se, in generale, tali operazioni risultano distinte.

+ Definizione 5.1.

Una applicazione T : V -+ W si dice trasformazione lineare o


applicazione lineare di V in W se, per ogni u, v E V e per ogni a E OC, si ha:
(1) T(u + v) = T(u) + T(v);
(2) T(a u) =a T(u) .

Se gli spazi vettoriali V e W coincidono, allora T detta operatore lineare o endomorfismo su V (o di V in s). Una trasformazione lineare biunivoca T : V-+ W
detta isomorfismo di V in W; in tal caso gli spazi V e W sono detti isomorfi.
Un endomorfismo biiettivo, cio un isomorfismo di V in s, detto automorfismo su
V. Se ~ = ocn e W = ocm sono spazi vettoriali standard, allora una trasformazione
lineare T : ocn -+ ocm anche detta trasformazione lineare standard.
Se W = OC, ogni trasformazione lineare T : V -+ OC detta forma lineare su V.
Si noti che T : V -+ W una trasformazione lineare se e solo se, per ogni combinazione
lineare L:7=l a' vi di vettori di V, si ha:

(~w}w, ~{o},
ancora per la formula di Grassmann e per l'ipotesi induttiva, si ottiene:
dim (ffiwi) = dim (ffiwj) +dimWP =
i=l

J=l

~dimWj +dimWv =

Ad esempio, l'applicazione

T :

J= l
p

t-t

JR2
(4x +.y, y - x)

lineare e biiettiva ed dunque un automorfismo sullo spazio vettoriale standard JR 2.

= LdimWi.
i=l

JR2

(x,y)
o

Invece l'applicazione

S:
non lineare.

IR2

(x,y)

t-t

JR2

(x+l,x-y)

1. TRASFORMAZIONI LINEARI E ISOMORFISMI

5. TRASFORMAZIONI LINEARI

83

82

+Definizione 5.2.

Sia T: V -t W una trasformazione lineare. Sar detto nucleo


di T, indicato con Ker T, il sottoinsieme
KerT = {v E V I T(v) = Ow} = r- 1(0w) V;

. 5 1 s w . V -t
l'applicazione definita ponendo, per ogni V E V,
.
r
Il
Esemp10 . 1a o .
_ o w e' lineare e viene usualmente chiamata trasformazione 1neare nu a.

( )-

WQ V

Esempio 5.2. L'applicazione identica Id v un automorfismo su V.

sar detto immagine di T, indicato con Im T, il sottoinsieme

5 . 3 . Sia JR[t] lo spazio vettoriale dei polinomi ~ell'i~det~rminata t a coefficienti


in R L'applicazione D : JR[t] -t JR[t] che associa ad ogni polmom10
2
tn
p(t) = a0 + a1t + a2t + + an

Esempio

la sua derivata

ImT = T(V)

Proposizione 5.2. Sia T: V -t W una trasformazione lineare.


(a) T(Ov) = Ow;
(b) per ogni v E V , T(-v) = -T(v);
(c) T iniettiva se e solo se KerT = {Ov };
(d) T suriettiva se e solo se Im T = W.

tn-1

D(p(t)) = p'(t) = a1 + 2a2t + + nan


.
.
.
lineare D pertanto un endomorfismo su JR[t], ma non un automorfismo; mfa:t'.,I
D non iniettiva poich, ad esempio, la derivata di tutti polinomi di grado :S O e 1

polinomio nullo.
.

Esemp10

5 4

. .

s1a -

tr

Dimostrazione.
(a) Si ha T(Ov)+T(Ov) = T(Ov+Ov) = T(Ov) = Ow+T(Ov) . Sommando -T(Ov)
si ottiene subito T(Ov) = Ow .
(b) T(v) + T(-v) = T(v -v) = T(Ov) = Ow. Quindi T(-v) = -T(v) (per l'unicit
dell'opposto) .
(e) Se T inietti va, ovviamente Ker T = {Ov}. Supponiamo, viceversa, che Ker T =
{Ov} e proviamo che T iniettiva. A tale scopo, siano u, v E V, tali che T(u) = T(v) .
Ne consegue che T(u) - T(v) = T(u - v) = Ow; pertanto u - v E KerT, e cio
u - v = Ov, che equivale a u = v.
(d) ovvia.

-t e l'applicazione biunivoca "coniugio" che, ad ogni numero

Il_,

--.

complesso a+ ib E C, associa il suo coniugato a+ ib = a - ib.


Si ha, per ogni a+ ib, e+ id E C:
(a+ ib) +(e+ id)= a+ e+ i(b + d) =a+ e - i(b + d) = (a - ib) +(e - id) =
= a + ib + e + id.
Inoltre, per ogni . E JR, si ha:
.
.
. . (a+ ib) = .Xa + i(.Xb) = .a - i(.Xb) =

(a - ib) =

(a+ ib) .. ,

. . '
rt nto un automorfismo sullo spazio vettoriale (JR, e,+,), c1oe su e
Il contug10 e pe a

considerato come spazio vettoriale su R


.
d
1
non un automorfismo sullo spazio vettonale (C, C, +, ), pur essen o
I nvece, t contugto
.
+ 13
+ b E C
un isomorfismo del campo (C, +, ) in s; si ha infatti, per ogni a
i ' a
i
.
(a+ i/3). (a+ ib) = aa - {3b + i(ab + f3a) = aa - f3b - i(ab + f3a) =
=(a - i/3). (a - ib) = (a+ i/3) (a+ ib);
(a+ i/3). (a+ ib) =(a+ i/3). (a - ib) = aa + {3b + i(-ab + f3a).

Tr . M (JK)

JK l'applicazione che associa ad ogni mat_rice quadrata


A _ ( i) E M (JK)

4
Esempio 5 . 5 1a

n
.
.
.
I S
di ordine n la somma degli elementi della sua diagonale pnnc1pa e. e

aj

si ha dunque:

Tr (A) = ai+ a~++ a~.


ccia , una trasformazione lineare di Mn(lK) in K
L'applicazione Tr' detta tra

Risulta di immediata verifica la seguente



( ) S
U 4 V e T : V -t W sono trasformazioni
Propos1z10ne 5.1. a
e

. .
w uria
lineari {risp . isomorfismi), allora anche la loro composizione T o S : U -t

trasformazione lineare {risp. un isomorfismo).


'
. .
.
-1 . W -t
(b) Se T: V 4 W un isomorfismo, allora anche l applicazione inversa T

s.

V un isomorfismo.

W.

Proposizione 5.3. Sia T: V -t W una; trasformazione lineare.


(a) Se X un sottospazio vettoriale di V, allora T(X) un sottospazio vettoriale
di W; in particolare, Im T = T(V) un sottospazio vettoriale di W .
(b) Se Y un sottospazio vettoriale di W, allora r- 1 (Y) un sottospazio
vettoriale di V; in particolare, Ker T = r- 1(Ow) un sottospazio vettoriale
di V.

Dimostrazione. (a) Se w 1, w 2 E T(X), esistono x 1, x 2 E X tali che T(x 1) = w 1,


T(x2) = w2. Essendo X un sottospazio vettoriale di V, si ha x 1 + x 2 E X e, per
ogni a E JK, a X1 E X; dunque w 1 + w2 = T(x1) + T(x 2) = T(x1 + x 2) E T(X) e
a w1 =a T(x1) = T(a x 1) E T(X).
(b) Se vi, v2 E r- 1(Y), si ha T(v 1), T(v 2) E Y e dunque, essendo Y un sottospazio vettoriale di W , si ha T(v 1 + v 2) = T(v 1) + T(v 2) E Y e, per ogni a E JK,
T(a v1) =a T(v1) E Y .
Ci prova che V1 + V2 E r- 1(Y), a. V1 E r- 1(Y) e dunque che r- 1(Y) un sottospazio vettoriale di V.

o
Proposizione 5.4. Sia T: V -t W una trasformazione lineare.
(a) Se H un sistema di generatori per V, allora T(H) un sistema di generatori per Im T.

1. TRASFORMAZIONI LINEARI E ISOMORFISMI

5. TRASFORMAZIONI LINEARI

84

Dimostrazione. Proveremo, per semplicit, il teorema nel caso in cui V abbia dimensione finita, anche se l'enunciato ha validit generale.
Poniamo B = {ei, . .. ,en}
(a) Esistenza. Per il Corollario 4.14, ogni vettore di V esprimibile in modo unico
come combinazione lineare dei vettori della base B. Definiamo allora l'applicazione
T : V --+ W ponendo, per ogni

(b) Se T iniettiva e (v 1 , v 2 , ... , vk) una k-pla linearme~te indipendente di


vettori di V {k E N), allora (T(v 1), T(v 2 ), ... , T(vk)) e una k-pla linearmente indipendente di vettori di W.
Dimostrazione. (a) Supponiamo V =f { Ov}, cio H =I- ~. Sia w ~ Im T e sia v E V
tale che T(v) = w. Poich H un sistema di generatori per V , s1 ha
h

V=

u=

(t,a U;) ~ t, a'

l:aiei

T(u) =

V,

i=l

dove, per ogni i E Nh, ui E H. Allora

~ T(v) ~ T

l:<i Ui,
i=l

85

L aiip(ei) E W.
i=l

facile verificare che T lineare. Inoltre, per l'Osservazione 4.8, si ha:


T(u;) .

Dunque, ogni w E ImT esprimibile come combinazione lineare di vettori di T(H).


Ci prova (a).
(b) Supponiamo che si abbia

Dunque Tis = <p.


(b) Unicit. Supponiamo che T' : V --+ W sia una trasformazione lineare tale che
1'(8 = <p. Per ogni
n

u= L::aiei E V,

L (i T(vi) = Ow .

i=l

i=l

si ha allora:

Da

T'(u)
segue

T' (taiei) = taiT'(ei) = taiip(ei) = T(u).

Quindi T' = T.
k

Lai vi E KerT.

i=l
Poich, essendo T iniettiva, KerT = {Ov }, si ha

Siano, ad esempio, V = IR 2 , W = JR 3 , iJ la base naturale di IR 2 e <p :


da :
ip(l, O)= (2, -1, O),
ip(O, 1) = (3, 1, -1).

i=l
e dunque, per la lineare indipendenza di (v1,. .. ; vk), si ottiene ai
i E Nk. Ci prova la lineare indipendenza di (T(v1),. , T(vk)).

O, per ogni

iJ --+ JR3

definita

Allora, per il Teorema fondamentale, esiste ed unica la trasformazione lineare T: IR 2 --+


IR 3 tale che
T(l,O) = (2,-1,0),
T(O, 1) = (3, 1, -1).
Poich, per ogni (a, b) E JR 2 , (a, b) =a (1, O)+ b (O, 1), si ha :

5 . 1 . Se T . V --+ W una trasformazione lineare, allora


.
. T trasforO sservaz10ne
ma ogni sottospazio U di V di dimensione finita m in un sottospaz10 d1
av~nte
dimensione h :=:; m. Se poi T iniettiva, allora U e T(U) hanno la stessa d1mens10ne

Y"

T(a,b) =

a (2,-1,0)+b (3,1,-1) =
(2a, -a, O)+ (3b, b, -b)

(2a + 3b, -a+ b, -b).

m.

Il seguente teorema prova che ogni trasformazione lineare risulta comp~e~amente


determinata dalle immagini dei vettori di una qualunque base del suo dom1mo.
Teorema 5.5. (Teorema fondamentale delle trasformazioni lineari) Sia
B una base di v . Per ogni applicazione ip : B --+ W, esiste una e una sola tr~sfor
mazione lineare T : V --+ W tale che Tis = <p, essendo Tis : B --+ W la restrizione

di T a B.

Teorema 5.6. (Equazione dimensionale per le trasformazioni lineari)


Sia T : V --+ W una trasformazione lineare. Se V ha dimensione finita, allora anche
Ker T e Im T hanno dimensione finita e si ha:

dim( Ker T) + dim( Im T)

= dim V .

5. TRASFORMAZIONI LINEARI

86

Dimostrazione. Sia dim V = n. Allora KerT ha dimensione finita h, con O :S h :S n


(Proposizione 4.15), mentre il fatto che Im T sia finitamente generato conseguenza
immediata della Proposizione 5.4 (a) (o dell'Osservazione 5.1).
Se h > O, sia {e 1, . .. , eh} una base di KerT e sia B = {e1, ... , eh, f1 , ... , fn-h} un
suo completamento a una base di V; se invece h =O, allora sia B = {fi, ... , fn} una
base arbitraria di V.
Dimostriamo che, in ogni caso, {T(f1), ... , T(fn-h)} una base di Im T avente cardinalit n - h: in tal modo, il teorema resta provato, avendosi dim( Im T) = n - h.
Per la Proposizione 5.4 (a), l'insieme T(B) un sistema di generatori per Im T.
Ricordando che, per ogni i E Nn, ei E KerT e dunque T(ei) = Ow, si deduce allora
immediatamente che anche l'insieme {T(f1), . . . , T(fn-h)} un sistema di generatori
per ImT.
Proviamo ora che (T(f1), ... , T(fn-h)) linearmente indipendente, ponendo
n-h
Lai T(fi) = Ow
i=l
Dalla linearit di T segue

=Ow

1. TRASFORMAZIONI LINEARI E ISOMORFISMI

87

Esempio 5.6. Sia 7r : !R3 ---+ JR 3 la "proiezione sul piano xy" definita ponendo, per ogni
(x,y,z) E JR 3 ,

7r(x, y, z) = (x, y, O).


Si ha evidentemente lm7r = {(x,y,z) E JR 3 I z =O} (il piano xy) e Ker7r = {(x,y,z) E
!R 3 Ix = y =O} (l'asse z). Poich, come facile provare, dim( Im 7r) = 2 e dim( Ker 7r) =
1, l'equazione dimensionale risulta verificata . Si osservi che 7r non n iniettiva, n
suriettiva.
Esempio 5.7. Sia D: !R[t] ---+ !R[t] la trasformazione lineare (derivata di un polinomio)
dell'Esempio 5.3. Poich per ogni r E N si ha D(!Rr[t]) = !Rr- 1[t]. possibile considerare
la restrizione Dr: !Rr[t]---+ !Rr-l[t] di D il cui dominio (risp. codominio) risulta costituito
dal sottospazio dei polinomi di grado ::; r (risp. ::; r - 1).
Ricordato che (Esempio 4.10 bis) dim!Rr[t] = r + 1, dim!Rr-l[t] = r, dall'equazione
dimensionale si ottiene:

dim( Ker Dr) = dim !Rr [t] - dim( Im Dr) = r

+1-

r = l.

JR 0 [t]

In effetti, Ker Dr l'insieme


dei polinomi di grado ::; O, isomorfo, come facile
verificare, allo spazio vettoriale standard 1-dimensionale R Si osservi inoltre che anche
Ker D = JR 0 [t].

e quindi
n-h

Se V ha dimensione finita n, il Corollario 4.14 (esistenza ed unicit delle componenti


di un vettore) consente di definire una applicazione cJ> 8 di V in ocn, associando ad
ogni vettore di V la n-pla delle sue componenti rispetto ad una fissata base ordinata
B di V. Si ha inoltre:

ai fi E Ker T.
i=l
Essendo {e 1, ... , eh} una base di Ker T, si ha
n-h
h
v =
ai fi =
.Bj ej
i=l
j=l

(dove, nel caso h = O, l'ultimo membro dell'uguaglianza diventa il vettore nullo Ov)
e dunque
n-h
h
Lai fi - 2::.Bj ej = Ov .
i=l
j=l
La lineare indipendenza di B prova allora che, per ogni i E Nn-h, ai = O. Pertanto
l'insieme {T(f1), .. . , T(fn-h)} costituisce una base di Im T avente cardinalit n - h.

Corollario 5.7. Sia T: V---+ W una trasformazione lineare. Se dim V= n, si


ha:
(a) T iniettiva <=> dim( Ker T) = O <=> dim(Im T) = n;
(b) T un isomorfismo <=> n = dim( Im T) = dim W.
Pertanto, se dim V = dim W = n, allora:
T iniettiva

{::::=}

T suriettiva

{::::=}

T un isomorfismo.

Proposizione 5.8. Se B una base ordi~ata dello spazio vettoriale n-dimensionale


V su JK, l'applicazione cJ>B : V --t ocn' definita ponendo, per ogni V =B ( v 1) ... ) vn) E
V , cJ>B(v) = (v 1, ... , vn), un isomorfismo, detto "isomorfismo associato alla base

B".
Dimostrazione. La biunivocit e la linearit di cJ>B sono di facile verifica.

o
..,.. Osservazione 5.2. La Proposizione 5.8 prova che ogni spazio vettoriale n-dimensionale V su lK isomorfo a ocn.
Ricordando anche la Proposizione 5.4 (b), se ne deduce che una m-pla (v 1, ... , vm)
di vettori di V linearmente indipendente se e solo se linearmente indipendente
la m-pla ((vi, ... , v!), ... , (v!n, ... , v~.)) costituita dalle n-ple delle componenti di
v1, ... , vm rispetto ad una qualunque base di V.
Teorema 5.9. Due spazi vettoriali V , W finitamente generati sono isomorfi se e
solo se hanno la stessa dimensione.
Dimostrazione. (a) Se V e W sono isomorfi, allora il Corollario 5.7 (b) prova che
dimV = dimW.
(b) Supponiamo che si abbia dim V= dim W = n. Allora, per l'Osservazione 5.2, V

88

5. TRASFORMAZIONI LINEARI

e W sono entrambi isomorfi. a ocn e quindi, per la Proposizione 5.1 (a), isomorfi fra
loro.

2. Matrici associate ad una trasformazione lineare

Nel presente paragrafo, i simboli UP, yn, wm indicheranno spazi vettoriali sullo
stesso campo lK aventi dimensione finita p, n, m rispettivamente.

2. MATRICI ASSOCIATE AD UNA TRASFORMAZIONE LINEARE

Teorema 5.10. Sia T : yn --+ wm una trasformazione lineare e sia A E


Mmxn(IK) la matrice associata a T relativamente alle basi ordinate B di yn e B'
di wm. Se (x) E Mnxi(IK) la colonna delle componenti di un generico vettore
v E yn rispetto a B e (y) E Mmx 1 la colonna delle componenti di T( v) rispetto a
!3', si ha:

(y) =A (x).

(5.1)

Dimostrazione.
Posto l3 = (e1, ... , en), B' = (f1, . . . 'fm), V =B (x 1, ... 'xn),
1
T(v) =B' (y , ... , ym), si ha:
n

+Definizione 5.3. Sia Buna base ordinata di vn.

Si dice matrice delle componenti di


una h-pla (v1, ... , vh) di vettori di yn rispetto a B (h E N) la matrice H E Mn xh(IK)
la cui j-esima colonna, j E Nh, la n-pla delle componenti di Vj rispetto a B. In
particolare, se h = 1, si parler di colonna delle componenti di un vettore v rispetto
a B.

89

=Lxi ej,

T(v) =

j=l

L Yi fi.
i=l

Posto A= (a;), per ogni j E Nn si ha T(ej) =B' (a} , ... ! aj) e dunque
m

T(ei)

= :L:a; fi.
i=l

Ad esempio, se, fissata una base ordinata B di uno spazio vettoriale V 2 su JR, si ha:

Per la linearit di T si ha inoltre:

V1 =.B (2,3), V2 =.B (-1 , 0), V3 =.B (4,-2),


allora la matrice delle componenti della terna (v 1, v 2, v 3) rispetto a B
H

=(

~ ~l

!2 )

E M2x3(1R).

+ Definizione 5.4. Sia T : yn --+ wm una trasformazione lineare e siano


B = (ei, ... , en), B' basi ordinate di vn e wm rispettivamente. Si dice matrice
associata a T relativamente a B e B' la matrice A = MB,B'(T) E Mmxn(IK) delle
componenti della n-pla (T(e 1), . .. , T(en)) rispetto a B'.
Nel caso di un endomorfismo T su yn, si usa spesso considerare B' coincidente con B;
si dice, in tal caso, che la matrice A= MB(T) E Mn(IK) associata a T relativamente

Per l'unicit delle componenti rispetto a B', da

segue
n

(5 .2)

yi

= :L:xi a;,
j=l

o, equivalentemente,

(y)=A(x)

a B.

Dalla Osservazione 4.8 segue subito


..,. Osservazione 5.3. La matrice associata alla applicazione identica Id v n relativamente ad una qualunque base ordinata di yn la matrice identica In.
..,. Osservazione 5.4. Se B e B' sono basi ordinate rispettivamente di yn e wm,
l'applicazione che associa ad ogni trasformazione lineare T : yn --+ wm la matrice
associata a T relativamente a B e B' biunivoca. Infatti, per il Teorema fondamentale delle trasformazioni lineari, per ogni A E Mmxn(IK), esiste ed unica la
trasformazione lineare s : yn --+ wm tale che l'immagine del j -esimo vettore di
B abbia, come m-pla delle componenti rispetto a B', la j-esima colonna di A (per
j E Nn)
Si ha inoltre:

o
Le formule (5.1) e le loro equivalenti (5.2) si dicono equazioni della trasformazioni
lineare T relativamente alle basi B e B'; esse forniscono un metodo per ottenere direttamente le componenti, rispetto a B', del trasformato T(v) di un generico elemento
v E vn in funzione delle componenti div rispetto a B .
Siano, ad esempio, B la base ((1, 1), (-1, O)) di IR 2, B' la base ((1, 1, O) , (O, 1, 1), (1, O, 1))
di JR 3 e T : JR 2 --+ JR 3 la trasformazione lineare definita da :
T(-1 ,0) = (0,4,-2).
Siano poi f3 e B' le basi naturali rispettivamente di IR 2 e JR 3.
Dal momento che
T(l,1) = (2,-1,0),

T(l, 1) = (2, -1, O)= 2 (1, O, O)+ (-1) (O, 1, O)+ O (O, O, 1),

5. TRASFORMAZIONI LINEARI

2. MATRICI ASSOCIATE AD UNA TRASFORMAZIONE LINEARE

91

90

e le equazioni di T relativamente a

T(-1 , O) = (O , 4, -2) =O. (1, O, O)+ 4 (O, 1, O)+ (-2) (O , O, 1) ,


la matrice associata a T relativamente alle basi l3 e

MB 13,(T) = (

Le equazioni di T relativamente a l3 e

B'

B'

!1o -2~ )

i/ = 2x1
=-xl +4x2
-2x2

{ ii3 =

Per ottenere la matrice associata a T relativamente a l3 e !3' occorre invece determinare


le componenti di T(l, 1) e T(-1, O) rispetto a !3' .
Dal momento che
T(l, 1) = (2 ,- 1, 0) =

~ (1, 1,0) +(-~)(O, 1, 1) + ~ (1,0, 1) ,

T(-1,0) = (0,4,-2) = 3(1,1,0) + l (O , 1, 1) + (-3) (1,0, 1),


si ha

MB,B'(T)

B'

(<f>B : y n ---+ ][(n, <f>B, : W


rispettivamente a l3 e !3') .

1/2
-3/2
(
3/2

---+

][(m

<1>51 : ][(n ---+

][(m

indicano, come d 'uso, gli isomorfismi associati

vn
1
<1>5 t
][(n

T
--t

wm
.J,. <f>B,

TB,B 1

][(m

--t

sono

Infatti, se, per ogni j E Nn, aj (risp. bJ) indica la j-esima colonna di A (risp. di
MB,B' (T)), posto l3 = (e1, . . . ) en), si ha:

yl = ~x 1 + 3x 2
y2 =-~xl +x2
{

B e !3'.

T : ][(n ---+ ][(m una trasformazione lineare


standard e siano B = (e 1, ... ,en), B' le basi naturali rispettivamente di ][(ne Km.
Se A E Mm xn (K) la matrice associata a T relativamente a B e B', la sua jesima colonna aj il trasformato T(eJ) del j -esimo vettore di B. Si dice allora
che A la matrice canonicamente associata alla trasforma zione lineare standard i',
sottintendendo le basi (naturali) rispetto a cui risulta ottenuta. In tal caso, infatti, le
equazioni di T forniscono direttamente il trasformato (y 1, ... , ym) = T(x 1 , .. . , xn) E
][(m della generica n-pla (x 1, ... , xn ) E ][(n. Si osservi inoltre che, se T : yn ---+ wm
una trasformazione lineare e !3 , !3' sono basi ordinat e rispettivamente di vn e wm)
allora la matrice MB,B' (T) coincide con la matrice A canonicamente associata alla
trasformazione lineare standard
TB ,B' = <f>B'

e le equazioni di T relativamente a l3 e

2x 1 - 2x 2 .

~ Osservazione 5.5. Sia, in particolare,

4
-2

o
fl

= 2x2
= -4x 1 + 3x 2

risultano pertanto
-1

o, equivalentemente,

-y1
2
-y
3

sono

Si determini la matrice associata a T relativamente a

(2 o)

iJ1 )
( flil

B e B'

aJ

Y3 = ~xl - 3x2 .

Infine, per determinare la matrice (e le equazioni) associata_a T relativamente a


occorre determinare i trasformati dei vettori e1 = (1, O) ed e2 = (O , 1).
Poich e1 =B (O , -1) ed e 2 =B (1 , 1), si ha:
T(e 1) = T(O. (1 , 1) + (- 1) (- 1, O)) = O T(l, 1) + (-1) T(-1, O) =

B e B',

= TB,B'(eJ) = <l>B' o To <1>5 1(eJ)

= <l>B' o T(eJ)

Il seguente teorema prova la rilevanza che assume l'operazione di prodotto righe per
colonne nella teoria delle matrici.

Teorema 5.11. Siano s : UP ---+ vn' T : vn ---+ w m trasformazioni lineari.


Fissate le basi ordinate l3' !3'' !3" rispettivamente di UP' v n' wm e posto

O. (2 , -1, O)+ (-1) (O, 4, -2) =(O, -4, 2),


T(e 2) = T(l (1, 1) + l (-1,0)) = l T(l , 1) + l T(-1,0) =
1 . (2, -1, O)+ 1 (O,4, -2) = (2 , 3, -2).

si ha:

C=BA.

Si ha dunque

M;;,;;.(T)

~ ( ~4 -2~

= bJ.

Dimostrazione. Sia u un generico vettore di U P. Posto:


u =-B (x 1 ,

...

,xP),

92

5. TRASFORMAZIONI LINEARI

e posto:

si ha:

(y) =A (x) e (z) = B (y)


Ci prova che la matrice C coincide con B A.

= (B A) (x).
o

Corollario 5.12. Sia T: yn ---+ wn un isomorfismo e siano B, B' basi ordinate


rispettivamente di yn e wn. La matrice A E Mn(lK) associata a T relativamente
a B e B' regolare e la sua inversa A- 1 la matrice associata a r- 1 : wn ---+ yn
relativamente a B' e B.
Dimostrazione. Se infatti A' denota la matrice associata a r- 1 relativamente a B' e
B, essendo r- 1 o T = Id v n' To r- 1 = Id W", per l'Osservazione 5.3 e per il Teorema
precedente, si ha A' A .= A A'= In e quindi A'= A- 1.

o
Si gi visto che una matrice quadrata A regolare (o invertibile) se e solo se
detA i- O (Teorema 3.19). Si ha inoltre:
Proposizione 5.13. Se A E Mn(lK), sono equivalenti le seguenti affermazioni:
(1) A regolare.
(2) La n-pla costituita dalle colonne di A linearmente indipendente.
(3) La n-pla costituita dalle righe di A linearmente indipendente.
(4) Ogni trasformazione lineare avente A come matrice associata un isomorfismo .

Dimostrazione. Proveremo l'equivalenza delle affermazioni secondo lo schema seguente:

(3)

(1)

====>

(2)

====>

2. MATRICI ASSOCIATE AD UNA TRASFORMAZIONE LINEARE

93

per il Teorema 4.11 (a), una base di ImT = W. Per il Corollario 5.7 (b), T pertanto
un isomorfismo.
(4) =} (1). conseguenza immediata del Corollario 5.12.
(3) =} (1). Se le righe di A sono linearmente indipendenti, allora le colonne di tA
sono linearmente indipendenti. Si ha allora, avendo gi provato che (1) equivalente
a (2):
det A = det(tA) i- O.
Dunque A regolare.

o
.,.. Osservazione 5.6. Dalla Proposizione 5.13 e dal Teorema 4.11 (a) segue che una
n-pla (v1, ... , vn) di vettori di yn una base ordinata di yn se e solo se la matrice
delle componenti di (vi, . . . , vn) rispetto ad una qualunque base ordinata di yn
regolare.
La seguente proposizione fornisce un metodo per trovare le equazioni di una trasformazione lineare definita mediante le immagini di una qualunque base del suo dominio.
Proposizione 5.14. Sia T : yn ---+ wm una trasformazione lineare e sia A E
Mmxn(lK) la matrice associata a T relativamente alle basi ordinate B di yn e B' di
wm . Se X E Mn(lK) la matrice (regolare) delle componenti della base ordinata
(v1, . . . , vn) di yn rispetto a B e Y E Mmxn(lK) la matrice delle componenti di
(T(v1), . .. , T(vn)) rispetto a B', si ha:

A= Y

.x- 1 .

Dimostrazione. Se, per ogni j E Nn, Xj (risp. 1j) denota la j-esima colonna di X
(risp. di Y), si ha infatti:

1j = A Xj e dunque Y = A X.
Dalla regolarit di X, moltiplicando a destra per la sua inversa x- 1, segue pertanto

A=

y.x- 1 .

(4)

e dimostrando infine che (4) =} (1) e che (3) =} (1).


(1) =} (2), (1) =} (3). Infatti, se, per assurdo, le righe o le colonne di A fos~ero line~r
mente dipendenti, allora una di esse sarebbe combinazione lineare delle nmanenti e
dunque, per la Propriet V dei determinanti (Capitolo 3), si avrebbe det A= O.
(2) =} (4). Siano V e W spazi vettoriali su lK aventi dimensione n. Fissata una base
ordinata B = (e 1, . .. , en) di V e una base ordinata B' di W, sia T : V ---+ W la
trasformazione lineare avente A come matrice associata relativamente a B e B'. In
altri termini, si interpreti la j-esima colonna aj di A, per ogni j E Nn, come la n-pla
delle componenti di T( ej) rispetto a B'.
Indicato con <f> 8 , : W---+ ocn l'isomorfismo associato a B', poich, per ipotesi, la n-pla
(ai, .. . ,~) linearmente indipendente in ocn, la n-pla
(<I>5,1(a1), .. . , <1>5,1(~)) = (T(e1), ... , T(en))
linearmente indipendente in W . Pertanto, l'insieme {T(e1), .. . , T(en)} un sottoinsieme linearmente indipendente di W costituito da n vettori distinti ed dunque,

o
Se, ad esempio, f3 e B' sono le basi naturali rispettivamente di R 2 e di R 3 e se T : R 2 ---+ R 3
ancora la trasformazione lineare definita da:
T(l,1)

(2,-1,0)

T(-1, O)= (O, 4, -2),

la matrice associata a T relativamente a f3 e B', determinata in precedenza, si pu


riottenere, mediante la Proposizione 5.14, nel modo seguente. Se v 1 = (1, 1), v 2 =
(-1,0), allora, essendo

X=

(~

-1 )

Y=

x-1

= ( o

(~I ~

-2

si ha
-1

1
1

'

5. TRASFORMAZIONI LINEARI

94

e dunque:

-2

3. RANGO DI UNA MATRICE

95

Si ha pertanto, per ogni i E Nm, ai E L( o: 1, ... , ah) e dunque:


k = dim L(a1, ... , am) ::; dimL(a 1, . .. , o:h) ::; h.
Ripetendo il procedimento, partendo dalla ipotesi che siano le prime k righe di A ad
essere linearmente indipendenti, si prova analogamente che h ::; k e dunque il teorema.

o
... Osservazione 5.7. Se A E Mm xn (IK), si ha Q(A) ::; min{m, n}. Inoltre per la
Proposizione 5.13, se A E Mn(IK), allora A regolare se e solo se Q(A) = n .

3. Rango di una matrice


Nel presente paragrafo, i simboli yn, wm indicheranno spazi vettoriali sullo stesso
campo lK aventi dimensione finita n, m rispettivamente.

+ Definizione 5.5.

Data una matrice A E Mm xn(IK), si dice rango o caratteristica


di A , e si indica con Q(A), la dimensione del sottospazio vettoriale L(a1 , ... ,an) di
ocm generato dalle colonne a1, . .. , an di A.

In altre parole, il rango di A il numero massimo di colonne linearmente indipend~nti


di A. La proposizione seguente prova che tale numero coincide con il numero massimo
di righe linearmente indipendenti di A.

Q(A) = QeA).
Dimostrazione. Se (a1, ... ,an) ed (a1, ... ,am) sono rispettivamente la n-pla delle
colonne e la m-pla delle righe di A, occorre provare che, posto
Q(A) = dim L(a1, ... , an) = h,
l>( tA) = dim L(a1, ... , am) = k,
si ha h = k. Poich, evidentemente, per ogni permutazione p E 6n, si ha
dim L(a1, ... , an) = dim L(a,,(1), .. , <lp(n) ),
si pu supporre, senza perdere in generalit, che le prime h colonne a1 , ... , ah di A
siano linearmente indipendenti e che le rimanenti colonne siano combinazioni lineari
di a 1, ... , ah . Si pu pertanto scrivere:

s= l

dove, per ogni j E Nh, o:j = oj.


Poich a 1 = (a] , . . . , aj), si ha quindi:
h

aj

(5.3)

~ o:j

a5 .

s=l

d"
,,,h
Ponendo, per ogni s E Nh , 0: = ( a 1, ... , o:n E li> ossia,
m
1cando con a 1 , ... , .....
le righe della matrice dei coefficienti (o:j)sENdENJ l'uguaglianza (5 .3) risulta eqmvalerite a
h
8

a i -_

s )

( i

a 1 , ...

TITn (

i ) _

, an

~ ai . o:s
~
s

s=l

Dimostrazione. Se l3 = (e 1, ... , en) , si ha Im T = L(T(e 1), ... , T(en)) (Proposizione


5.4 (a)) . D'altra parte, per ogni j E Nn, la j-esima colonna aj di A , per definizione,
la m-pla delle componenti di T(e1 ) rispetto !3', cio l'immagine di T(ej) mediante
l'isomorfismo <J>B, : wm ~ ocm associato a !3'. Pertanto, Im T = L(T(e1), . .. , T(en))
isomorfo a L(a1, ... , an) e dunque si ha:
dim(ImT)

= dimL(a1, . .. ,an) = Q(A)


o

Al fine di pervenire ad un risultato estremamente utile per il calcolo del rango di una
matrice (Teorema di Kronecker), premettiamo il seguente lemma.
Lemma 5.17. Se A' una sottomatrice di A E Mm xn(lK), allora Q(A') :S Q(A) .

= Z::>:tj as,

Teorema 5.16. Sia T : yn ~ wm una trasformazione lineare e sia A E


Mm xn(IK) la matrice associata a T relativamente alle basi ordinate !3, !3' rispettivamente di yn e wm . Si ha allora:

Q(A) = dim( Im T)

Proposizione 5.15. S e A E Mm xn (IK) , si ha:

aj

... Osservazione 5.8. Se A E Mm xn (IK) una matrice ridotta di rango h, nel senso
della Definizione 3.12, si ha evidentemente Q(A) = h, in quanto nessuna delle prime
h righe di A pu essere combinazione lineare delle successive.
Inoltre, i tre tipi di trasformazioni elementari descritti' nella Definizione 3.13 non
alterano il rango di una matrice.

Dimostrazione. Posto Q(A') = k, siano I, J gli insiemi degli indici rispettivamente


di riga e di colonna della sottomatrice A' E Mrxs(lK) e sia 1 = {i 1, ... , ik} I
tale che le righe di A' aventi come indice gli elementi di 1 risultino linearmente indipendenti. Se A" E Mkxs(.IK) la sottomatrice di A' costituita da tali righe, si ha
evidentemente Q(a") = k. Esiste dunque un insieme J = {j 1, ... ,jk} J tale che le
colonne Cj 1 , . . , Cjk di A" aventi come indice gli elementi di J risultino linearmente
indipendenti.
Sia B E Mk xn (JK) la sottomatrice di A costituita dalle sue righe ai 1 , . . . , a ik; le
colonne c 11 , .. . , c1k di A" sono anche colonne di B e dunque si ha Q(B) = k. Le righe
a i 1 , . . , aik sono pertanto linearmente indipendenti e si ha dunque Q(A) : :'.'. k.

5. TRASFORMAZIONI LINEARI

96

Definizione 5.6. Sia M un minore (Definizione 3.20) di ordine k estratto dalla


matrice A E Mmxn(]!{). Si dice minore orlato di M un minore di ordine k+ 1 estratto
da A avente M come minore.
Proposizione 5.18. (Teorema di Kronecker) Se A E Mmxn(]!{), sono equivalenti le seguenti affermazioni:
(1) l?(A) = k.
(2) Esiste in A un minore M di ordine k tale che det M =/::.O e tutti i minori di
A aventi ordine maggiore di k hanno determinante nullo.
(3) Esiste in A un minore M di ordine k tale che det M =/::.O e tutti i minori di
A orlati di M hanno determinante nullo.

Dimostrazione. (1) => (2). Poich l?(A) = k, esistono in A k righe linearmente


indipendenti; sia A' la sottomatrice di A costituita da tali righe. Avendosi evidentemente l?(A') = k, esistono in A' k colonne linearmente indipendenti, sia M la
sottomatrice (quadrata) di A', e dunque di A, costituita da tali colonne. Poich le
colonne del minore M di A sono linearmente indipendenti, per la Proposizione 5.13,
si ha det M =/::. O. Inoltre, l'esistenza di un minore di A avente ordine h > k e determinante non nullo implicherebbe, per il Lemma 5.17, l?(A) = h > k, contro l'ipotesi
(1 ).
(2) => (3). ovvia.
(3) => (1). Proviamo che non pu aversi, nella ipotesi (3), n l?(A) < k, n l?(A) > k.
Infatti, se fosse l?(A) < k, allora, poich (1) => (2), ogni minore di ordine maggiore di
l?(A), in particolare M, avrebbe determinante nullo, contro l'ipotesi det M =/::.O.
Supponiamo invece l?(A) > k e supponiamo che {i 1, ... , ik} (risp. {ji, . .. ,jk}) siano
gli insiemi degli indici di riga (risp. di colonna) del minore M. Per il Lemma 5.17,
le righe ai 1 , . . . , aik di A sono allora linearmente indipendenti.
Poich l?(A) > k,
esiste almeno un ulteriore riga aio di A tale che (aio, ai 1 , , aik) risulti linearmente
indipendente.
Sia A' E M(k+l )xn la sottomatrice di A costituita dalle righe aio, a i1 , . . , a ik. Evidentemente l?(A') = k+l; inoltre M un minore di A'. Per il Lemma 5.17, le colonne
aj , . , ajk di A' sono dunque linearmente indipendenti e, poich l?(A') = k+ l, esiste
1
almeno una ulteriore colonna aj 0 di A' tale che (aj 0 , aj 1 , , ajk) risulti linearmente
indipendente.
Se M' la sottomatrice (quadrata) di A', costituita dalle colonne aj 0 aj 1 , . , ajk, si
ha allora l?( M') = k + 1 e dunque det M' =/::. O. Poich, per costruzione, M un minore
di M', si perviene dunque ad un minore M' di A, orlato di M, con det M' =/::. O, contro
l'ipotesi (3). Pertanto l?(A) = k.

Applichiamo, ad esempio, il Teorema di Kronecker al calcolo del rango della seguente


matrice

1
-1
1

2
4

-1

4. CAMBIAMENTI DI BASE

97

Si ha, intanto, l?(A) :S: 3; inoltre, poich il determinante del minore

( ~ -;1 )
non nullo, si ottiene 2 ::;: l?(A) ::;: 3.
Il calcolo del determinante dei due minori orlati di M d poi

3
3

1
-1
1

si conclude quindi che l?(A)

2
4
-1

3
3

= O,

1
-1
1

-1
-5
2

= O;

= 2.

4. Cambiamenti di base
Nel presente paragrafo, il simbolo yn indicher uno spazio vettoriale su campo ]!{
avente dimensione finita n .
Definizione 5. 7. Siano 81, 82 basi ordinate di vn e siano <I> 131 , <I> 132 : vn --+ ]l{n

gli isomorfismi associati rispettivamente alle basi 8 1 e 8 2 .


1
Si dice cambiamento di base da 8 1 a 8 2 l'automorfismo <I> 13 i , 13 2 = <I> 13 2 o <I>B 1 su ]l{n

<I> B1 ,B2
]l{n
1

<I> B1

Se

V =B1

(x 1 , ... , xn) e

V =B2

]l{n

'\i

yn

/' <I> B2

(y 1 , . . . , yn), si ha pertanto:

(yl' ... 'yn) =

<I>B1,B2 (xl'

... ' xn).

Il cambiamento di base da 81 a 82 fa dunque corrispondere alla n-pla delle componenti, rispetto a 81, di un vettore v di vn la n-pla delle sue componenti rispetto a
82.
.
La matrice regolare E E GLn(]I{) associata a <l>13 1 , 132 relativamente alla base naturale
di ]!{n detta matrice del cambiamento di base da 8 1 a 8 2 .
Pertanto, posto

(x)

e: )'

le equazioni del cambiamento di base


sono:

<l>13 1 ,13 2

(y)

e)'

(relativamente alla base naturale di ]!{n)

(y)=E(x)
La seguente proposizione consente di ottenere la matrice E direttamente dalle basi
81 e 82.

5. TRASFORMAZIONI LINEARI

98

Proposizione 5.19. La matrice E del cambiamento di base da Bi a B2 la matrice


delle componenti di B1 rispetto a B2.

Dimostrazione. Sia B = (e1) ... ) en) la base naturale di !Kn. Posto Bi = (e1 '.... ) ~n)
ed E = (a;), ricordando che, per ogni j ~ Nn, la j~esi~a colonna aj d1 E e il
trasformato di ej mediante <f>Bi,B2 (Osservaz10ne 5.5), SI ha.

aj = <f>B 1 ,B2(ej) = <f>B2


o, equivalentemente, ej

=B 2

(1, 2)

Sistemi Lineari

(a}, ... , aj)

..,. Osservazione 5 .9. Se E la matrice del cambiamento di base da Bi a B2, allora


la matrice del cambiamento di base da B2 a Bi F = E- 1 .
Infatti, si ha evidentemente '1>B 1 ,B2 = <1>5;, 81 ; d'altra parte, da (y) = E (x) segue
subito, moltiplicando a sinistra per E- 1, (x) = E- 1 (y).
Se, ad esempio, B 1 =
avendosi owiamente

CAPITOLO 6

<f>i311(ej) = <f>B2(<f>8:(ej)) = <f>B2(ej)

la base naturale di IR 2 e B2 la base ((1, 2), (2, -2)) di IR 2,


=.B 1

(1, 2)

. si ha subito che
F

= (;

(2, - 2)

=:.B 1

(2, -2)

1. Sistemi lineari e loro risolubilit

Definizione 6.1. Diremo sistema lineare di m equazioni in n incognite, a coefficienti nel campo IK, una coppia S = (A, b), dove A = (aj) E Mmxn(IK) e
b = ( bl' ... ' bm) E !Km.
La1 matrice A detta ~~Qmu"{fjj]o matrice dei coefficienti; la m-pla b
(b , ... , bm) E !Km e la[Q!9;tri~ill!}i.

!2)

(b)

la matrice del cambiamento di base da B2 a B1.


Dunque se (xl, x2) e (yl, y2) indicano rispettivamente le componenti di uno stesso vettore
di IR 2 rispetto a B1 e a B2, si ottiene

G~) = (

! (~~)

F -1 --

1/3 1/3 )
1/3 - 1/6 '

2 )

c. )
E

Mm"(OC)

sono dette rispettivamente m -pla e colonna dei termini noti.


La trasformazione lineare standard T : JKn -+ JKm, avente A quale matrice associata
relativamente alle base naturali di JKn e JKm, sar detta, a sua volta, ass~ciata al
sistema lineare S.
1
Se (x , ... , xn) una n-pla di simboli, detti incognite, posto

e, conseguentemente, essendo
(

(~~) = F-l. G~) = ( ~~~

!06 ) G~).

Allo stesso risultato si perviene ricercando direttamente la matrice E del cambiamento d1


base da B1 a B2. Infatti, poich

(1, O)
si ottiene:

=B2

(~ ,~)

E=( 1/3
1/3

(0, 1)

=.B 2

(~ ,-~),

1/3 )
-1/6 .

il sistema lineare S
equivalenti:

= (A, b)

, di solito, rappresentato da una delle seguenti scritture

atx

(6.1)
{

+ + a;,xn = b1

~f x 1 + + a;xn = b~

(6.2)

''ai.xi = bi
~

'

j=l

Dal Teorema 5.11 segue inoltre che, se E la matrice del cambiamento di base da
B 1 a B2 e G la matrice del cambiamento di base da B2 a B3, allora la matrice del
cambiamento di base da B1 a B3 G E.

(6.3)

A . (x) = (b).

Per ogni i E Nm, l'espressione:

a'1. xl+ .. . + ain xn -- bi

l. SIST EMI LINEARI E LORO RISOLUBILIT

6. SISTEMI LINEARI

100

t a;x

o, in forma compatta,
(

1 =

101

Esso ha equazioni:

bi) ,

J,>_..-A-'I
I t 3-JJ-l9 =-t.

x+y=l
{ 3x- 2y = -4
che possono anche essere espresse come segue:

j=l

detta i-esima equazione (lineare) del sistema lineare S . Si dice anche che S ha
.
i
equazioni (6.1), (6 .2) o (6.3).
Si dice poi matrice completa del sistema lineare S = (A, b) la matnce C = (ck) E
Mmx (n+i)(OC), le cui n + 1 colonne c 1 , . . . , Cn, Cn+l sono nell'ordine ai, . . . , an, b. In
altre parole:
aln

! ,,.
,,
L -s1::-+ lJ- ,~
X~

(~

k=-lfs

+ Definizione 6.2.

Se S' e S" sono due sistemi lineari, rispettivamente di h e di


k equazioni, nello stesso numero n di incognite, si dice sistema unione di S' e S" il
sistema lineare di h + k equazioni in n incognite S = S' U S" tale che S(l , ... , h) = S'
e S(h + 1,. . ., h + k) = S".

Si osservi che la i-esima riga della matrice completa C fornisce i "coefficienti delle
incognite" ed il "termine noto" della i-esima equazione del sistema S .

Ad esempio, se S' ed S" hanno equazioni


Un sottosistema di S un sistema lineare le cui equazioni sono un sottoinsieme delle

{ 3x +4y =

S(i1,. . ., ih)

2 '

rispettivamente, allora S' U S" ha equazioni:

X+ 2y = 1
3x +4y = 2
5x + 6y = 3
7x +By= 4
9x + lOy = 5 .

Esempio 6 .1. Se

~-= (~I i2) EMa :


. A:

5x + 6y = 3
7x +By= 4
{
9x + lOy = 5

X+ 2y = 1

.
, . .
equazioni di S .
Il sottosistema di S costituito dalle equazioni di indice ii , . . . , ih sara md1cato con

(Q)

la coppia S = (A , b) un sistema lineare di

b~ (1,0,-4) EQ'

e"

ff

..

equazion'. in 2 ~n~ogn~te, a coe 1c1ent1

in

~(J.. Ql, avente A quale matrice incompleta, b quale terna dei termini noti e

'~~\Q..

" e ~I
= (

~~

i2

V +Definizione 6.3. Se S = (A, b) un sistema lineare di m equazioni in n incognite

)
E

of;,_ ' /fjMA"-."

quale matrice completa .


\..1
. .
Indicata con (x, y) la coppia delle incognite, il sistema S ha equazioni :

VvJ1

1 )
CJ~
~JLJ: ) ~ (1)
~4
A=

( 1

r- (b) = {x = (x
1

' ...

'xn)

si dice spazio

ocn I T (x) = b}.

. _
5

lf

1t
.

b = (1, -4).

J e,-

- -

Il sottosistema costituito dalla prima e dalla terza equazione di S S(l , 3) = (A, b), dove
-

Sol (S) =

s,

Si dice poi che S possibile o compatibile ris:rettivamente fijjij)ossibile] o fij_compalib''f!!/'/}


se Sol (S) =I- 0 (rispettivamente s
= .
Se S compatibile, si dice ~di Sogni elemento di Spl '~
11- ~ In altre parole, S impossibile se non ammette alcuna soluzione, ja..~;
..,..o
S , invece, possibile se ammette almeno una soluzione, cio se b E Im T.
J(S Una n-pla x = (x1 , . . . , xn) E ocn una soluzione per ilsistema lineare compatibile
~ ~6_ 1.., T S = (A , b) se e solo se, posto

x+ y = l
-x + 2y =o
{ 3x- 2y = -4
o equivalentemente:

e i' : ocn -+ ocm la trasformazione lineare standard associata ad


delle soluzioni di S l'insieme:

M a(Q)

.(!.,

('G}A/,,, t__

s~ tw-

-T

] SaR{S)

,.l+f)

(X)~(:),

si ha: A (x) = (b), essendo (b) la colonna dei termini noti.


In altre parole, una n-pla x = (x1, .. . , xn) di elementi di ]!( una soluzione di S se e

1. SISTEMI LINEARI E LORO RISOLUBILIT

6. SISTEMI LINEARI

102

103

t~'tf +Definizione 6.5.

solo se:

L a;xi =bi,

Vi E Nm,

' ' /,.a.

d Si osservi che un sistema lineare omogeneo S = (A, O) di me uazioni in n incognite)

j=l

cio, come si usa dire, se e solo se, sostituita alla n-pla delle incognite, "soddisfa" tutte
le equazioni di S.
Ad esempio, il sistema S dell'Esempio 6.1 impossibile, in quanto, come facile verificare, Sol S = 0. Invece il sottosistema S(l, 3) possibile e la sua unica soluzione

(-2/5, 7/5).

Un sistema lineare S = (A, O), avente la m-pla nulla quale m-pla


dei termini noti, detto/omogene~ J

:i~kj sempre c~mpatibiLe, in q~anto ar;imette sempre la n- la nulla

4~1
l

,'I/

unica equazione la i-esima equazione di S, si ha evidentemente:


Sol (S) =

ocn

Dimostrazione. Se T : ocn -+ ocm la trasformazione lineare standard associata ad


allora, per la Definizione 6.3,
Sol (S)

~ Osservazione 6.1. Se, per ogni i E Nm, S(i) denota il sottosistema di S la cui

o = o ... o

quale soluzione. Tale soluz10ne sara detta soluzion


nale
\/IJ. . propos1z1one
..
6.1. Lo spazio Sol (S) delle soluzioni di un sistema lineare omogeneo
-~ ~ S =(A, O) in n incognite un sottospazio vettoriale di ocn di dimensione n - g(A).

= f-

(0)

s
'

Kerf.

D'altra p~rte, per il Teorema 5.6, si ha: dim( Ker T) + dim( Im T) = n. Ricordato che
dim( Im T) = g(A) (Teorema 5.16), si ottiene allora dim(Sl (S)) + g(A) = n.
Ci conclude la prova.

Sol (S(i)).

iENm

Se ne deduce immediatamente che, se X: = (x 1 , ... , xn) una soluzione del sistema


lineare S, allora X: anche soluzione di tutti i sottosistemi di S .
pertanto, se S = S' U S", allora
Sol (S) = Sol (S') n Sol (S").
+ Definizione 6.4. Due sistemi lineari S' e S", nello stesso numero di incognite si
dicono equivalenti se Sol (S') =Sol (S").
Si noti che, permutando le equazioni di un sistema lineare S, si ottiene un sistema
equivalente ad S.
~

Osservazione 6.2. Lo spazio delle soluzioni dell'equazione lineare:


O x 1

+ O x 2 + + O xn

= b

ocn se b =o, mentre 0 se b =I- o.


Pertanto, se in un sistema S compare almeno una equazione siffatta, con b =f. O, allora
S impossibile; se invece, b = O, allora il sottosistema ottenuto da S "cancellando"
tale equazione equivalente a S.
Lo studio di un sistema lineare S pone innanzitutto il seguente problema:

S compatibile o incompatibile?

Si us~ an.ch~ enunciare la Proposizione 6.1 dicendo che S ammette esattamente n-g(A)
soluzioni linearmente indipendenti e tutte le altre soluzioni sono loro combinazioni
lineari.
~ Osservazione 6.3. facile rendersi conto che un sistema lineare S ammette la
soluzione banale se e solo se omogeneo.
Per la Proposizione 6.1, ci consente di affermare che Sol (S) un sottospazio vettoriale
di ocn se e solo se S un sistema lineare omogeneo (in n incognite).

Affrontiamo ora lo studio di un sistema lineare arbitrario S = (A, b), di m equazioni in


n incognite. Indicata con C la matrice completa di S, il problema della compatibilit
di S completamente risolto dalla seguente:
Proposizione 6.2. (Teorema di Rouch 1
possibile se e solo se g(A) = g( C).

Capelli 2 )

Un sistema lineare S

Dimostrazione. Avendo C esattamente una colonna in pi rispetto ad A, per la


definizione di rango, si ha

= g(A)
oppure
g(C) = g(A) + 1.
Inoltre l'uguaglianza g(C) = g(A) vale se e solo se la m-pla b dei termini noti combig(C)

nazione lineare delle colonne a 1 , ... , an di A, cio se e solo se esiste x


ocn tale che

(x 1 , ... , xn)

Laixi =b.
Nel caso in cui S sia compatibile, lo studio prosegue con la risoluzione del sistema S,
cio con la determinazione effettiva dello spazio delle soluzioni Sol (S).
Affronteremo preliminarmente lo studio di una classe di sistemi lineari, per i quali
il problema della compatibilit banale e la struttura dello spazio delle soluzioni
particolarmente semplice.
Tale studio ci servir di supporto per determinare la struttura dello spazio delle
soluzioni di un sistema lineare compatibile arbitrario.

j=l

Dunque g(A) = g(C) se e solo se esiste X: E ocn che sia soluzione di S .

1Eugne Rouch: matematico francese (Soummires, 1832 - Lune!, 1910).


2 Alfredo Capelli: matematico italiano (Milano, 1855 - Napoli , 1910).

6. SISTEMI LINEARI

104

2. METODI DI RISOLUZIONE PER SISTEMI LINEARI

.,.. Osservazione 6.4. Il teorema di Rouch-Capelli vale, in particolare, per i sistemi


omogenei; in tal caso tuttavia, dal momento che b = O, si ha subito e(A) = e(C) e
quindi esso non fornisce alcuna ulteriore informazione oltre a quella, evidente e gi
sottolineata, che ogni sistema omogeneo ammette sempre almeno la soluzione banal,e .
Al fine di determinare la struttura dello spazio delle soluzioni di un generico sistem\
lineare compatibile, premettiamo la seguente

\j + Definizione 6.6. Dato il sistema lineare S = (A, b), si dice sistema lineare omogeneo associato ad S il sistema So = (A, O), ottenuto sostituendo la m-pla nulla alla
m-pla b dei termini noti.

Teorema 6.3. Se S = (A, b) un sistema lineare compatibile (in n incognite)' e


X E Sol (S), allora si ha che Sol (S) ={:X E ocn I X - X E Sol So}.

Dimostrazione. Se :X E
rispettivamente, si ha:

ocn,

105

2. Metodi di risoluzione per sistemi lineari

. . 6.7.. U~ sistema lineare S =(A, b) si dice normal


+ Defimz1one

r;~<Y

di JPymerj}(di ~
ordin.e n) se la matnce.mcor:ipleta A quadrata (di ordine n e regolare.
~
yn sis~em~ normale di ordme n ha dunque lo stesso numero n di equazioni e di lh
A.
mcogmte; i.n~ltre detA =f. O, ovvero e:A) = n.
e:~

Propos1z10ne 6.5. (Teorema d1 Cramer) Ogni sistema lineare normale S = ~


(A, b) di ordine n ammette una ed una sola soluzione X:= (x1, .. . , xn). Con le usuali Pf~
notazioni, si ha inoltre:
~
~ ~ x ~ ( ~.,
-.,)
P A~
(x) = A- 1 (b),
..:~. x
~ ~u,.,l.j.

(')

j (") (Formula di Leibniz 5


,

dette (x) e (x) le colonne delle componenti di :X .e X:

.J

Cramer):

xi=

. Vi E Nn,

~ }~
f)l: {A(x l)= ~ {1;,: . /:Jjf
.

(detDi). (detA)- 1 ,

dove Di e la matrice ottenuta da A sostituendo alla sua i-esima colonna la colonna


dei termini noti.

X E Sol (S) {::}A. (x) = (b) = A . (x) {::}A. (x - x) = (O){::} X - X E Sol (So).

Dimostrazione. Se C E Mnx (n+l) (OC) la matrice completa di S, si ha evidentemente:


e( C) .= e( A) = n. Il Teorema di Rouch-Capelli ed il Corollario 6 .4 (a) provano allora

Si pu anche enunciare il Teorema 6.3 affermando che le soluzioni di un sistema lineare


possibile si ottengono sommando ad una sua particolare soluzione, arbitrariamente
fissata, le soluzioni del sistema lineare omogeneo associato.

la pnma parte del Teorema.


S_i ~a inoltre,.A (x) =~\b). Moltipl~cando entrambi i membri di t,l\i~ uguaglianza a
smistra per 1 mversa A
della matrice (regolare) A, si ottiene (') .1'
Pe.r provare(") si ricordi (Teorema 3.19 (b)) che, se Alt= (k) E Mn(OC) la matrice
1
dei complementi algebrici degli elementi di A, si ha

.,.. Osservazione 6.5. L'applicazione Tx. : ocn --+ ocn, definita ponendo, per ogni
u E ocn, Tx. (u) = u + :X una biiezione, detta traslazione di ampiezza :X.
Per il Teorema 6.3, se :X E Sol S, si ha Tx.(Sol S 0 ) =Sol S. Ci giustifica la locuzione:
lo spazio delle soluzioni Sol S si ottiene traslando Sol So m ediante :X.
Si osservi che, di conseguenza, Sol S e Sol So sono in corrispondenza biunivoca.
Ricordando (Proposizione 6.1) che Sol S 0 un sottospazio vettoriale di dimensione
n - e(A), si usa anche dire che un sistema lineare possibile S ammette oon-e(A)
soluzioni.

A- 1 = (detA)- 1 . t(Alt).
Da (x) = A- 1 (b) segue allora, per ogni i E Nn,

x'

~ t,(det A)- A{IJ ~

in quanto

Il rango e(A) della matrice incompleta A (che, per il Teorema di Rouch-Capelli,


coincide con il rango e( C) della matrice completa C) sar anche detta rango del
sistema possibile S.
Dalla Osservazione 6.5 si ottiene immediatamente il seguente:
l)~-Wl/11Jtt1-0

>~G

dett~ermin~ In

caso

(t

iJ A{) (det A)- 1

~ (det D;). (det A)-1,

I:7=l bi A{ lo sviluppo di Laplace di det Di secondo la i-esima colonna.


o

Ad esempio, il sistema S di equazioni

3'. ~'1"'4. S.~ n""f(e)

Corollario 6.4. (a) Un sistema lineare possibile ammette una ed una sola soluzione 3
se e solo se il numero delle incognite coincide col ucu:.ango.
(b) Un sistema lineare omogeneo ammette soluzioni diveue dalla soluzione banale se
e solo se il numero delle inPfgpitfi Jtrettamente m aggiore del suo ran!J!!.

3Un sistema lineare possibile che ammette una sola soluzione


contrario esso detto indeterminato.

3x -y+ 7z = 1
y + 2z = 3
{ -x+z = -2
normale, in quanto

~
~
l> s~1

-1
1

= 12.

:Gabriel Cramer:. matematico izzero (Ginevra, 1704 - Bagnoles, 1752).


Gottjried W. Leibniz: filosofo e matematico tedesco (Lipsia, 1646 - Hannover, 1716).

6. SISTEMI LINEARI

106

La sua (unica) soluzione (x,

2. METODI DI RISOLUZIONE PER SISTEMI LINEARI

107

intendendo, dunque, che:

y, z) :

1
10

== - .
12

d= L

detD1
=
detA

1
3
-2

X= - - -

-1
1

Ad esempio, l'equazione lineare 3x - y


del sistema S:

2
1

o
z=

2
1

-1
1

-1

1
3
-2

12

22
12

+Definizione 6.8. Un sistema lineare S si dice minimo se il rango della sua matrice
40

10

12

3'

2
12

==--

completa C coincide con il numero delle sue equazioni.


In altri termini, S minimo se le sue equazioni sono linearmente indipendenti.
Proposizione 6.6. Ogni soluzione di un sistema lineare S = (A , b) anche
soluzione di tutte le equazioni che sono combinazioni lineari delle equazioni di S.
Dimostrazione. un semplice calcolo.

1
6

Corollario 6. 7. Se un sistema lineare S contiene una equazione che combinazione lineare delle rimanenti, il sottosistema di S ottenuto eliminando tale equazione
equivalente ad S .
D

Corollario 6.8. Dato un sistema lineare S , esiste sempre almeno un sistema


lineare minimo equivalente ad S .

dove a- 1 l'elemento inverso di a in OC.


La soluzione di un sistema lineare normale fornita dal Teorema di Cramer "imita" tali
semplici considerazioni, sostituendo il calcolo matriciale alle operazioni tra elementi
di oc.

xl, ...

Ad esempio, il sistema lineare S di equazioni :

4x+z=ll
5x + y + z = 21
{ 3x -y + z = 1

(A, b) un generico sistema lineare di m equazioni nelle n incognite

,xn.

Se k E Nm, si dice che k equazioni di S sono linearmente dipendenti (rispettivamente


indipendenti) se tali risultano le corrispondenti righe della matrice completa di s.
Se E l'equazione lineare c1x 1 + + CnXn = d (nelle stesse incognite x 1, . . . , xn),
si dice che E combinazione lineare delle h equazioni S(ii) , .. ., S(ih) del sistema
S , mediante gli scalari a1, .. . , ah E OC, se la (n + 1)-pla (c1, ... , Cn, d) E ocn+l
combinazione lineare delle righe della matrice completa C aventi per indici ii, ... , ih,
mediante gli scalari a 1, ... , ah
Scriveremo in tal caso,

E= L
r= l

ar S(ir)

11

6'

x = a- 1 b

+ z = 21

mediante gli scalari 2, -1 E R

11

..,.. Osservazione 6.6. Se ax = b una equazione lineare nell'incognita x (a coefficienti


in OC), con a-/=- O, allora l'unica soluzione evidentemente data da:

Sia ora S

+ z = 1 combinazione lineare delle 2 equazioni

4x + z
{ 5x + y

12
1
3
-1 -2
12

detD3
--detA

owero, mediante la formula di Leibniz-Cramer:

arbir

r=l

non minimo, in quanto la terza equazione combinazione lineare delle prime due e
pertanto li( C) ::; 2.
Il sottosistema formato dalla prima e dalla seconda equazione di S minimo ed equivalente ad S.

+Definizione 6.9.

Si dice che un sistema lineare S' ottenuto da S mediante una


trasformazione elementare di riga di tipo T1, T 2 , T~, T3 se la matrice completa C' di S'
ottenuta applicando alla matrice completa C di S la corrispondente trasformazione
elementare di riga (Definizione 3.13) .

6. SISTEMI LINEARI

108

Corollario 6.9. Sia S un sistema lineare. Il sistema lineare S' ottenuto da S


mediante una arbitraria trasformazione di riga equivalente ad S.
Dimostrazione. L'equivalenza per trasformazioni elementari T 1 (scambio di due equazioni) evidente.
L'equivalenza per trasformazioni elementari T 2 (o T~) e T 3 si ottiene applicando la
Proposizione 6.6 e il Corollario 6.7.
D

Descriviamo ora due algoritmi che consentono di determinare lo spazio Sol (S) delle
soluzioni di un generico sistema lineare S =(A, b) di m equazioni in n incognite.
Il primo di tali algoritmi fa uso del Teorema di Rouch-Capelli e del Teorema di
Cramer; il secondo basato sulla possibilit di trasformare la matrice completa C di
S in una matrice completamente ridotta, mediante trasformazioni elementari di riga
(si veda 3 del Capito o 3 e, in particolare, il Teorema 3.9).

2. METODI DI RISOLUZIONE PER SISTEMI LINEARI

essendo, per ogni i E Nh e j E Nn-h, a} e [Ji opportuni scalari di JK.


Si osservi che, se h = n allora S' normale, coincide con S" e la n-pla ({3 1, ... , {Jn) E
ocn la sua unica soluzione.
4) Lo spazio Sol (S) =Sol (S') dunque costituito da tutte e sole le n-ple (x 1, .. . , xn) E
in cui xq(h+l), .. . , xq(n) sono arbitrari scalari t 1, ... , tn-h di OC, mentre xq(l), . .. ,
xq(h) si ottengono come loro funzioni, mediante le formule (6.4).

ocn,

~ Osservazione 6. 7. L'algoritmo A dipende in maniera essenziale dalla scelta del


minore M.

Esempio 6.2. Sia S il sistema lineare, a coefficienti in JR, di equazioni :

5x 1 - 2x 2 - 7x3 - x 4 = 3
3x 1 - 2x 2 + x 3 - x 4 = 7
1
3
{ x 1- 4x 2= -2 3
2x - 2x + 5x - x 4 = 9.

Algoritmo A
1) Si calcoli il rango {!(A) della matrice incompleta A ed il rango {!(C) della matrice
completa C di S . Per il Teorema di Rouch-Capelli, si ha Sol (S) = 0 se e solo se
{!(A) i- {!(C). Supponiamo dunque {!(A)= {!(C) = h :'.S min{m, n}.
Se h = m = n, allora il sistema S normale e la sua unica soluzione ottenibile
mediante il Teorema di Cramer.
2) Si fissi un minore M di A di ordine h, con det M i- O. Poich una permutazione delle equazioni di S trasforma tale sistema in uno equivalente, si pu sempre
supporre che l'insieme degli indici di riga di M sia I = {1,2, . . . ,h}.
Esister
inoltre una permutazione q E Sn, tale che l'insieme degli indici di colonna di M sia
J = {q(l), q(2), ... , q(h)}. Per il Lemma 5.17, le prime h righe di C sono linearmente indipendenti e, poich {!( C) = h, le restanti righe sono combinazioni lineari delle
prime h. Per il Corollario 6.7, il sottosistema S' costituito dalle prime h equazioni di
S minimo ed equivalente ad S .
Si osservi che, se h = m, allora S gi un sistema minimo e pertanto S' coincide con S .
3) Posto

al

= t 1, ... , xq(n) =
xq(l) + ... +al

...

..
.

xq(h+l)

q(l)

ah xq(l)
q(l)

q(h)

tn-h,
xq(h)

+ ... +ahq(h) xq(h)

si riscriva il sistema S' nel modo seguente:


_ bl _al
tl _ ... _al tn-h

.
..

q(h+l)

q(n)

..
.

_ bh _ ah
tl
q(h+l)

_ ... _

..

ah
tn-h
q(n)

In altre parole, si interpreti S' come un sistema lineare normale S" di ordine h,
avente M quale matrice incompleta, nelle h incognite xq(l), ... , xq(h), considerando le
rimanenti n - h incognite xq(h+l), . .. , xq(n) di S' come "parametri indipendenti".
Risolvendo il sistema S" con la Formula di Leibniz-Cramer si ottiene allora:
xq(l) = a~tl + . . . + a~_htn-h + [Jl
(6.4)
{

xq(h)

= a~tl + . .. + a~_htn-h +

[Jh

109

Dal momento che {!(A) = {!(C) = 2, S possibile ed ammette


M

= (

00 2

soluzioni . Il minore

~ ~2)'

avente I = {3, 4} e J = {1, 2} quali indici di riga e di colonna ha det M = -2


Pertanto S equivalente al sottosistema minimo S' di equazioni :
x 1 - 4x 3 = -2
{ 2x 1 - 2x 2 + 5x 3 - x 4 = 9.

-f.

O.

Posto x 3 = t 1, x 4 = t 2, il sistema S' pu essere riscritto come segue:


x 1 =-2+4t 1
{ 2x 1 - 2x 2 = 9 - 5t 1 + t 2,
che d :

x 1 =-2+4t 1
{ x2 = - 13 + 13 tl - ~t2.
2
2
2

Quindi
Sol(S) = { (x 1 ,x2 ,x3 ,x4 ) E JR4 I x 1 =-2+4t1,
= - 13 + 13 tl - ~t2 x3 = t1 x4 = t2}
2
2
2 '
'
.
Si osservi che lo spazio vettoriale delle soluzioni del sistema lineare omogeneo S 0 associato
ad S il sottospazio vettoriale di JR 4 :
x2

U =Sol (So)= { (u1,u 2 ,u3 ,u4 ) E IR 4 I u 1 = 4t1,


u2

= 13 tl 2

~t2
u3 = tl u4 = t2}
2 ,
'
,

avente dimensione 2. Infatti, assegnando alla coppia (t 1, t 2) rispettivamente i valori (1, O)


e (O, 1), si ottiene la base B = {(4, 13/2, 1, O) , (O, -2, O, 1)} di U.

110

6. SISTEMI LINEARI

Inoltre una soluzione particolare per S X:= (-2, -13/2, O, O) (ottenuta per t 1 = t 2 =O).
Ci conferma che Sol S ottenuto traslando U mediante X:.

Esempio 6.3. Sia s il sistema lineare dell'Esempio_6.2. Scambia_ndo tr.a loro la prim'a e
la terza equazione, si ottiene un sistema lineare equivalente, la cui matrice completa e.

e~ U~~ ~: ~t T)

Algoritmo B (Procedimento di Gauss-Jordan 6 )

1) Si consideri la matrice completa C di S e la si muti, mediante una successione di


trasformazioni elementari di riga, in una matrice C' ridotta a gradini.
Per il Corollario 6.9, il sistema lineare S' avente C' quale matrice completa equivalente ad S. Sia e(C') = h. Se l'h-esimo elemento speciale cjh di C'appartiene alla sua
ultima colonna (cio alla colonna dei termini noti di S') , allora la h-esima equazione
lineare di S' ha tutti i coefficienti delle incognite nulli ed il termine noto non nullo.
Ci prova (Osservazione 6.2) che S' , e dunque S , impossibile.
Del resto le ultime m - h righe di C' sono tutte nulle e pertanto, in tal caso,
e(A') = h - 1 f:. h = e(C'); l'impossibilit di S' quindi provat a anche dal Teorema di Rouch-Capelli.
Supponiamo ora jh < n + 1, cio che cjh non sia un t ermine noto di S' .
2) Sia e' E Mhx(n + l)(JK) la sottomatrice di C' costituita
_ , dalle sue prime h righe.
Sia poi C" la matrice completamente ridotta ottenuta da C mediante trasformazioni
elementari di riga ed S" il sistema lineare avente C" quale matrice completa. S"
equivalente ad S' (e dunque S); si ha inoltre e(C") = e(C') = h (Osservazione 5.8).
Dalla Definizione 3.12 di matrice completamente ridotta segue che il sist~a lineare
S" assume la forma seguente:
{ x'(' )

+.X1 xq( h+l)

+ . .. +

+.Xixq(h+l)

+ ... + ~-h xq(n) = 2

Operando su C mediante operazioni elementari di riga (di tipo T1 e T2 ) , si ottiene la


matrice ridotta a gradini :

C'

u~2 ~f ~l -2 )
13

o
o

Poich il secondo (ed ultimo) elemento speciale di C' non appartiene all'ultim~
.
go
d1ran 2
,
bI
Q d'
h I
uin 1 anc e 1
colonna, il sistema S' avente C' quale matrice completa e poss1 1e.
sistema S possibile.
Per risolverlo, basta considerare le prime due righe di C' e_d ottenere, mediante una

opemiooe e(emen1'<e di :,o

:J(,(: m~"ic~~mpt"'-~te)ndott
o

Posto

x3 = tl, x4 =

x1

{ x2

4x 3 = -2
13 3
1 4
- X + - X
2
2

= - 1~1

~~htn-h

+ ~l

xq(h)

- ~ tl - ... - ~ - htn-h

+ h

_ . .. _

Lo spazio Sol (S) si ottiene quindi operando come nel passo 4 dell'Algoritmo A .

Jordan: matematico francese (Lione, 1838 - Parigi, 1922).

~t 2 .
2

s = (A, o) un sistema lineare omogeneo minimo di n-1 equazioni in n


incogni't e (ovvero. A E M (n - 1) xn (JK) con "'n(A) = n-1). Allora,
detta Mj . E Mn- 1(lK),
.
Il
E 1M la matrice ottenuta cancellando la j-esima colonna d1 A, una soluzione non nu a

Esempio 6.4. Sia


J

l'ln,

del sistema

x=

(det M 1 , - det M 2 , ... , (-l)j+l det Mj, . .. , (-lt+l det Mn)

e Sol (S) = L(x). Infatti, considerata, per i E Nn- 1, la matrice Ni =

(~j) E Mn(lK) le

SI ha banalmente
cui n nghe sono
- a ,
- a , ... ,
,

.
.
detNi =o per ogni i E Nn- l (dato che la matrice contiene due nghe_ uguah) . ~un~ue'.
:X soluzione di s in quanto, dallo sviluppo di Laplace secondo la pnma nga d1 N , s1

ottiene:
6 Camille

13
2

= --

x 2 = _ 13 + 13 t 1

essendo q E 6n una opportuna permutazione (applicata alle colonne di C ") .


Si osservi che S" un sistema minimo.

xq('.l)

-2

t 2 , si ottiene, come gi nell 'Esempio 6.2:


x 1 =-2+4t

(6.5)

Il sistema lineare S" avente C" quale matrice completa ha equazioni :

~-hxq(n) = l

3) Considerando ora le n - h incognite xq(h+l), ... , xq(n) come parametri, posto


xq(h+l) = t 1 , ... , xq(n) = tn-h, si ottengono subito le seguenti formule, analoghe
alle formule (6.4) dell'Algoritmo A:

111

2. METODI DI RISOLUZIONE PER SISTEMI LINEARI

dl _

d2 _

j=l

j=l

ds = as - 1 . . . dn = an-l,

L ajxi = L aj(-l)i+l det Mi= detN' =O

Vi E Nn-1

6. SISTEMI LINEARI

112

Il fatto che tale soluzione sia non nulla e che generi Sol (S) conseguenza diretta di

e(A)

=n-

1.

determinante nullo.
Il sistema lineare omogeneo S di n - h equazioni in n incognite:

~:~z::~

:~

detMn

=O

{
3. Rappresentazioni dei sottospazi vettoriali
Nel presente paragrafo, considereremo solo sottospazi di uno spazio vettoriale v n di
dimensione finita n sul campo K B indicher una fissata base ordinata di vn.
Ci poniamo ora il problema di rappresentare tramite "sistemi di equazioni" i sottospazi di v n .
Esistono fondamentalmente due tipi di rappresentazioni: cartesiane e parametriche.

(I)

Rappresentazione cartesiana.

Diremo che un sistema lineare omogeneo S = (A, O) di m equazioni in n incognite


rappresenta un sottospazio vettoriale Uh di v n, relativamente alla base B , se Uh
coincide con l'insieme

113

3. RAPPRESENTAZIONI DEI SOTTOSPAZI VETTORIALI

rappresenta dunque Uh, rispetto alla base B.


Si osservi che S necessariamente un sistema lineare minimo per la Proposizione 6.1 ,
in quanto dim(Sol S) = dim Uh = h .

..,. Osservazione 6.8. La Proposizione 6.1 e l'Osservazione 5.1 permettono di affermare che il Teorema 6.10 invertibile, nel senso che, fissata una base B di v n,
ogni sistema lineare omogeneo S di m equazioni in n incognite e rango e(A) = n - h
rappresenta un sottospazio vettoriale uh di vn.
..,. Osservazione 6 .9. La rappresentazione di Uh (rispetto alla base B) mediante il
sistema lineare S non unica, in quanto S dipende dalla scelta della base { u1, . . . , u h}
di Uh e dal minore M nella' matrice H.

o, 1, O)
=B (x, y, z, w) E V 4 appartiene ad U 2 se e

Esempio 6.5. Nello spazio vettoriale V 4 su JR siano U1 =B (1, 1, 1, 2), U2 =B (-1,

ovvero se l'insieme delle componenti dei vettori di Uh, rispetto a B, coincide con
Sol (S) . In tal caso, si ha necessariamente e(A) = n - h.
Le equazioni A (u) = (O) del sistema S si dicono equazioni cartesiane o, pi semplicemente, equazioni del sottospazio U h (relativamente a B ).

J Teorema 6.10.

Ogni sottospazio vettoriale h-dimensionale Uh di vn (O< h < n )


pu essere rappresentato, relativamente a B, da un sistema lineare omogeneo minimo
di n - h equazioni in n incognite.

Dimostrazione. Sia { U1 , ... ' uh} una base di uh. Se V =B (x 1' . . . 'xn) un generico
vettore di v n e se, per ogni i E Nh, U i =B (u}, . .. 'ui), sia
ul
1

e U 2 = L(u1, u2) . Un generico vettore


solo se la matrice:

H=
ha rango 2.
Scelto il minore
M

= (

~ ~1

) '

con det M = 1 =f. O, baster imporre che i due orlati di M abbiano determinante nullo.
Ci porta al sistema lineare omogeneo minimo S di equazioni:
X

y
z
la matrice delle componenti della (h + 1)-pla (v, u 1 , ... , uh), rispetto a B.
Si osservi che la lineare indipendenza di (u 1 , ... , uh) implica la lineare indipendenza
delle ultime h colonne di H. Pertanto, h :::; e(H) :::; (h + 1). Inoltre esiste un
minore Mdi H individuato da un opportuno insieme di h indici di riga e dall'insieme
{2, 3, ... , h + 1} di indici di colonna avente determinante non nullo.
Poich v E Uh = L(ui, ... , uh) se e solo se (x1, ... , xn) E L((uL ... , uf ), .. .,
(uh, . . . , uh)), si ha dunque v E U h se e solo se e(H) = h, ovvero, per il Teorema
di Kronecker, se e solo se gli n - h orlati Mh+i, .. . , Mn del minore M in H hanno

1
1
1

-1

=0

1
e cio

y
w

1
1
2

-1

o
o

che rappresenta U 2 rispetto a B.


Scelto invece il minore

=0

1
M'= ( 2

),

2y+ Z = 0
2y-w =O

X -

114

6. SISTEMI LINEARI

lo stesso procedimento produce il sistema S' di equazioni:

x+z-w=O
{ 2y-w =O
equivalente ad S.
Si osservi che U 2 = L(w1, w2). dove W1 =B (O, 1, 2, 2) e W2 =B (2 , 1, o, 2) .

(I I)

Rappresentazione parametrica.

Si noti che, come gia osservato nella dimostrazione del Teorema 6.10, se il sottospazio
U1 =.B ( U~, ... , u_'), ... ,
uh =B (u}., ... , uh), allora un vettore generico v =B (x 1 , ... , xn) E Uh se e solo se
v E L(u1 , ... , uh); ci6 equivale ovviamente alla esistenza di h scalari t 1, . . . , th E lK tali
che v = t 1 u 1 + + thuh. Pertanto, tutti e soli i vettori v E Uh ammettono, rispetto
a B, componenti (x 1 , ... , xn) che si ottengono, al variare dei parametri t 1 , .. . , th E JK,
da
Uh di Vn generato dai vettori linearmente indipendenti

Le corrispondenti equazioni
ovvero
{

~1 = u~tl
..
..

xn

+ . .. +u}.t.h
..

u_'t + + uhth,
1

sono dette equazioni parametriche di Uh (relativamente a B).


Si osservi che, fissata B, le equazioni parametriche non sono uniche, in quanto dipendono dalla scelta della base (u 1 , . . . , uh) di Uh.
Esempio 6.6. Se U 2 = L(u 1, u 2) ancora il sottospazio di V 4 , generato dai vettori.
u1 =B (1, 1, 1, 2) e u2 =B (-1, O, 1, O) (Esempio 6.5), allora le equazioni parametriche di
U 2 sono:
X= tl - t2
y = tl
owero
z = tl + t2
{

w
Se, invece, si considera U 2
allora si ottiene:

= L(w1 , w2)

= 2t 1

con W1 =B (0, 1, 2, 2) e W2

X=

2s 2

Y=

sl

+ s2

z = 2s 1

w = 2s 1 +2s 2 .

=.B

(2, 1, 0, 2),

3 . RAPPRESENTAZIONI DEI SOTTOSPAZI VETTORIALI

115

.,. Osservazione 6.10. Se il sottospazio Uh rappresentato, rispetto alla base B di


yn dal sistema lineare omogeneo minimo S, allora per ottenere un sistema di equazio~i parametriche di Uh, basta determinare una base di Uh (cio h vettori linearmente indipendenti) ed applicare poi il metodo appena descritto.
Viceversa, data una rappresentazione parametrica di Uh, rispetto alla base B di vn,
i coefficienti degli h parametri forniscono le componenti, rispetto a B, di h vettori
(linearmente indipendenti) che generano U\ il metodo descritto nella dimostrazione
del Teorema 6.10 produce allora un sistema lineare omogeneo minimo S che rappresenta Uh.
Si osservi ancora che gli Algoritmi A e B di risoluzione dei sistemi lineari descritti nel
2, producono entrambi particolari sistemi di equazioni parametriche per uh.

CAPITOLO 7

Autovalori ed autovettori
1. Autovalori ed autospazi di un operatore lineare

Nel presente paragrafo V indicher uno spazio vettoriale


Se E lK e T un operatore lineare su V, poniamo:
U

= U(T) = {v E V I T(v) =

Proposizione 7 .1. Per ogni scalare

~ul

campo OC.

v} .

E JK, U un sottospazio vettoriale di V .

Dimostrazione. facile verificare che U linearmente chiuso.

+Definizione 7.1.

Uno scalare E lK detto autovalore dell'operatore lineare T su


V se il sottospazio U (T) di V non si riduce al solo vettore nullo O di V.
In tal caso, U(T) detto autospazio di T, relativo all'autovalore ; gli elementi di
U(T) sono detti autovettori di T relativi all'autovalore .

In altre parole,

E lK un autovalore di T

~e

esiste un vettore v

v.

(7.1)

T(v)

Gli autovettori di T relativi a


nullo O) soddisfacenti (7.1).
Si osservi che, per

O di V tale che:

sono tutti e soli i vettori v E V (compreso il vettore

=O, si ha Uo(T) = KerT.

Pertanto, O E lK un autovalore di T se e solo se T non iniettivo (Proposizione 5.2

(c) ).
Esempio 7.1. Sia T : JK 2 --+ JK 2 l'operatore lineare definito da T(x, y) = (ax, by), con
a, b E lK - {O}, a~ b. Allora gli autovalori di T sono a e b ed i relativi autospazi sono:

Va= {(x,y) E lK 2 I y =O},


vb

= {(x,y)

lK 2

I X= O}.

Esempio 7.2. Sia T:


--+ IR. l'operatore lineare definito da T(x, y) = (3x-2y, 2x-y).
Lo scalare E JR un autovalore di T se e solo se esiste un vettore (x, y) E IR. 2 -{(O, O)},
tale che
3x - 2y = x
{ 2x -y = y.

IR. 2

7. AUTOVALORI ED AUTOVETTORI

118

In altre parole, un autovalore se e solo se il sistema lineare omogeneo

1. AUTOVALORI ED AUTOSPAZI DI UN OPERATORE LINEARE

119

Si ha allora:

(.X - 3)x - +2y =O


{ -2x + (.X+ l)y = O
= 011V1 + + OhhVh

ammette soluzioni diverse da quella banale. Per il Teorema di Cramer ci avviene se e


solo se

3
det ( .x_2

2
O
)
.X+l
= '

cio se e solo se = 1.
Quindi 1 l'unico autovalore di T. Il relativo autospazio U 1 l'insieme di tutti i vettori
(x, y) E JR. 2 tali che:
(1 - 3)x + 2y = O

{ -2x+(l+l)y=0
ovvero
U1 = {(x,y) E JR.

I X= y}.

Sottraendo a quest'ultimo termine il primo membro della (7.2) moltiplicato per h,


si ottiene quindi

Per l'ipotesi induttiva, i vettori v 1, ... , vh-l sono linearmente indipendenti, per cui
tutti i coefficienti 01 (..\1 - h) , ... , Oh- l (h-l - h) devono essere tutti nulli.
Dal momento che, per ipotesi, per ogni i E Nh-l, i i- h, se ne deduce che
01 = = Oh-1 = O. Sostituendo nella (7.2) si ottien.e infine Oh vh = O, da cui,
essendo vh i- O, segue Oh = O. Ci prova che i vettori v 1, . . . , vh sono linearmente
indipendenti.
D

Vedremo in seguito che il procedimento sopra illustrato valido, in generale, per la ricerca
degli autovalori (e degli autospazi) di un qualsiasi operatore lineare su uno spazio vettoriale
di dimensione finita .

La Proposizione 7.2 viene di solito enunciata brevemente dicendo che autovettori non

nulli relativi ad autovalori distinti sono linearmente indipendenti.

Esempio 7.3. Esistono anche operatori lineari privi di autovalori. Ad esempio, se T :

JR. 2 -+ JR. 2 definito da T(x, y) = (y , -x), allora ripetendo il procedimento gi visto


nell'Esempio 7.2, si ottiene che autovalore di T se e solo se
det (
ovvero se e solo se ..\ 2

+1 =

~ ~l

) =O,

Esempio 7.5. Siano ..\ 1 , ... , n n numeri reali distinti, interpretati come n autovalori
distinti per l'operatore lineare D su C00 (JR.; JR.) dell'Esempio 7.4. Poich, Vi E Nn. e;X
un autovettore non nullo relativo all'autovalore i, dalla Proposizione 7 .2 si ricava che le
funzioni eix, . , enx sono linearmenti indipendenti .

O. Dunque T non ha autovalori (reali) .

Esempio 7.4. Sia C00 (JR.;JR.) l'insieme delle funzioni "lisce" (cio infinitamente derivabili)

f : JR. -+JR..

Evidentemente C00 (JR.; JR.) un sottospazio vettoriale dello spazio di tutte le


funzioni da JR. ad JR..
Sia ora D l'operatore lineare su C00 (JR.; JR.) che ad ogni funzione f associa la sua funzione
derivata D f = f'. Per ogni E JR., si ha :
D(ex)

= ex.

Se ne deduce che ogni numero reale un autovalore di D. Si pu inoltre provare che


l'autospazio U ha dimensione uno; pertanto U = L(ex) .

Corollario 7.3. Gli autospazi relativi ad un numero finito di autovalori distinti


sono sottospazi indipendenti.

Dimostrazione. Siano U i , . , U h gli autospazi relativi agli autovalori distinti


i, . .. , h Se, per i E Nh,

si ha
Vi = V1 + + Vi- 1 + Vi+l + + Vh,

Proposizione 7.2. Siano ..\ 1 , ... , h h autovalori distinti di T e, per ogni i E Nh,
sia Vi E U; - {O} . Allora i vettori vi, ... , vh sono linearmente indipendenti.

Dimostrazione. Applichiamo il Principio d'induzione.


Per h = 1 l'affermazione banalmente vera, essendo V1 i- O.
Supponiamo ora che la Proposizione sia vera per h - 1 autovalori e dimostriamone la
validit nel caso di h autovalori. A tale scopo supponiamo che si abbia
(7.2)

dove, per ogni j E Nh,

Vj

E U j. Quindi

V1 + + Vi-1 - Vi+ Vi+l + + Vh = 0


e ci implica, per la Proposizione 7.2, che ogni Vj (in particolare, v i) il vettore nullo.
Pertanto gli autospazi U ).. 1 , . , U h sono sottospazi indipendenti.
D

7. AUTOVALORI ED AUTOVETTORI

120

2. MATRICI SIMILI
121

2. Matrici simili

Se E E GLn(lK) la matrice del cambiamento di base da Ba B' ( 4 del Capitolo 5),


si ha inoltre:

Sia lK un campo.

(x') =E (x),

+Definizione 7.2.
A~
s

Diremo che due matrici A, BE Mn(lK) sono simili, e scriveremo


B , se esiste una matrice regolare E E GLn(lK) tale che

Ad esempio, le matrici

= E- 1 (y') = E- 1 A' (x') = E- 1 A' E (x).

Sia B' = (fi, ... , fn) una arbitraria base ordinata di yn e sia T l'operatore lineare su
vn avente A' quale matrice associata, relativamente a B'.
Per ogni v E vn, se (x') (risp. (y')) la colonna delle componenti di v (risp. di
T(v)) rispetto a B', si ha dunque:

A=(~{J6 ~% ), B=(~l -; )EM2(~)


3

(y)

Ci prova che A= E- 1 A' E, cio che A e A' sono simili.


(b) Supponiamo ora che A e A' siano simili, cio che esista E= (e] ) E GLn(lK) tale
che A = E- 1 A' E.

A= E- 1 . BE.

(7.3)

(y') =E. (y).

Si ottiene quindi:

sono simi li, in qu anto esiste

(y') =A' (x').


Sia B la n-pla (e1, ... , en) di vettori di yn definita ponendo, per ogni j E Nn,
n

per cui (7.3) verificata .


ej

=I>; .ri.
i=l

Proposizione 7.4. La similitudine tra matrici una relazione di equivalenza su


Mn(lK).
Dimostrazione. Se A, B, C E Mn(lK), ricordando che ( GLn(lK), ) un gruppo
(Teorema 3.6), si ha infatti:
.
. ,
(R) A= J;; 1 AIn, dove In E GLn(lK) la matrice identica d'ordme n (propneta
riflessiva) ;
_ _
-1
(S) se A = E- 1 . B . E, con E E GLn(lK), allora B = (E 1 ) 1 A E , con
E- 1 E GLn(lK) (propriet simmetrica);
(T) se A = E-1 . B. E e B = F - 1 . C. F , con E, F E GLn(lK), allora
A = E-1 . F-1 . C. F . E = (F . E)- 1 . C. (F E), con F E E GLn(lK)
(propriet transitiva).

La matrice delle componenti di B rispetto alla base ordinata B' quindi la matrice
regolare E: pertanto B una base ordinata di yn (si veda l'Osservazione 5.6).
Indicata con (x) (risp. (y)) la colonna delle componenti div (risp. di T(v)) rispetto
a B, si ha inoltre:

(x') =E (x),

(y') =E. (y).

Si ottiene quindi:
1

(y) = E- (y') = E - A' (x') =;= E- 1 A' E (x) =A (x).


Dunque MB(T) =A.
Ci conclude la prova del Teorema 7.5.

o
Ricordando che, se A = MB(T), allora e(A) = dim( Im T) (Teorema 5.16), come
conseguenza del Teorema 7.5, si ottiene il seguente:
Corollario 7.6. Matrici simili hanno lo stesso rango.

Sia ora yn uno spazio vettoriale di dimensione n sul campo lK.


Teorema 7.5. Due matrici A , A' E Mn(lK) sono simili se e solo se esistono un
operatore lineare T su yn e due basi ordinate B, B' di vn, tali che A = MB(T),
A'= MB1(T) .
Dimostrazione. (a) Sia T un operatore lineare su yn e sia~o ~ , ~' due basi di -yn ,
t l. h A= M (T) A'= M 8 ,(T). Per ogni vettore v E V , md1cata con (x) (nsp.
a1c e
B
,
.
') d d t
( )
(x')) la colonna delle componenti div rispetto a B (nsp. B . e m ica.a con Y
1
(risp. (y')) la colonna delle componenti di T(v) rispetto a B (nsp. B ), SI ha allora
(Teorema 5.10):
(y') =A' (x') .
(y)=A (x),

Si ha inoltre:
Proposizione 7. 7. Matrici simili hanno lo stesso determinante.
Se A, A' E Mn(lK) sono simili, sia E E GLn(lK) tale che A =
Dimostrazione.
1
E- A' E. Dal Teorema di Binet (Proposizione 3.15) e dal Teorema 3.19 (a) si
ricava allora:
detA

= det(E- 1 A' E)= det(E- 1 )


=

(det E)-

detA' detE

det A' det E= det A'.

122

7. AUTOVALORI ED AUTOVETTORI

3. POLINOMIO CARATTERISTICO

123

Data una matrice A= (a; ) E Mn(lK), la matrice:

Sia, ad esempio, T l'automorfismo sullo spazio vettoriale V 2 (su JR), di equazioni:

-a~
a~

yl =xl_ x2
{ y2 =-xl + 3x2

-a!;
-a;,

t-

rispetto alla base B' = (e 1 ,e 2 ) di V 2 . Se B = (f1 ,f2 } un 'altra base di V 2 , con


f 1 = e 1 + 2e 2 , f 2 = 2e 1 - 2e 2 , allora la matrice del cambiamento di base da Ba B'

E= ( ;

~2) .

t - a~

viene comunemente detta matrice caratteristica di A.

Definizione 7.3. Si dice polinomio caratteristico della matrice A E Mn(lK) il


polinomio

Dal momento che

-1 )
3
,

~A(t)

= det(tin -A)

E lK[t].

Si dicono poi autovalori di A le radici del suo polinomio caratteristico ~A(t) .

si ha :

MB(T)=A=E
Si osservi che: det A'

- 1

AE=

_4/3

716

-4/3)
8/3

..,. Osservazione 7.1. Il polinomio caratteristico di una matrice A E Mn(lK) un


polinomio manico (cio con coefficiente principale = 1) di grado n, a coefficienti in

= det A = 2.

JK .

Posto:
~A(t)

3. Polinomio caratteristico
Nel presente paragrafo mostreremo che gli autovalori di un operatore lineare T su
uno spazio vettoriale yn di dimensione finita n (sul campo JK) sono le radici di un
polinomio di grado n (a coefficienti in JK), univocamente associato a T .
Le nozioni fondamentali relative alle equazioni algebriche, utilizzate nel seguito del
capitolo, sono raccolte nella Appendice A.

Proposizione 7.8. Sia B una base ordinata di yn ed A la matrice associata a T


relativamente a B.
(a) Per ogni E JK, detta (x) la colonna delle componenti di un generico vettore
v E yn rispetto a B, il sottospazio U (T) ha equazioni:

(7.4)

(Hn - A) (x)

= tn + On-ltn-l + + Oo ,

ricordando che ogni addendo dello sviluppo del determinante contiene quale fattore
uno ed un solo elemento di ciascuna riga e di ciascuna colonna, si ottiene subito che
il coefficiente di grado n - 1 :
On - l = - (at + +a~)

=-

7r (A) ,

dove 7r (A) indica la traccia della matrice A (si veda l'Esempio 5.5).
Inoltre il coefficiente di grado zero
.
Oo

= ~A(O) = det(-A) =

(- lrdetA.

Esempio 7.6. Consideriamo le matrici :

(0) .

Si ha pertanto: dim U(T) = n - g(Hn -A).


(b) Lo scalare E lK un autovalore di T se e solo se det(Hn - A)
particolare, O E lK un autovalore di T se e solo se det A= O.

O.

In

Dimostrazione. Si ha T(v) = v se e solo se A (x) = (x ), ovvero se e solo se


(Hn - A) (x) =(O) .
Pertanto, le (7.4) sono le equazioni di U(T) , relativamente a B (si veda 3). Ci
prova (a).
Inoltre, E lK un autovalore di T se e solo se

A3 =

o o

I relativi polinomi caratteristici sono:


~A1

dim U(T) = n - g(Hn - A)> O,

(t) =

cio se g(Hn - A) < n . Poich in - A E M n (lK) , ci accade se e solo se il suo


determinante nullo. Ci prova (b).

O 3

~A 2 (t) =

o
o

t-1
-3
-7

-1
t-3

t- 3

-1
o
t-3
o
-1 t-2

-4

= t(t - 2)(t - 4);

t-2

(t - 2)(t - 3) 2 ;

7. AUTOVALORI ED AUTOVETTORI

124
t-3
Aa (t)

A 4 (t)

-1

o
o

t-3

t-2

t-3
5
-7

-2
t+3

o
o

Dimostrazione. Se A, B E Mn(K) sono simili, sia E E GLn(K) tale che B =


E- 1 A E. Si ha allora:

= (t - 2)(t - 3) 2;

B(t) =

= (t - 2)(t 2 + 1) .

t-2

Ne consegue che gli autovalori di A 1 sono O, 2 e 4, gli autovalori di A2 e di A3 sono 2 e


3, mentre l'un ico autovalore (reale) di A4 2.
Si osservi che la stessa matrice A 4 , considerata in M 3 (C), ha tre autovalori (complessi):
2, i e -i.
Esempio 7 . 7. Sia On(lR) l'insieme delle matrici ortogonali di ordine n su JR (Definizione
3.11). Se n dispari, allora l'unit 1 di JR autovalore di ogni matrice A E On(lR) avente

determinante uguale ad 1.

Da det(A- 1) = (detA)- 1 = 1 segue infatti:

= det(A- 1 - In) = det( t A - In)= det( t ( t A - In)) =


= det(A - In)= (-1) -n det(In - A) = - det(In - A),
e quindi 2 det(In - A) = O, da cui si ottiene det(In - A) =O.
Ci prova che 1 radice del polinomio caratteristico A(t) = det(tin -A) di A e pertanto
che 1 un autovalore di A.

(a~+ a~+ a~)t2 + (\ :t :~

I+ I

:~

:1 :i :i \)
I+ I

La Proposizione 7.9 consente di formulare la seguente:

+Definizione 7 .4. Sia T un operatore lineare su y n. Si dice polinomio caratteristico


di T, e si indica con r(t), il polinomio caratteristico della matrice A = M 6 (T),
associata a T relativamente ad una qualunque base di y n.

Dimostrazione. Per la Definizione 7.4 e per la Proposizione 7.8 (b), si ha che>. E][{
un autovalore di T se e solo se r(>.) = O, cio se e solo se >. radice del polinomio
r(t) .

+ Definizione

. Esempio 7.8. Sia A= (a;) E M 3 (K). Il polinomio caratteristico di A

Teorema 7 .10. Gli autovalori di un operatore lineare T su y n sono tutte e sole


le radici del polinomio caratteristico r (t).
Pertanto, gli autovalori di T coincidono con gli autovalori di una qualunque matrice
associata a T.

1
= det(A- 1 (In -A) ) = det((A- 1 In) - (A- A))=

det(tln - B) = det(tln - E- 1 A E) =
det(E- 1 (tin) E - E- 1 A E) =
det(E- 1 (tln - A) E) =
det(E- 1) det(tln - A) det E=
(det E)- 1 det E det(tln - A) =
det(tln -A)= A(t).

Risulta ora immediato il seguente:

det(In - A) = det(A- 1) det(In - A) =

A(t) = t

125

3. POLINOMIO CARATTERISTICO

t - detA.

Pi in generale, se A E Mn(K), si pu dimostrare che il coefficiente Om di grado m < n


del polinomio caratteristico di A la somma dei determinanti dei minori principali di
ordine n - m, moltiplicata per ( -l)n-m.
Esempio 7.9. Se A= (a;) E Mn(K) una matrice triangolare alta o bassa (Definizione

7.5. Sia >. un autovalore dell'operatore lineare T di y n. Si dice


molteplicit algebrica ma(>.) di >. la molteplicit di >. quale radice del polinomio caratteristico r(t).
Si dice molteplicit geometrica mg(>.) di >. la dimensione del relativo autospazio
U.x(T).
Si osservi che, se A E Mn(K) una matrice associata a T, allora la Proposizione 7.8
(a) implica che:
mg(>.)= dim U.x = n - e(>-In - A)

3.10), allora il polinomio caratteristico di A


A(t)

(t - ai)(t - a~) .. . (t - a~).

Proposizione 7.11. P er ogni autovalore >. di T, si ha:


1 ::; mg(>.) ::; ma(>.).

Proposizione 7.9. Matrici simili hanno lo stesso polinomio caratteristico e, di


conseguenza, gli stessi autovalori e la stessa traccia.

Dimostrazione. Poich dim U.x > O, si ha mg(>.) = h 2: l. Sia poi B.x = (ei, . .. ,
eh) una base ordinata di U >. e B = (e 1, . . . , eh, fi, ... , fn -h ) una base ordinata di yn
ottenuta per completamento della base B.x (Proposizione 4.12) .

7. AUTOVALORI ED AUTOVETTORI

126

Dal momento che, per ogm


tivamente a B sar del tipo:

E Nh, T(ei) = ei, la matrice A associata a T rela-

o o

A=

3) T3 ha autovalori 1 = 2 e 2

= ~A(t) = (t - )hp(t),

essendo p(t) un opportuno polinomio di grado n - h. Se ne deduce che la molteplicit


algebrica di :'.'.: h .

.,.. Osservazione 7.2. Se >. 1, . . . , h sono gli autovalori (distinti) dell'operatore lineare
T su vn , allora per l'Osservazione A.3 e la Proposizione 7.11 si ha:
h :::;

mg(>.i) :::;

ma(>.i) :::; n.

i=l

i=l

mentre

= 3, con
ma(2) =

mg(2) = 1, mg(3)
Si osservi che, in questo caso, si ha

= 3,

mg(>.i) = 2.

1, ma(3)

= 2.

Si ha inoltre

essendo B e C opportuni blocchi di tipo h x (n - h) e (n - h) x ( n - h) rispettivamente.


Il polinomio caratteristico di T sar dunque

~r(t)

ma(>.i)

Le stesse relazioni continuano a valere anche considerando T 2 come operatore lineare su

e
o o

C3.

o o

Si osservi che

127

o
o

4 . DIAGONALIZZAZIONE DI MATRICI ED OPERATORI LINEARI

= 3 - Q(3J3 - A) = 3 - 1 = 2.

mg(>.i)

ma(>.i)

= 3.

4) T4 ha il solo autovalore reale ,\ 1 = 2, con


ma(2)
Si ha pertanto

mg(>.i)

= mg(2) =

1.

=1<3

ma(i)

(si ricordi che, come provato nella Osservazione A.5, ~ non algebricamente chiuso) .
Gli autovalori di T4, considerato come operatore lineare su C3, sono invece 2, i e -i.
Avendo in questo caso T 4 tre autovalori complessi distinti, se ne deduce che ciascuno ha
molteplicit algebrica 1 e molteplicit geometrica 1.

Se il campo OC su cui vn definito algebricamente chiuso (Definizione A.5), allora


il Teorema A.3 implica che
h

ma(>.i) = n

4. Diagonalizzazione di matrici ed operatori lineari

i=l

Anche in tal caso, per, la somma delle molteplicit geometriche pu essere strettamente minore di n (si veda il successivo Esempio 7.6 bis).
3

Esempio 7.6 bis. Per r = 1, 2, 3, 4 sia Tr l'operatore lineare su ~ avente la matrice


Ar E M 3 (~) dell'Esempio 7.6 quale matrice associata , rispetto alla base naturale.

Per ogni r E N4 , il polinomio caratteristico e gli autovalori di Tr coincidono con il


polinomio caratteristico e con gli autovalori della corrispondente matrice Ar.
Calcoliamo ora le molteplicit algebriche e geometriche dei singoli autovalori.
1) T 1 ha tre autovalori distinti : O, 2 e 4 (ciascuno di molteplicit algebrica 1). Per la
Proposizione 7.11, si ha pertanto
mg(O)

2) T 2 ha autovalori >. 1

= mg(2) = mg(4) =

1.

ma(2) = 1, ma(3) = 2.
Si ha inoltre

= 1, mg(3) = 3 - Q(3h - A) = 3 - 2 =

+ Definizione

7.6. Si dice base spettrale relativa all 'operatore lineare T una base
B 8 di v n, formata da autovettori di T.

.,.. Osservazione 7.3. Se la matrice M13(T), associata all'operatore lineare T su y n


relativamente alla base ordinata B di v n, la matrice diagonale A= diag(a 1, ... , an),
allora B una base spettrale (ordinata) di v n.
Posto B = (e1 , ... , en), si ha infatti:

= 2 e 2 = 3 con

mg(2)

Nel presente paragrafo studieremo il problema di determinare le condizioni affinch


un dato operatore T su vn sia rappresentabile mediante una matrice diagonale o,
equivalentement e, affinch una data matrice A E Mn (OC) sia simile ad una matrice
diagonale.
Ricordiamo che per matrice diagonale si intende una matrice A E Mn(OC), i cui
elementi >.j , con i f= j, sono tutti nulli (Definizione 3.9). Spesso indicheremo con
diag(ai, ... , an) la matrice diagonale avent e la n-pla (a 1, .. . , an) quale diagonale
principale.

1.

T(ei) =ai ei.

7. AUTOVALORI ED AUTOVETTORI

128

In altre parole, ei un autovettore non nullo di T relativo all'autovalore ai.


Supponiamo viceversa che v n ammetta una base spettrale B 8 relativa a T e che
>. 1, .. . , h siano gli autovalori (distinti) di T. Allora possibile ordinare i vettori di
B 8 in modo da ottenere una base spettrale ordinata

Bs

1
1
2
2
h
h )
= (el'
. . . 'er1' el' ... 'er2' .. . 'el' ... 'erh

tale che, per ogni i E Nh, i vettori ei, . . . , e~, appartengono all'autospazio U >., relativo
a i
Dal momento che, per ogni i E Nh,

e che
h

i=l

129

Dimostrazione. Proveremo l'equivalenza delle affermazioni secondo il seguente schema:

(a)

(b)

{o?

{o?

(c)

{o?

(d)

(a) {o? (b). La dimostrazione si ottiene direttamente dall'Osservazione 7.3, facendo


uso della caratterizzazione delle matrici simili come associate allo stesso operatore
lineare relativamente a basi diverse (Teorema 7.5).
(b) :::::> (e). La dimostrazione contenuta nell'Osservazione 7.3.
(c) :::::> (b). Se
h

mg(>.i) = n,
i=l
posto ri = mg(>.i) = dim U >.., per ogni i E Nh, sia B>., = {ei, , e~J una base di
U >.,. In virt della Proposizione 7.2, l'insieme di n vettori (non nulli e distinti)

Bs

Lri =n,

{el,
1
1
2
h
h }
... 'er1'
e 2l, . . . , er2'
. . . 'el'
... , erh

linearmente indipendente e costituisce quindi, per il Teorema 4.11 (a), una base
(spettrale) di v n.
(c) {o? (d). conseguenza immediata del Corollario 7.3 e della Proposizione 4.20.

per l'Osservazione 7.2 si ricava


h

4. DIAGONALIZZAZIONE DI MATRICI ED OPERATORI LINEARI

mg(>.i) = n .

i=l

Pertanto, per ogni i E Nh, (ei, .. . eU una base {ordinata) per V>., e la matrice
associata a T relativamente alla base spettrale B 8 la matrice diagonale
A= diag( >.1 , ... >.1 , >.2 . .. >.2,
(r 1 volte) (r2 vo lte)

.. . '

h,h ),
(rh volte)

Corollario 7.13. Se l'operatore lineare T su yn ammette n autovalori distinti,


allora V ammette una base spettrale relativa a T.

Dimostrazione. Poich ogni autovalore ha molteplicit geometrica 2:: 1, per l'Osservazione 7.2, si ha
n

dove ogni autovalore

ripet'fto

Ti =

mg(>.i) volte.

mg(>.i)

= n.

i=l
D

+Definizione 7. 7. Una matrice A E Mn(lK) detta diagonalizzabile per similitudine


se esiste una matrice diagonale A E Mn(lK) simile ad A.

Abbiamo ora tutti gli ingredienti per provare la seguente:


Proposizione 7.12. (Teorema spettrale) Sia A la matrice associata all'operatore lineare T : yn , y n, relativamente ad una qualunque base B di y n. Siano poi
>. 1 , ... , h gli autovalori (distinti) di T (o, equivalentemente, di A) e U >. 1 , . . , U >.h i
relativi autospazi. Le seguenti affermazioni sono equivalenti:

(a) A diagonalizzabile per similitudine;


(b) v n ammette una base spettrale relativa a T 1;
(c) L~= l mg(>.i) = n;
h

(d) y n =

E9U>-,
i= l

Esempio 7.6 ter. Verifichiamo se esistono basi spettrali relative agli operatori lineari
Ti : IR 3 , IR 3 dell'Esempio 7.6 bis.
1) T1 ha tre autovalori distinti O, 2, 4 e quindi ammette una base spettrale per il Corolla rio
7.13; la matrice A 1 simile alla matrice diagonale
A1

= (

~ ~ 4~ )

o o

2) T2 non ammette una base spettrale, in quanto la somma delle molteplicit geometriche
dei suoi autovalori 2 e 3 1 + 1 = 2 < 3. Quindi la matrice A 2 non diagonalizzabile
per similitudine.
3) T 3 ammette una base spettrale, in quanto la somma delle molteplicit geometriche dei
suoi autovalori 2 e 3 1 + 2 = 3 . La matrice A3 simile a ll a matrice diagonale

o
3

1In tal caso T spesso detto semplice.

7. AUTOVALORI ED AUTOVETTORI

130

4) T 4 , definito su JR.3, non ammette una base spettrale, in quanto il ~uo_ ~nic? autovalore
(reale) 2 ha molteplicit 1. Pertanto A 4 non diagonalizzabile per s1mtl1tudme (su JR.).
T 4 ammette una base spettrale, se , invece, definito su C 3, in quanto ammette tre
autovalori distinti 2, i, -i. In tal caso A 4 simile alla matrice diagonale

~i )

M,(C).

Spazi vettoriali euclidei

Esempio 7.10. Determiniamo una base spettrale relativa all'operatore lineare T3 considerato nell'esempio precedente. Ricordando la Proposizione 7.8 (a), poich la matrice
associata a T 3 relativamente alla base naturale di lR. 3 A3,
U 2 = {(x, y,z)EJR. 3 lx+ z= 0, y = O},
U 3 = {(x,y,z) E JR. 3 I z =O}.
Basi per U 2 e U 3 sono rispettivamente

B 2 = {(1,0, - 1)}
Una base spettrale di
quindi :

JR. 3 ,

B3 = {(1,0,0), (O , 1,0)}.

relativa a T3 , ordinata come indicato nell'Osservazione 7.3,

88

= ((1,0,- l),(1,0, 0),(0, 1,0)).

Si osservi che la matrice del cambiamento di base da 8 8 alla base naturale

B di

In tutto il presente capitolo, il simbolo V indicher semp~e uno spazio vettoriale reale.
Per ogni a E JR., lai denoter il valore assoluto di a.

+Definizione 8.1.

Si dice prodotto scalare su V una applicazione


<,>: VxV-+lR.

(PSl) < u, v + w > = < u, v > + < u, w >; < u, av > = a< u , v >;
(PS2) < u, V>=< v, u >; ,.A-O. '~"''
(PS3) < v, v > ~ O; ( < v, v > = O) <=? (v = O).

-1

E-'~

1. Prodotti scalari e norme

tale che, per ogni u, v, w E V e per ogni a E JR., risultino soddisfatte le seguenti
propriet:

lR.

E = (~~~)
o o
Si ha inoltre

CAPITOLO 8

La coppia (V, < ., >) detta spazio vettoriale euclideo (reale).

~ ~I)

Ovviamente, la propriet (PSl) equivale a richiedere che, per ogni u, v, w E V e per


ogni a, f3 E JR., si abbia:

(PSI) < u, av + (3w > = a < u , v > +(3 < u, w > .


D 'altra parte, in virt dell'assioma (PS2), la propriet (PSl) pu essere sostituita,
nella definizione 8 .1, dalla propriet
(PSl') < v + w, u > = < v , u > + < w, u >;
Concludiamo il capitolo con il seguente importante risultato, che assicura la diagonalizzabilit per similitudine di tutte le matrici simmetriche reali. La dimostrazione
sar effettuata nella Appendice B (Teorema B.1), utilizzando nozioni che saranno
introdotte nel successivo Capitolo 8.
Teorema 7.14. Sia A E Sn(lR.) una matrice simmetrica reale. Allora, esiste una
matrice ortogonale E E On(lR.) tale che

E - 1 . A E = tE A E = D ,

< av, u > = a< v, u >,

cos come la propriet (PSI) pu essere sostituita dalla propriet


(PSI') < av+f3w,u >=a< v,u > +(3 < w,u >.

poi immediato verificare che, se (V, < ., >) uno spazio vettoriale euclideo e
x E V, si ha:

< x, o > = < o, X > = O;


inoltre,
(ND) se u E V tale che, Vx E V , < u, x > = O (risp. < x, u > = O), allora

u=O.

con D matrice di tipo diagonale.

Si usa esprimere il fatto che ogni prodotto scalare gode delle propriet (PSl)-(PSl ' )(o,
equivalentemente, (PSI)-(PSI')), (PS2) , (PS3) e (ND) dicendo che ogni prodotto
scalare bilineare, simmetrico, definito positivo e non degenere.

8. SPAZI VETTORIALI EUCLIDEI

132

..,.. Osservazione 8.1. Sia (V,< ., >) uno spazio vettoriale euclideo e sia V un
sottospazio vettoriale di V . La restrizione di < , > a V x V , come facile verificare,
un prodotto scalare sullo spazio vettoriale (reale) U . In altri termini, ogni sottospazio
vettoriale di V eredita una struttura di spazio vettoriale euclideo e viene anche detto,
pertanto, sottospazio vettoriale euclideo di (V, < ., >).

133

1. PRODOTTI SCALARI E NORME

Poich il trinomio in (3 contenuto nell'ultimo termine della relazione (*) ha il coefficiente del termine di secondo grado sempre positivo, segue:
~

2
2
= (< u,v > ) - llul l llvll2 ::; O.

Sia ora (V,< ., > ) uno spazio vettoriale euclideo. Poich < ., > definito positivo
(assioma (PS3), possibile introdurre la seguente

Tenuto conto che si ha llull >O, llvll >O, segue subito (d) .
(e) Sostituendo (3 = 1, la relazione(*) fornisce direttamente la propriet (e):
2
2
lluvll =<uv,u v >= llull 2<u,v>+llvll 2.

+ Definizione 8.2.

(c)

Sia (V,< ., >) uno spazio vettoriale euclideo. Per ogni v E V ,


si dice lunghezza o norma (euclidea) di v il numero reale non negativo
llvll = ../<V, V>.
L'applicazione
li li : V -+ JR
v-+ ll vl l
si dice norma indotta dal prodotto scalare.
Un vettore v con Ilvi I = 1 sar detto versore.
Proposizione 8.1. Sia (V, < ., > ) uno spazio vettoriale euclideo. La norma
indotta dal prodotto scalare gode, per ogni u , v E V e per ogni et E JR, delle seguenti
propriet: 1
(a)
(b)
(c)
(d)
(e)

llvll 2: O; (l lv ll = O) <=:? (v =O)


ll av ll = ln l llvll
2
llu +vll ::; llull + llvll
(disuguaglianza di Minkowski )
I < u , v > I ::; llull llvll
(disuguaglianza di Schwarz3)
llu vll2 = llull 2 2 < u, v > +llvll 2

Dimostrazione . (a) La propriet (a) discende banalmente dalla Definizione 8.2 e


dall'assioma (PS3) .
(b) Per dimostrare la propriet (b), basta utilizzare la definizione di norma e la
bilinearit del prodotto scalare:
IIn vii = ../< av, a v > =
et 2 < v , v > = ~../< v, v > = lnl llvll

Prima di dimostrare le altre propriet osserviamo che, per ogni (3 E JR, per la bilinearit del prodotto scalare si ha:
2
< u + (3v, u + (3v > = < u, u > +2(3 < u , v > +(3 < v , v > =
2
2
2
= llull + 2(3 < u, v > + f3 ll v ll
(d)
Si osservi che, se almeno uno dei vettori u , v nullo, la disuguaglianza di
Schwarz banalmente verificata; possiamo dunque supporre u , v i- O. Essendo il
prodotto scalare definito positivo, per ogni (3 E JR si ha
< u + (3v, u + (3v > 2: O.

Applicando le propriet (e) e (d), si ottiene:


2
2
2
2
2
llu + vll = llul l + 2 < u, v > +l lvl l ::; llull + 2 I < u , v > I + llvll <
2
2
2
::; llu ll + 2 llu ll llvll + llvl l = (llul l + llvll) .
Poich si ha Ilu +vi 12 2: O, 1 lul I + Ilvi I 2: O, dalla precedente disuguaglianza tra i loro
quadrati segue subito:
,
llu +vii ::; llull + llvll

Esempio 8.1. (Lo spazio vettoriale euclideo standard n-dimensionale) L'applicazione


< ., >: JRn x JRn -+JR definita ponendo, per ogni a= (a1, . . ., an ), b = (b1, .. ., bn) E
JRn
'

< a , b >= l:aibi


i=l

un prodotto scalare sullo spazio vettoriale standard n-dimensionale JRn; esso detto
prodotto scalare naturale su JRn . La coppi~ (JRn, < ., > ) detta spazio vettoriale
euclideo standard n-dimensionale.
Si noti che il prodotto scalare naturale su JRn un caso particolare del prodotto naturale
di due n-ple di un generico ocn, definito nel 1 del Capitolo 3 ed indicato con lo stesso
simbolo < ., >.
La norma indotta (in base alla Definizione 8.2) su JRn dal prodotto scalare naturale la
applicazione li li : JRn-+ JR definita, per ogni a= (a1, ... , an), da :
n

llall =

L(ai)2
i=l

Essa viene detta norma euclidea naturale su JRn.


Esempio 8.2. Sia JR[t] lo spazio vettoriale reale dei polinomi nella indeterminata t, a
coefficienti in JR. Se

p(t) = ao + a1 t + + antn,

q(t) =bo+ bit+ + bmtm,

l'applicazione< .,> : JR[t] x JR[t]-+ JR che alla coppia (p(t), q(t)) associa

z=
n

1Si noti che le propriet (a), (b), (c) della presente Proposizione caratterizzano, in generale, la

nozione di norma in uno spazio vettoriale reale.


2 Hermann Minkowski: matematico lituano (Aleksotas, 1864 - Gottinga, 1909).
3 Karl Hermann Schwarz: matematico tedesco (Hermsdorf, 1843 - Berlino, 1921).

< p(t), q(t) > =

i=O

un prodotto scalare su JR[t].

aibi

n::; m,

134

8. SPAZI VETTORIALI EUCLIDEI

135

1. PRODOTTI SCALARI E NORME

Evidentemente, per ogni n E N, (JRn[t], < ., >) un sottospazio vettoriale euclideo di


(JR[t], <" > ). Ad esempio, se p(t) = 1 - t 2, q(t) = t + 3t3, allora < p(t) , q(t) >=o.

il sostegno dello "spazio vettoriale dei vettori applicati" , considerato nell ' Esempio 4.1; sia
poi < ., >: F(O) x F(O) -+ JR la applicazione definita mediante

Es~m~io 8.3. Un secondo esempio di prodotto scalare, molto importante per le applicazioni, sullo spazio JR[t] si ottiene come segue.
Fissate arbitrariamente una coppia (a, fJ) di elementi distinti di JR, con a < fJ, sia

<(O, P), (O, Q) >= d(O, P) d(O, Q) cos(PoQ).

< " >: JR[t)

JR[t] -+ JR

(p(t), q(t)) -+< p(t), q(t) >=

1{3 p(t). q(t) dt

(x1,x2 , x3) , v = (y1,y2,y3) E JR3 ,

l'applicazio~e che associa ad ogni coppia (p(t), q(t)) di polinomi l'integrale definito da a
a fJ del polinomio prodotto p(t) q(t); le propriet dell'integrale provano che < ., . >
un prodotto scalare su JR[t].
Ad esempio, se a= O, fJ = 1, p(t) = 1 - t 2, q(t) = t
< p(t), q(t) > =
Inoltre, se

11 11

+ 3t3,

allora :

{I (1 - t 2) (t + 3t3) dt = {I (t + 2t3 - 3t 5 ) dt =

lo

lo

! +! - !
2

Non difficile verificare che tale applicazione un prodotto scalare sullo spazio vettoriale
reale F(O) ; (F(O) , < ., >) risulta pertanto uno spazio vettoriale euclideo di dimensione
tre .
Esempio 8.7. L'applicazione ~ ., >-: JR 3 x JR 3 -+ JR definita ponendo , per ogni u =

+ 2x2y2 _

x1y2 _ x2y1

+ x3y3

un prodotto scalare (non standard) sullo spazio vettoriale standard JR 3 : infatti, esso
gode banalmente delle propriet (PSl) e (PS2) , mentre la propriet (PS3) si verifica
osservando che ~ u , u >-= (x 1) 2 + 2(x 2 ) 2 - 2x 1x 2 + (x 3) 2 = .(x 1 -x 2 ) 2 + (x 2 ) 2 + (x3) 2 .
La coppia (JR 3 , ~ ., >-) quindi uno spazio vettoriale euclideo di dimensione tre, diverso
dallo spazio vettoriale euclideo standard di dimensione tre, ma avente lo stesso sostegno.

indica la norma euclidea indotta da < ., . >, si ha :

Esempio. 8.4. Considerazioni analoghe a quelle dell'esempio precedente possono essere

fat~e.sost1t~~ndo JR[t] con lo spazio vettoriale C 0 ([a , fJ]; JR) delle funzioni continue reali,
definite sull intervallo [a, fJ] = {t E JR/ a :::; t :::; fJ}, e definendo allo stesso modo il

Nel seguito del capitolo indicheremo spesso, con abuso di linguaggio e per brevit
di notazioni, lo spazio vettoriale euclideo (V, < ., >) semplicemente con V , sottintendendo, come gi fatto per le operazioni + e ., il prodotto scalare < ., > che ne
completa la struttura.
Denoteremo inoltre con lo stesso simbolo < ., > i prodotti scala ri definiti nei vari
spazi vettoriali euclidei considerati, anche se, in generale, tali prodotti risulteranno
distinti. Analogamente, il simbolo 11 11 indicher sempre la norma euclidea indotta
d al prodotto scalare < ., > su un qualunque spazio vettoriale euclideo.

p.r odotto. scal~re. Si osservi che, identificando ogni polinomio con la corrispondente funzione polinomiale, lo spazio (JR[t], < " > )definito nell'Esempio 8.3 pu essere considerato
un sottospazio euclideo di (C 0 ([a, fJJ; JR),< ., . > ).

+ Definizione 8.3.

Esempio 8.5. Sia

< u,v >=o.

< " >: Mmxn(JR)

Mmxn(JR) -+

(A , B)

-+<A, B >= Tr(A. tB)

< A,B >= Tr(A tB) = L,::C~ =


i=l

{(O,P)

v , se

Proposizione 8.2. Per ogni u , v E V, si ha:


( < u , v >=O)

(llull2

+ llvll 2

= llu + vll

) .

Dimostrazione . conseguenza immediata della Proposizione 8.l(e).


D

L L a;bj .
i=l j=l

Sia F lo "spazio euclideo elementare" . Fissato un punto O E F, sia

J_

dun~ue semplice verificare che l'applicazione < ., > un prodotto scalare sullo spazio
vettoriale reale M mxn(JR).

F(O)

Due vettori u , v E V si dicono ortogonali, e si scrive u

Si osservi che il vettore nullo O ortogonale ad ogni altro vettore di V ed inoltre


1'unico vettore ortogonale a se stesso.

JR

l'app~icazione che_ ad ogni coppia (A , B) di matrici di tipo m x n, fa corrispondere la


tracci.a della ma~ric~ (quadrata di ordine m) A tB, ovvero la somma degli elementi della
sua d1agon_ale principale (Esempio 5.5) .
Se A= (aj) , B = (b; ), A t B = (cU, allora:

Esempio 8.6.

u , v >- = x1y1

p E F}

.,.. Osservazione 8.2. Le due implicazioni::::} e{::: della precedente proposizione sono
note rispettivamente come Teorema di Pitagora4 e suo inverso.
Tenuto conto della Definizione 8.2, si usa enunciare tale risultato dicendo che due
vettori sono ortogonali se e solo se la somma dei quadrati delle loro lunghezze coincide
con il quadrato della lunghezza della loro somma.
4 Pitagora di Samo: matematico e filosofo greco (Samo, 580 a. C. - Metaponto, 504 a. C.) .

8. SPAZI VETTORIALI EUCLIDEI

136

+Definizione 8.4.

Siano u, v vettori non nulli di V . Si dice coseno dell'angolo tra


u e v il numero reale
< u,v>
cos(u, v) = \\u\\ \lvi\
Si osservi che, per la simmetria del prodotto scalare, il coseno dell'angolo tra due
vettori non dipende dall'ordine dei vettori.

... Osservazione 8.3. Dalla disuguaglianza di Schwarz \ < u , v >


subito
I < u,V > I < 1

I ::;

\lui I\\v\ \ segue

137

2. BASI ORTONORMALI

Dimostrazione. Sia (v 1 , v 2 , ... , vh) una h-pla di vettori distinti di X, tale che
h

'L::aivi =O.
i=l
Per ogni j E Nh, posto< Vj, Vj >= f3J, si ha allora:
h

O=< 0 ,vj >=< 'L::aivi,Vj >=Lai< vi , Vj >= 2:ai/3jOij = aj/3j .


i=l
i=l
i=l
Essendo 131 =f. O, ci prova che aJ = O. X dunque linearmente indipendente.

\\u\\ \\v\\
e quindi
-1 ::; cos(u , v) ::; l.
Supponendo nota la funzione trigonometrica coseno e ricordando che la sua restrizione
all'intervallo chiuso [O, 7r] biunivoca (Esempio 1.5), risulta pertanto naturale definire
misura dell'angolo (convesso) tra u e v il numero reale iiV E [O, 7r] univocamente
determinato dalla condizione
< u ,v >
( )
cosuv = \\u\\ \\v\\ = cos u, v.
Tenuto conto della Definizione 8.4, si ha quindi che due vettori u e v sono ortogonali
se e solo se la misura dell 'angolo tra u e v ~.
... Osservazione 8.4. L'uguaglianza
\lu - v\12 = \\u\\

2 < u, v > +\\v\\

(Proposizione 8 .1)

pu essere espressa, tenendo conto della Definizione 8.4, nel modo seguente:
\lu - v\\ 2 = l\u\\ 2 + \\v\\

+Definizione 8.6.
male) di V se:

Dalla Proposizione 8.3 e dal Teorema 4.11 segue subito il seguente


Corollario 8.4. Ogni sottoinsieme ortogonale X di yn non contenente il vettore
nullo ha cardinalit h ::; n. Inoltre, X una base ortogonale di y n se e solo se h = n.

Esempio 8.8. Nello spazio vettoriale euclideo standard !Rn (Esempio 8.1) , la base
naturale ortonormale.
Esempio 8.9. Nello spazio vettoriale euclideo standard JR2 , la base (ordinata) B
((1 , 1), (2, -2)) ortogonale, ma non ortonormale, in quanto
< (1, 1), (2, -2) > = '1. 2 + 1 . (-2) =

2\\u\\ \\v\\ cos(u , v) .

In tale forma, l'uguaglianza nota come Teorema di Carnot

Nel presente paragrafo, il simbolo V indicher sempre uno spazio vettoriale euclideo;
il simbolo v n indicher invece uno spazio vettoriale euclideo di dimensione finita n.

+ Definizione 8.5.

Un sottoinsieme X di V si dice ortogonale se, per ogni coppia


(u, v) di vettori distinti di X, si ha< u , v > =O. Un sottoinsieme ortogonale X di V
si dice ortonormale se, per ogni u E X, si ha \lu\\ = l.

In altre parole, X ortonormale se i suoi vettori sono versori a due a due ortogonali.
Si osservi che un sottoinsieme finito {v 1 , ... , vh} di V ortonormale se e solo se, per
ogni i,j E Nh, si ha< vi , Vj >= Oij
Proposizione 8.3. Ogni sottoinsieme ortogonale X di V non contenente il vettore
nullo linearmente indipendente.
5 Sadi Carnot: fisico francese (Parigi, 1796 - 1832).

ma
1\(1 , 1)11 = J2,

La base B- -

2. Basi ortonormali

Un sottoinsieme B di V detto base ortogonale (risp. ortonor(i) B una base di V; (ii) B ortogonale (risp. ortonormale).

1\(2, -2) 11 = 2J2.

(( 2v'2 , 2v'2 ) , (fl fl )) e' invece orto norma Ie.


2 ,-

Esempio 8.10. Nello spazio vettoriale euclideo IR[t] dell'Esempio 8.2, l'i nsieme {1, t, t 2 ,
. . . , tr} (Esempio 4.10 bis) una base ortonormale per il sottospazio !Rr[t], per ogni
r ~O.
Esempio 8.11. Sia Mm x n(IR) lo spazio vettoriale eucl ideo descritto nell'Esempio 8.5.
La base f3 = {Ej I i E Nm,j E Nn} costruita negli Esempi 4.9 e 4.9 bis ortonormale.

Il seguente risultato prova l'esistenza di basi ortonormali in ogni spazio vettoriale


euclideo di dimensione finita v n; il procedimento utilizzato nella sua dimostrazione
(noto come procedimento (di ortonormalizzazione) di Gram6 - Schmidt7) riveste una
6 Joryen Pedersen Gmm: matematico danese (Nastrup, 1850"- 1916) .
7 Erhard Schmidt: matematico estone (Dorpat, 1876 - 1959).

8. SPAZI VETTORIALI EUCLIDEI

138 .

notevole importanza, perch consente di ottenere - in modo costruttivo - una base


ortonormale di vn a partire da una sua qualunque base ordinata.
Proposizione 8.5. Ogni spazio vettoriale euclideo di dimensione finita vn ammette una base ortonormale.
Dimostrazione. Sia B = (v1, ... , Vn) una qualunque base ordinata di vn. A partire
da B, costruiamo la n-pla B' = (e 1, ... ,en) di v n, nel seguente modo induttivo:

e = (3 , O, 2 ) _ < (3, O, 2), (2, O, O) > . (2 O O)_ < (3, O, 2) , (O , 1, 1) > . (O l l) =


3
' '
< (O, 1, 1), (O, 1, 1) >
' '
< (2, O, O) , (2 , O, O) >
= (3, O, 2) -

<
<
<
e3 = v 3 <
_
en - Vn -

V2 , e1
e1 , e1
v 3, e1
e1,e1

>
e1 ,
>
>
< v 3,e2 >
e1 e2 ,
>
< e2,e2 >

i=l < ei, ei >

(o, 1, 1) =(O, - 1, 1)

11::11

= (1, O, O),

f2 =

11:~11 =

(O ,

v'2,

v;, V:: )'

Esempio 8.13. Se (IR 3,-< , >-) lo spazio vettoriale euclideo di dimensione tre definito
nell'Esempio 8.7, e se (v 1 = (2, O, O) , v 2 = (1, 1, 1) , v 3 = (3, O, 2)) la base di JR 3

gi considerata nell 'Esempio precedente, applicando il procedimento di Gram-Schmidt, si


ottiene:
e1 =(2, O, O)

ei

Poich, per costruzione, si ha eh E L( {vi, ... , vh}) (h E Nn), facile verificare


che ognuno degli n vettori eh (h E Nn) non nullo: infatti, eh = O implicherebbe
vh E L({e1, ... ,eh_i}) L({v 1, . .. , vh-1}) , che ovviamente un assurdo, per la
lineare indipendenza di B.
D 'altra parte, il principio di induzione (pag. 8) permette di dimostrare che, per ogni
h E Nn, il vettore eh ortogonale ad ej, con j ~ h - 1. Infatti, l'affermazione
banalmente vera nel caso h = 1, e risulta vera per il generico vettore eh, una volta
supposta vera per ogni vettore e k, con k ~ h - 1 :
h-1
~ <vh, ei >
< ej, eh > = < ej, vh - ~
ei > =
i=l < ei,ei >
h-1
~ < vh ,ei >
=< ej, vh > -~
< ej , ei> =<ej,vh>
i=l < ei , ei >

(2, O, O) -

una base ortonormale di JR 3.

n-1

~ < vn ,ei>

B' = (e1 , e2, e 3) una base ortogonale di IR3. Poich lle1l l = 2, lle2ll = lle3ll =
ne consegue che B" = (f1, f 2, f3), dove

f1 =
e2 = v 2 -

139

2. BASI ORTONORMALI

e =(l 1 l) _ -< (1, 1, 1), (2, O, O)>- . (


_
_
-<(200)(200)
2,0,0)-(1,1,1)-0(2,0,0)-(1,1,1)
2
, ,

' ' ' ' '

=(3, O, 2) -

Esempio 8.12. Sia (v 1, v 2, v 3) la base dello spazio vettoriale euclideo standard JR , cos-

tituita dai vettori v 1 = (2, O, O) , v 2 = (1 , 1, 1), v 3 = (3, O, 2). Applicando il procedimento


di Gram-Schmidt, si ottiene:
< (1 , 1,1) , (2,0 , 0) > ( .
) (
) 2(
) (
)
e2= ( 1, 1,1 ) - < ( , 0,0),( ,0,0) > 2,0,0 = 1,1 , 1 - 4 2,0,0 = 0,1 , 1
2
2

(-1, -1, 1)

f 2 = e2 =
lle2l l

(v'2 v'2 v'2)


2 ' 2 ' 2

'

-3 =
f

e 3 _ ( - v'2
lle3ll 2 '

y'22 ' y'22)

una base ortonormale dello spazio vettoriale euclideo (non standard) (JR 3,-< , . >- ).

e1 =(2, O, O)

4(2, O, O) - 2(1, 1, 1) =

B' = (e1 , e2, e3) quindi una base ortogonale dello spazio vettoriale euclideo (non standard) (JR3,-< , >- ). Poich, rispetto al prodotto scalare considerato, i vettori di B' hanno
norma ll e1l l = 2, lle2ll = lle3ll = v'2, ne consegue che !311 = (t'i,f2, f3), dove
e1
f 1 = lle1ll = (l, O, O),

< v h,ej >


<ej,ej>=O.
< ej , ej >

Quindi, per il Corollario 8.4, B' = (e 1, . .. , e n) una base ortogonale di v n.


A questo punto, per ottenere una base ortonormale di v n basta considerare B"
(f1, ... , fn), dove, per ogni i E Nn,

>-

e3 =( 3 , O, 2 ) _ -< (3, O, 2), (2, O, O) >- . (2 O O)_ -< (3, O, 2), (O , 1, 1) >- . (l l 1) _
-< (2, O, O) , (2, O, O)>' '
-< (O, 1, 1), (O, 1, 1) >' ' -

Studiamo ora alcune notevoli propriet delle basi ortogonali e ortonormali.


Proposizione 8.6. S~ B = (ei, ... , en) una base ordinata ortonormale di y n e
u = B (u 1 , . .. ,un), v =B (v1 , ... , vn), si ha:
(a) u i = < ei, u >;
(b)

< u,v > =

"'n

~i = l

uivi.,

8. SPAZI VETTORIALI EUCLIDEI

140

3. TRASFORMAZIONI ORTOGONALI

3. Trasformazioni ortogonali

Dimostrazione. Per verificare le formule (a) e (b), basta osservare che

n
n
n
< ei, u >=< ei , L u1e1 >= L u1 < ei,ej >= L u1oij = ui
j=l

j=l

Nel presente paragrafo, i simboli V, W indicheranno spazi vettoriali euclidei; i simboli


vn) wn indicheranno invece spazi vettoriali euclidei di dimensione finita n.

j=l

<u,v>=<~u'ei,~v1e 1

i=l

>=

j=l

~~
i j
~~uv

<ei,ej >=

i=l j=l

~~
i ji;: - ~ i i
~~uv Uij- ~uv
i=l j=l

141

i=l

Le formule (c) e (d) sono invece immediata conseguenza della formula (b) e della
definizione di norma euclidea e coseno dell'angolo tra due vettori.

+Definizione 8. 7. Una traformazione lineare T: V-+ W sar detta trasformazione


ortogonale di V in W se T conserva il prodotto scalare, ovvero se, per ogni u , v E V,
si ha:
< T(u) , T(v) > = < u, v > .

Due spazi vettoriali euclidei V e W si dicono isomorfi se esiste una trasformazione


ortogonale biunivoca di V in W .

Teorema 8. 7. Sia wn uno spazio vettoriale reale n-dimensionale e sia B una


sua qualunque base ordinata. Esiste uno ed un solo prodotto scalare < , > su wn
1
rispetto al quale B risulti ortonormale. Inoltre, se u, V E wn e u =B (u ) ... ) un),
v =B ( v 1 , ... , vn), si ha:

Si noti che, come diretta conseguenza della precedente Definizione e delle Definizioni
8.2 e 8.4, ogni trasformazione ortogonale T conserva anche la norma dei vettori8 ed
il coseno dell'angolo:

< u,v >= Luivi.


i=l
Dimostrazione. E' facile verificare che l'applicazione< ". >: wn X wn-+ ~definita
da (*) bilineare, simmetrica e definita positiva ed quindi un prodotto scalare su
wn. Posto B = (e 1 , ... ,en), da(*) segue, in particolare, che, per ogni i,j E Nn,
< ei, e 1 > = Oij. Pertanto, B ortonormale in (Wn, < , >).
L'unicit di tale prodotto scalare conseguenza immediata della Proposizione 8.6 (b).

\fu, v E V ,

llT(v)ll = llvll

cos (T(u), T(v)) = cos(u, v) .

Inoltre, ogni trasformazione ortogonale T : V -+ W risulta essere iniettiva, perch


il suo nucleo si riduce al solo vettore nullo: infatti, se v E Ker T, allora Ilvi I =
= llT(v)ll = llOll = O, da cui segue v =O, per la Proposizione 8.l(a).
In particolare, nel caso di spazi vettoriali euclidei aventi la stessa dimensione finita
n, ogni trasformazione ortogonale T : yn -+ wn risulta essere biunivoca, in virt del
Corollario 5. 7.

Esempio 8.14. Il prodotto scalare naturale su ~n (Esempio 8.1) l' unico prodotto
scalare su ~n rispetto al quale risulti ortonormale la base naturale di ~n.

Esempio 8.15. Fissato cf> E


ogni (x ,y) E ~ 2 ,

[O, 27r[. l'applicazione pq, : ~ 2 -+

~ 2 definita ponendo, per

pq, (x,y) = (x coscf>+ysencf>,-xsencf>+y cose/>),


una trasformazione ortogonale sullo spazio euclideo standard ~ 2 . Infatti:

llPq,(x, y)ll = J(x cose/>+ ysenc/>) 2 + (-x sene/>+ y cos c/>) 2 = Jx 2 + y 2 = ll(x, y)ll Proposizione 8.8. Sia B una base ordinata ortonormale di yn. Una base ordinata
B' di yn ortonormale se e solo se la matrice E E Mn(OC) delle componenti di B'
rispetto a B ortogonale.

Dimostrazione. Ricordando la Definizione 5.3, se B' =(e~, ... ,e~), per ogni j E Nn,
si ha ej =B' (a}, ... , aj), dove a1 = (a}, ... , aj) la j-esima colonna di E. Essend~
B ortogonale, per la Proposizione 8.6 (b), B' risulta ortonormale se e solo se, per ogm
h,k E Nn, si ha:
n

Lahai =<e~,e~ >= Oij;


i=l
per la caratterizzazione delle matrici ortogonali data nella Proposizione 3.20, ci accade se e solo se A E On(~).
D

Si noti che pq, "ruota" dell'angolo cf> il vettore (x, y) intorno all'origine (O, O).

Proposizione 8.9. Se T : vn -+ wn una trasformazione ortogonale, e B,


B' una coppia di basi ordinate ortonormali di yn e wn rispettivamente, allora le
equazioni di T relativamente a B e B' sono del tipo

(y) = A (x),

con A E

On(~)

8In realt, non difficile dimostrare che la propriet di conservare la norma dei vettori equivale,
per le trasformazioni lineari, alla condizione di ortogonalit.

8. SPAZI VETTORIALI EUCLIDEI

142

4. COMPLEMENTO ORTOGONALE

143

Dimostrazione. Per la definizione stessa di trasformazione ortogonale, se B = (e1, ... ,


en) una base ortonormale di vn, allora (T(e 1), .. . , T(en)) una base ortonormale di
wn . La matrice A associata a T relativamente a B , B' risulta essere pertanto la matrice delle componenti di una base ortonormale (la n-pla (T(e1), ... , T(en))) rispetto
alla base ortonormale B'; la tesi dunque una conseguenza diretta della Proposizione
8.8.

Dimostrazione. (a) La propriet di bilinearit del prodotto scalare (propriet (PSI))


permette di verificare direttamente che .l X linearmente chiuso (e quindi un
sottospazio vettoriale). Infatti, per ogni v, w E .l X e per ogni a E JR, si ha:

In realt, non difficile verificare che, se una trasformazione lineare T : yn -+ wn


ammette, rispetto ad una coppia di basi ordinate ortonormali, una matrice associata
ortogonale, allora T una trasformazione ortogonale.

.l U, sia v E .l X e sia u un arbitrario vettore di U = L(X) ' posto u =


con xi E X, si ha allora:

... Osservazione 8.5. Sia Buna base ordinata di vn e <I>B : yn -+ !Rn l'isomorfismo
associato a B (Proposizione 5.8). Si osservi che <I>B trasforma B nella base naturale di
!Rn, che risulta ortonormale rispetto al prodotto scalare naturale (Esempio 8.1). Pertanto, se B una base ortonormale di vn' allora <I>B una trasformazione ortogonale
(biunivoca) di vn nello spazio vettoriale euclideo standard !Rn.
Ne consegue che due spazi vettoriali euclidei di dimensione finita sono isomorfi se e
solo se hanno la stessa dimensione.

4. Complemento ortogonale
N~l presente paragrafo, il simbolo V indicher sempre uno spazio vettoriale euclideo;
il simbolo vn indicher invece uno spazio vettoriale euclideo di dimensione finita n.

+ Definizione 8.8.

Se X un sottoinsieme di V, si dice complemento ortogonale di


X in V il sottoinsieme
.l X = {v E V

'v'x E X,

< v , x >= O}.

In altri termini, .l X costituito dai vettori di V ortogonali a tutti i vettori di X.


Si noti che, essendo il prodotto scalare non degenere, si ha
.ly = {O}

.l{O} = V .

... Osservazione 8.6. Se X e Y sono sottoinsiemi di V , si ha:


(a) X .l(.l X);
(b) (X Y) {::}

(.lY

.LX).

Per provare (a) , basta osservare che, se x E X, allora, per ogni v E .l X, si ha


< v, x >= O e quindi x E .l(.l X).
Per provare (b), basta osservare che, se v E .l Y, allora v ortogonale a tutti i vettori
di Y e dunque, nell'ipotesi X Y, a tutti i vettori di X.
Proposizione 8.10. Sia U = L(X) la chiusura lineare di X in V. Si ha allora:

(a) .l X un sottospazio vettoriale di V;


.(b) .i U = .i X;
(c) un .Lu = {O} .

'v'x E X,

< v + w, x > = < v, x > + < w, x > = O+ O = O;

< a v, x > = a < v, x > = a O = O.


(b) Dalla Osservazione 8.6(b) segue subito che .LU e .l X. Per provare che .l X e
'v'x E X,

i=l

i=l

"h
L-ti=l aix.

i,

Quindi v E .LU.
(c) Essendo U e .l U sottospazi vettoriali, si ha banalmente O E U n .l U. Se
V E Un .lU, allora, per ogni U E U, si ha < v, u >= 0, e quindi in particolare
< v, v >=O. Poich il prodotto scalare definito positivo, ci implica v =O. Pertanto, un .Lu = {O}.

o
... Osservazione 8. 7. Dalla Proposizione 8.10 (b) segue che un vettore v E V
ortogonale a tutti i vettori di un sottospazio vettoriale U di V se e solo se ortogonale
a tutti i vettori di un qualsiasi sistema di generatori (in particolare, di una qualunque
base) di U.
Teorema 8.11. Se U un sottospazio yettoriale h-dimensionale di yn, si ha:
(a) dim(.lU) = n - h;
(b) vn = U EB .LU;

(c) U =

.i( .i U).

Dimostrazione. Data una base ortogonale B1 = (e 1, ... ,eh) di U, tramite il Teorema del completamento ad una base (Proposizione 4.12) ed il procedimento di
Gram-Schmidt, possibile completare B1 ad una base ortogonale B = 8 1 U B2 =
(e1, ... , eh, f1, ... , fn-h) di vn. Poich B ortogonale, si ha B2 = (f1, ... , fn-h)
.lB1 = .LU; da questo segue L(B2) .LU, per cui dim(.lU) ~ n - h. Essendo
Un .LU = {O} (Proposizione 8.lO(c)), la relazione di Grassmann (Teorema 4.19)
implica dim(U + .l U) ~ n; ci dimostra sia la affermazione (a) che la affermazione
(b).
La affermazione (c) si verifica poi osservando che

o
Si noti che la dimostrazione del Teorema 8.11 fornisce un metodo costruttivo per
ottenere una base del complemento ortogonale di un generico sottospazio vettoriale
di vn . Un metodo alternativo dato dalla seguente

8. SPAZI VETTORIALI EUCLIDEI

144

145

5. MATRICI DI GRAM E PROIEZIONI ORTOGONALI

- w2 - <w2,e1> ei - <w2,e2> e2 - <w2,f1> f i -- (o , - -1o1)


, , < ei,e1 >
< e2,e2 >
< f1 ,f1 >
2
2
Quindi (in virt della dimostrazione del Teorema 8.11) (f1, f2) una base ortogonale
di 1- U 2. Si noti che un sistema lineare omogeneo minimo rappresentante U 2 si ottiene
imponendo che il rango della matrice
u1
u2
e -

Proposizione 8.12. Sia

~2

(} {ru'++ : ::_":u. : :
un sistema lineare omogeneo minimo, rappresentante il sottospazio vettoriale h-dimensionale U" di yn, rispetto ad una fissata base ortonormale B di yn . Posto, per ogni
i E Nn-h, a; =B (ai, ... ,a~) ed H = {a1, . .. ,an-d, si ha:

= L(H)

1-Uh

u3

u4

sia 2. Per il Teorema di Kronecker, il sistema cercato ha equazioni


u 1 - u 2 - 3u 3 =O

Dimostrazione. uIl vettore ii =B ( u1' . . . 'un) di vn appartiene ad uh se e solo se la


n-pla (u 1, .. . , un) soluzione del sistema (*). Essendo Buna base ortonormale, per
la Proposizione 8.6 (b), ci equivale a dire che ii E Uh se e solo se
w
lM
i -n _ O
vi E Hn-h,
< a;,u- >= a i u-1 + ... + anu
,
1

1- H

= 1-(L(H))

e quindi

1-Uh

= L(H).

o
8.12, poich le righe
al, a 2, ... , an-h della matrice incompleta del sistema minimo che rappresenta Uh
sono linearmente indipendenti, si conclude che H una base, non necessariamente
ortogonale, di J_ uh .

Esempio 8.16. Se U 2 ha, rispetto ad una base ortonormale B di V 3 , equazione


allora U 2 = 1-{a}, dove a
1-U2.

=B

u 3 =O,

(3, 0, -1); {a} dunque una base (non ortonormale) di


_,

Esempio 8.17. Sia U 2 = L(u1, u2) il sottospazio di IR4 generato dai vettori U1 =
(1, 1, O, 1), u 2 = (3, O, 1, O). Applicando alla base (ui, u2) il procedimento di GramSchmidt, si ottiene la base ortogonale (ei, e2) di U 2, dove
e1 = U1 = (1, 1, 0, 1),

)
e 2 =u 2 - < u2 , e1 > e1= (2,-1,1,-1.
< e1,e1 >

Posto w 1 = (O, O, 1, O), w 2 = (O, O, O, 1), la quaterna (e1, e2, w1, w2) una base (non
ortogonale) di JR4. Applicando il procedimento di Gram-Schmidt, si ottiene la base ortogonale (ei,e2,fi,f2) di IR4, dove
f1 = W1 -

< W1, e1 >


< w1, e2 > .
_ (- ~ ~ ~ ~)
. e1 e2 7' 7' 7' 7
< ei, e 1 >
< e 2, e2 >

u 4 =O.

La Proposizione 8.12 assicura allora che {a1 = (1,-1,-3,0), a 2 = (0,1,0,-1)} una


base per 1-U 2. Si osservi che tale base non ortogonale.
Il procedimento di Gram-Schmidt, applicato ad {ai, a 2}, d

10
g2 = a2 - - < a 2,g 1 > g 1 = (-~,
,-i_,-1);
< g1' g1 >
11 11
11
2
(gi, g 2) dunque una (diversa) base ortogonale di 1- U . Una base ortonormale di 1- U 2
si ottiene facilmente dividendo ciascun vettore di (g 1,g 2) (o di (f1,f2)) per la sua norma.

rJo

Il> Osservazione 8.8. Con le notazioni della Proposizione

3u 1

g1 = a1 = (1,-1,-3,0),

cio se e solo se ii E 1- H .
La tesi segue allora dalla Proposizione 8.10 (b) e dal Teorema 8.11 (c):
Uh =

{ u2

Xs.

Matrici di Gram e proiezioni ortogonali

Nel presente paragrafo, il simbolo


di dimensione finita n 2: 1.

vn

indicher sempre uno spazio vettoriale euclideo

Definizione 8.9. Si dice matrice di Gram della h-pla (v 1, . . . , vh) di vettori di


la matrice
G = (gij) E Mh(IR)
definita ponendo, per ogni i,j E Nh,
gij = <

Vi, Vj

vn

>.

Il determinante di G detto determinante di Gram della h-pla (vi, .. . , vh) e si indica


con Q(v1, . .. , vh)

Si noti che, per la simmetria del prodotto scalare, ogni matrice di Gram simmetrica.

p E 6h una permutazione su Nh, si ha Q(v 1, . . . , vh) =


Q(vp(l)> ... , Vp(h))
Infatti, ogni trasposizione produce sulla matrice di Gram contemporaneamente uno
scambio di righe ed uno di colonne, lasciando quindi invariato il determinante.

Il> Osservazione 8.9. Se

Il> Osservazione 8.10. La matrice di Gram della h-pla (vi, . . . , vh) la matrice
identica (di ordine h) se e solo se l'insieme {vi, ... , vh} ortonormale.

8. SPAZI VETTORIALI EUCLIDEI

146

Proposizione 8.13. La matrice di Gram G di una h-pla linearmente indipendente (v 1, . . . , vh) di vettori di yn una matrice regolare (di ordine h}, con determinante positivo. Inoltre, per ogni fissata base ortonormale B (risp . B) di yn
(risp. di L(v 1, . . . , vh) ), detta A E Mnxh(IR) (risp. A E Mhxh(IR)) la matrice delle
componenti dei vettori (v 1, . . . , vh) rispetto a B (risp. B), si ha

G=tAA=t_A . .A
Dimostrazione. Sia Buna fissata base ortonormale di vn. Posto A= (a~), si ha, per
ogni s E Nh, v 8 =: 6 (a!, ... a~); quindi, per la Proposizione 8.6(b), se G = (9iJ), si
ottiene:
n

r= l

Essendo Cli = (at, ... ai) la i-esima riga di t A ed essendo aj = (a}, . . . aj) la j-esima
colonna di A, resta cos dimostrato che G = t A A.
Sia ora t3 una fissata base ortonormale di L(vi, ... , vh), e sia Buna base ortonormale
di vn ottenuta da t3 tramite il Teorema del completamento ad una base ed il procedimento di Gram-Schmidt. La matrice A delle componenti dei vettori (v1, . .. , vh)
rispetto a B ha le ultime n - h righe nulle, mentre la sottomatrice costituita dalle
prime h righe coincide con la matrice A delle componenti dei vettori (vi, .. . , vh)
rispetto a B. Pertanto, resta provato che

147

.,.. Osservazione 8.12. Il coefficiente di Fourier di v rispetto ad u caratterizzato


dal fatto di essere l'unico numero reale a tale che v = au + w , con w ortogonale ad
u (o, equivalentemente, ad au).
Si ha infatti:

O = < u, w > = < u , v - au > = < u , v > -a < u , u >


se e solo se

a=

< u,v >


< u,u >

Ci giustifica il termine di proiezione ortogonale di v su u assegnato al vettore au.


Si noti infine come, nel procedimento di ortonormalizzazione di Gram-Schmidt, il
k-esimo vettore ek della base ortogonale B' costruita a partire dalla base B di yn si
ottenga sottraendo al k-esimo vettore di B le sue proiezioni ortogonali sui vettori e1
di B' , per ogni j < k.
'
Sia ora U un sottospazio vettoriale h-dimensionale (con 1 :=:; h :=:; n - 1) dello spazio
vettoriale euclideo vn. In virt del Teorema 8.ll(b) e della Proposizione 4.18, ogni
vettore di vn si pu decomporre in modo univoco nella somma di un vettore di U e
di un vettore di J. U.
Ci giustifica la seguente:

G=tA A=t_A.A.
La prima parte dell'enunciato segue ora direttamente dal Teorema di Binet, osservando che, per la lineare indipendenza della h-pla (v 1, ... , vh), la matrice A regolare
(di ordine h):
detG = det(t_A . .A) = (det.A) 2 >0.

o
.,.. Osservazione 8.11. Una verifica diretta prova che, se la h-pla di vettori (v1, ... , vh)
linearmente dipendente, allora il determinante di Gram (v1, ... , vh) uguale a
zero.
Pertanto,
(v 1, ... , vh) linearmente dipendente.

se e solo se

5. MATRICI DI GRAM E PROIEZIONI ORTOGONALI

Definizione 8.11. Dato il sottospazio h-dimensionale U di yn (con 1 :=:; h. :=:;


n - 1), si dice proiezione (ortogonale) del vettore v E vn su U il vettore pu(v) EU,
univocamente determinato dalla condizione
V -

Pu(v) E

J_u.

La applicazione
Pu: yn-+ yn
(la cui immagine coincide con U) che associa ad ogni vettore v E vn la sua proiezione
ortogonale Pu (v) su U si dice proiezione ortogonale sul sottospazio U .
Proposizione 8.14. La proiezione ortogonale sul sottospazio U un operatore
lineare su yn; inoltre, fissata una base ortonormale B di yn, ed una base Bu di U,
le equazioni di pu rispetto a B sono

(y) = [A c- 1 . tA](x),

Definizione 8.10. Se u, v E
rispetto ad u il numero reale

vn

a=

=/=-

O, si dice coefficiente di Fourie~ di v

< u,v>
< u,u>

Il vettore au si dice proiezione (ortogonale) div su u.


Si osservi che, se u un versore, allora il coefficiente di Fourier di v rispetto ad u
il prodotto scalare < u, v > .
9 Jean Baptiste Joseph Fourier: matematico francese (Auxerre, 1768 - Parigi, 1830).

dove A E Mnxh(IR) la matrice delle componenti di Bu rispetto a B e G


la matrice di Gram dei vettori di Bu .

t A A

Dimostrazione. Verifichiamo direttamente che, per ogni V E vn, con V =B (x), il


vettore w E yn tale che w =:B [A c- 1 t A] (x) (la cui definizione risulta ben posta
in quanto, per la Proposizione 8.13, G = t A A E GLh(IR)) la proiezione ortogonale
div su U; ci dimostra completamente l'enunciato, perch la linearit di pu discende
banalmente dalle equazioni di tipo (y) = M(x) (con ME Mn(IR)).
Il fatto che il vettore w =B (y) appartenga al sottospazio U deriva dalla relazione

(y) =A [c- 1 tA (x)],

8. SPAZI VETTORIALI EUCLIDEI

con A matrice delle componenti rispetto a l3 dei vettori di una base di U e con
1
tA (x) E Mhxi(IR)
(si ricordino le equazioni parametriche dei sottospazi
vettoriali, presentate nel 3 del Capitolo 6).
Rimane quindi da verificare che v - w E 1- U, ovvero che, \fu' EU,

c-

<V

w, U > = 0.

Utilizzando le equazioni parametriche del sottospazio U , si ha che u' =BA (z), con
(z) E M h x 1 (JR). Il calcolo del prodotto scalare si pu allora effettuare tramite le componenti rispetto alla base ortonormale E, mediante la Proposizione 8.6(b) (espressa
nella forma matriciale< u, v >= t(u) (v)):

< v - w, u' > = t(A (z)) [(x) - (y)J

6. ORIENTAZIONE DI UNO SPAZIO VETTORIALE EUCLIDEO

Esempio 8.18. Fissata in V 3 una base ortonormale E, per determinare la pro1ez1one


ortogonale del vettore v =B (1, 3, 1) sul sottospazio U: x 1 -4x 2 -x 3 =O, conveniente
costruire una base ortonormale (u~, u~) di U: presa ad esempio la base (ui, u 2) di U,
con u 1 =B (1 , O, 1) e u2 =B (4, 1, O), il procedimento di ortonormalizzazione di Gram
Schmidt produce:

Le componenti (Y1,fJ2,fJ3) rispetto a l3 della proiezione ortogonale Pu(v) si ottengono


allora dalla matrice A delle componenti di (u~, u~):

(il)

= t ( z) . t A . (X) - t ( z) . t A . [A . (t A . A )- 1 . t A . (X) J =
= t ( z) . t A . (X) - t ( z) . A . A) . (t A . A) - l J . t A . (X) =

y2
y3

2/3) . ( 1!v'2 o l/v'2\


1/3
2/ 3 1/3 -2/3) .
l/v'2 -2/3

=A tA. (1)
3 = (l/v'2
o

= t(z) tA (x) - t(z) tA (x) = O

o
~ Osservazione 8.13. facile verificare che la matrice M associata all'operatore
lineare Pu relativamente alla base ortonormale l3 di yn simmetrica e gode della
propriet M . M = M. io

149

=
owero pu(v)

=.B

17/18
2/9
( 1/18

2/9
1/9
-2/9

1/18) . (1)
-2/9
3
17 /18
1

5/3)
'
(1/3
1/3

rn, ~' ~).

Osservazione 8.14. La matrice M associata all'operatore lineare pu relativamente


alla base ortonormale l3 di vn ovviamente indipendente dalla base Bu fissata in U ,
e quindi dalla matrice A delle sue componenti. In particolare, se nel sottospazio U si
fissa una base ortonormale Bu, allora la matrice di Gram dei vettori di Bu coincide
con la matrice identica h (si ricordi la Osservazione 8.10). Pertanto, detta A la
matrice delle componenti di Bu rispetto a E, la matrice M associata a pu rispetto a
l3 (e, di conseguenza, le equazioni di pu) possono essere agevolmente calcolate tramite
M= tA_

Osservazione 8.15. Nel caso h = 1, la proiezione ortogonale di un vettore v E yn


su U coincide con la proiezione ortogonale del medesimo vettore su qualunque vettore
u tale che U = L(u) . Infatti, in questo caso particolare, la matrice A si identifica con
la colonna (u) delle componenti del vettore u rispetto alla base ortonormale fissata
l3; si ha quindi

(y) = [(u) (t(u) (u))- 1 t(u)] (x) = (u) ( < u, u > )- 1 [t(u) (x)] =

= < U , V> . (u),


< u,u>
ovvero

< u , v>
u = au,
< u , u>
con a coefficiente di Fourier di v rispetto ad u.
pu(v) =

10 Una matrice con tale propriet

usualmente detta

idempotente.

6. Orientazione di uno spazio vettoriale euclideo


Nel presente paragrafo, il simbolo yn indicher sempre uno spazio vettoriale euclideo
di dimensione finita n 2: l. Il simbolo B denoter l'insieme delle basi ordinate di
yn. Ricordiamo che la matrice del cambiamento di base tra due basi ordinate di B
(Proposizione 5.19) regolare ed ha quindi determinante non nullo.

Definizione 8.12. Due basi ordinate E, E' E B si dicono concordi, e si scrive


l3::::::: E' , (risp. discordi) se la matrice E E GLn(IR) del cambiamento di base da l3 a
E' ha determinante positivo (risp. negativo).
Si ha pertanto:

(B:::::::B')

{::}

(detE>O).

~ Osservazione 8.16. Si noti che, se l3 = (ei, ... , en) una base ordinata arbitrariamente fissata di yn, allora la base ordinata E' = (-e 1 , e 2, ... , en) una base
discorde a E, in quanto la matrice del cambiamento di base da l3 a E' la matrice
diagonale E= diag(-1, 1, ... , 1), con det E= -1 <O. Inoltre, se i3 una qualsiasi
base ordinata di yn, allora B risulta concorde (risp. discorde) ad una ed una sola
delle due basi l3 e E' : infatti, detta H (risp. K) la matrice del cambiamento di base
da l3 a i3 (risp. da E' a E), per l'Osservazione 5.9 si ha H = K E, e quindi

det H = det(K E) = det(K) det(E) = - det K.

8. SPAZI VETTORIALI EUCLIDEI

i50

+ Definizione 8.13.

Si dice spazio vettoriale euclideo orientato (di dimensione n)


una coppia (Vn, B), dove vn uno spazio vettoriale euclideo di dimensione finita
n 2: 1 e B E B una base ordinata di vn. Se (Vn, B) uno spazio vettoriale euclideo
orientato, allora la base B e tutte le basi ad essa concordi si dicono basi positive,
mentre tutte le basi discordi con B si dicono basi negative.

In pratica, dunque, orientare uno spazio vettoriale euclideo vn significa scegliere una
sua base ordinata come base positiva (insieme a tutte le basi ad essa concordi). La
Osservazione 8.16 permette di affermare che ogni spazio vettoriale euclideo vn pu
essere orientato in due soli modi possibili.
..,. Osservazione 8.17. Se n = 1, l'insieme B pu essere identificato con l'insieme dei
vettori non nulli di vi. In questo caso, quindi, se e, f E vi - {O}, si ha:
(e~f)

{::} (f=e, >O)

Esempio 8.19. Lo spazio vettoriale euclideo standard !Rn si considera orientato in modo
naturale scegliendo come base positiva la base naturale.

7. PRODOTTO VETTORIALE E PRODOTTO MISTO

i5i

..,. Osservazion.e 8.18. In realt, possibile introdurre la nozione di orientazione, in


modo del tutto simile a quanto fatto nel presente paragrafo, considerando vn come
un generico spazio vettoriale reale (e non, necessariamente, come uno spazio vettoriale
euclideo) . Analogamente, possibile parlare di isomorfismi di uno spazio vettoriale
reale in s che conservano (risp. rovesciano) l'orientazione, anche nel caso non si
tratti di trasformazioni ortogonali, e caratterizzarli attraverso il segno positivo (risp.
negativo) del determinante di una qualunque matrice associata.

7. Prodotto vettoriale e prodotto misto

Nel presente paragrafo, (V3 , i3) indicher uno spazio vettoriale euclideo orientato di
dimensione tre.
Lemma 8.16. Dati due vettori linearmente indipendenti u , v E V 3 , per ogni
k E JR+, esiste uno ed un solo vettore w E V 3 tale che:
(a) w ortogonale ad u ed a v;
(b) la base ordinata (u, v, w) positiva;

(c) llwll = k .
Dimostrazione. Dal Teorema 8.11 (a) segue che il complemento ortogonale W =
L(u, v) di { u, v} in V 3 un sottospazio vettoriale di dimensione uno. Se W = L(z),
allora gli unici due vettori soddisfacenti (a) e (b) sono
_1_

Sia ora T : vn -+ vn un isomorfismo dello spazio vettoriale euclideo orientato vn


in s (ovvero, secondo la Definizione 8.7, una trasformazione ortogonale biunivoca di
vn in s). Non difficile verificare che, se T trasforma una base positiva i3 di vn in
una base positiva di vn, allora T trasforma ogni base B di vn in una base concorde
di vn .
Infatti, l'ipotesi assicura che la matrice A= M13(T) E GLn(IR) associata a T rispetto
alla base f3 ha determinante positivo; inoltre, la matrice A simile alla matrice A =
M5(T) E GLn(IR) associata a T rispetto alla base B (Teorema 7.5) e dunque A e A
hanno lo stesso determinante.
Ci consente di dare la seguente definizione, e contemporaneamente di provare - grazie
alle Proposizioni 8.9 e 3.20 - la successiva affermazione.

+Definizione 8.14.

Sia vn uno spazio vettoriale euclideo orientato. Si dice che un


isomorfismo T di vn in s conserva l'orientazione se trasforma basi positive in basi
positive; nel caso opposto si dice che T rovescia l'orientazione.

Proposizione 8.15. Sia vn uno spazio vettoriale euclideo orientato e T un isomorfismo di vn in s. Allora, T conserva (risp . rovescia) l'orientazione se e solo se,
rispetto ad una qualunque base ortonormale di vn, la matrice A E On(IR) associata
a T ha detA = 1 (risp. detA = -l) .

~z.
Il lemma segue quindi facilmente, osservaJ!.dO che ( u, v, : z) e ( u, v,
11 11

basi discordi di

: z) sono
11 11

V 3.

+Definizione 8.15.
V

Dati due vettori u, v E V 3 , si dice prodotto vettoriale di u per


il vettore U /\ V E V 3 definito come segue:
(i) se u e v sono linearmente dipendenti, allora u /\ v = O;
(ii) se u e v sono linearmente indipendenti, allora u/\v il vettore univocamente
determinato dalle seguenti condizioni:
(a) u /\ v ortogonale a u e a v;
(b) la base ordinata (u, v , u /\ v) positiva;
(c) llu /\vi i = llull llvll sen (u, v), dove si posto
sen (u, v)

Jl - cos 2 (u, v).

Proposizione 8.17. Sia B = (i,j, k) una base ordinata ortonormale positiva di


(V3 ,B). Posto u =. 8 (ui,u 2 ,u3 ) e v =.5 (v1,v 2 ,v3 ), si ha:

u/\v=-B(I~~ ~~ 1, - 1~~ ~~ 1 , 1~~ ~~I).

152

8. SPAZI VETTORIALI EUCLIDEI

Dimostrazione. Poniamo
w=B

(I::

Proposizione 8.18. Sia B = (i,j, k) una base ordinata ortonormale positiva di


(V3,B). Posto u = 8 (u 1,u2,u 3), v =B (v 1,v 2,v 3) e w =B (w1,w 2,w 3), si ha:

~: 1 ,- 1:~ ~~ 1 , 1:~ ~~I)

ul

e proviamo che u /\ v = w.
(i) Se u e v sono linearmente dipendenti, allora (u1,u 2,u3) proporzionale a
(v 1, v2, v3), e si ha quindi w 8 (O, O, O). Pertanto, w =O = u /\ v.
(ii) Se u e v sono linearmente indipendenti, poich B ortonormale, si ha

vl
v2 l =O

<u,w>=u 1 lu
u3

1
< v, w > = v luu3

2
1 1
v 1- v 2 lu
v 1+ v 3 lul
v3
u3 v3
u2

vl
v2 l =O

2
2
2
u2
v2
1
+
lul
vl
l
+
lul
vll
=
llwll
u3 v3
u3 v3
u2 v2
l
J((ul )2 + (u2)2 + (u3)2)((vl )2 + (v2)2 + (v3)2) _ (ulvl + u2v2
2
2
= V11ull llull - < u, v > 2 = llu /\v ii

A =

u3

v3

V(\

k (\i= j .

.,. Osservazione 8.20. Si noti che il prodotto vettoriale gode, per ogni u, v, w E V 3
e per ogni a E JR, delle seguenti propriet: "\ ,
1) u/\v = -(v/\u); f:J'J'."\\)\IMM.fl, ''~ ,, ~- \~
2) u /\ (v + w) = (u /\ v) + (u /\ w); JJ:;'Y\R>oXJ
"""'
3) a(u /\ v) = (au) /\ v = u /\ (av).

(u, v, w) di vettori di

evt ~

I Tlf.

_.....

, tOCCVI"

-1

ti

c.'> I.o v- \I> .a,.,.

-rr

/\V>=< V, W

/\ U

=B

=B

(I~ ~I) -I~ ~I) I~ ~I)

si dice prodotto misto della terna


il numero reale< u, v /\ w > .

=B

(O, 1, 1), essendo

(3, -1, 1);


1

V f\W

>;

(1, 3, O), e w

y.,ltl 01("ra...~

"

.,. Osservazione 8.19. Se B = (i,j, k) ortonormale positiva, 4 si ha, come caso


particolare della Proposizione 8.1'7:

3,

<u,v/\w> =<(0,l,0),(3,-1,1)>= -1

V3

W, U

Esempio 8.20. Ad esempio, se u =B (O, 1, O), v


B una base ordinata ortonormale positiva, si ha

~:1
-1:~ ~3 1
1:~ ~~ 1

+Definizione 8.16. Dati tre vettori u, v, w E V

Lo- r

2) < u, v /\ w > = O se e solo se u, v, w sono linearmente dipendenti.

+ u3v3)2

1::

j (\ k =i;

w2 .

Dimostrazione. Si ottiene subito ricordando la Proposizione 8.17, la Proposizione 8.6


(b) e sviluppando il determinante secondo la prima colonna, mediante il Teorema di
Laplace.

< u, V/\ W > = <

Lo sviluppo di Laplace di det A secondo la terza colonna prova che det A =


2
llwll >O; ci dimostra che (u, v, w) una base positiva.
Si ha pertanto w = u /\ v.

i(\ j = k;

wl

.,. Osservazione 8.21. Il prodotto misto una applicazione di V 3 x V 3 x V 3 in JR


che gode delle seguenti propriet:
1) scambiando fra loro due vettori, il prodotto cambia di segno; pertanto, per
ogni u, v, w E V 3 , si ha:

Infine, la matrice del cambiamento di base da (u, v, w) a B = (i,j, k) :

vl

vl

< u, v /\ w > = u 2 v2

Ci prova che w ortogonale ad u e a v.


si ha poi:

ul

153

7. PRODOTTO VETTORIALE E PRODOTTO MISTO

1
3

o o

o
1
1

CAPITOLO 9

Spazi euclidei
1. Definizioni ed esempi

Nel presente capitolo, il simbolo

indicher sempre urto spazio vettoriale euclideo

(E, <,>).

Definizione 9.1. Diremo spazio euclideo una terna (E,[, 7r), costituita da uno
spazio vettoriale euclideo f, da un insieme [ e da una applicazione 7r : [ x [ --t f, che
associa ad ogni coppia (P, Q) di elementi di [ il vettore 7r(P, Q) = PQ, soddisfacente
i seguenti assiomi: ,

AP =

(SEi) \IA E [, \la E f, esiste uno ed un solo P E [, tale che


(SE2~ \IP, Q, RE&, PQ +
=
(relazione di Chasles 1).

QR PR

a.

Si noti che dall'assioma (SEI) segue che l'applicazione 7r suriettiva.


L'insieme [ detto sostegno dello spazio euclideo (E,&, 7r) ed i suoi elementi sono
detti punti. Un elemento (P, Q) di [ x [ _detto segmento orientato, avente P quale
primo estremo e Q quale secondo estremo. Gli elementi di f sono detti vettori liberi;
il vettore libero nullo sar indicato con O. Se (E,&, 7r) uno spazio euclideo, diremo
spesso, per brevit e con abuso di linguaggio, che [ uno spazio euclideo, avente f
quale spazio dei vettori liberi. Si osservi che, in ogni caso, come gi visto per gli spazi
vettoriali, lo stesso insieme [ pu essere sostegno di differenti spazi euclidei.
Quali conseguenze dirette degli assiomi (SEI) ed (SE2), si verificano poi, per ogni
spazio euclideo [ e per ogni Q, R E [, le seguenti propriet:

0 (QR=O)
(ii~ QR = -RQ.

{=}

(Q=R)

+Definizione 9.2.

Uno spazio euclideo [sar detto di dimensione finita se lo spazio


dei vettori liberi f ha dimensione finita. In tal caso porremo dim [ = dim f .

Uno spazio euclideo di dimensione (finita) n sar solitamente indicato con t;n . Se
lm& =O, allora f = {O} e dunque - per la precedente propriet (i) - &0 si riduce
ad un singolo punto.
Se dim [ = I, 2, 3, allora [ detto rispettivamente retta euclidea, piano euclideo
spazio euclideo ordinario.
1Michel Chasles: matematico francese (pernon, 1793-1880).
\

'V

f}
'-- V

~{O
\

l :

.<e '(~ '("-1-"'

~~~.)..~ l)~ t ~o'\~

..;

(;

l"t.Q..

.. .

Z., \'.A

r~;iOf'~

T"- ('

\JY\. \; \,

t. VI,,

J ;;.'

\ .

~,,..._ 'v

.
.i

9. SPAZI EUCLIDEI

156

+ Definizione 9.3.

157

2. SISTEMI DI RIFERIMENTO

2 . Sistemi di riferimento

Se E uno spazio euclideo, diremo che lue 3menti orientati


(P, Q) e (R, S) sono equipollenti, e scriveremo (P, Q) = (R, S), se PQ =

RS.

La proposizione seguente ci consente di affermare che il supporto V di ogni spazio


vettoriale euclideo anche supporto di uno spazio euclideo (avente V stesso quale
spazio dei vettori liberi).
Proposizione 9.1. Se (V,< , >) uno spazio vettoriale euclideo e se si pone
ft.l~t;,
\lt.\-...o'(t
V = V e
T:VxV-+V

(v,w)-+~=w-v
Lo spazio euclideo E(V) = (V, V, T) si dice associato allo spazio vettoriale euclideo
(V,< .,. > ).
.,.. Osservazione 9.1. In realt, possibile costruire una teoria analoga a quella
esposta nel presente paragrafo, sostituendo lo spazio vettoriale euclideo E con un
generico sp azio vettoriale A su di un campo K: lo spazio (A, A, 7r) che ne deriva in
base alla Definizione 9.1 si dice spazio affine su K In pratica, quindi, uno spazio
euclideo pu essere considerato come uno spazio affine su ~. il cui spazio dei vettori
liberi dotato di un prodotto scalare. Si noti che le nozioni introdotte nei successivi
2, 3, 4, 5 possono essere introdotte, con le dovute modifiche, anche nel caso di
uno spazio affine su OC, mentre le nozioni relative ai 6, 7, 8, 9, 10 necessitano della
presenza di un prodotto scalare definito sullo spazio dei vettori liberi, e pertanto
possono essere introdotte esclusivamente nell'ambito degli spazi euclidei.

Esempio 9.1. (Lo spazio euclideo elementare) Sia F lo "spazio euclideo elementare" .
Fissato un punto O E F, sia (F(O), < , >) lo spazio vettoriale euclideo considerato
nell'Esempio 8.6, avente come sostegno l'insieme

= {(O,P) I p

ed il cui prodotto scalare definito mediante

Definizione 9.4. Diremo riferimento cartesiano su [" una coppia R = (O , B},


dove O un punto di En, detto origine del riferimento R e f3 una base ordinata
ortonormale dello spazio vettoriale euclideo ({n, < . , . >).
Dato un pun:o P E En, si dicono coordinate cartesiane (non omogenee) di P, rispetto
ad R _= (O, B), le componenti del vettore libero
rispetto alla base B.
Se B = (e1, e2, ... , en) e
= x 1 e1 + x 2 e2 + + xne
scriveremo P =
1
2
n)
. .
.
n,
-n
x
,
x
,

.
.
,
x
per
md1care
la
n-pla
delle
coordmate
cartesiane
di
P rispetto ad R
(
Si ha, evidentemente, O =n (O, O, ... , O).
'
.
Si osservi che l'assioma (SEl) implica, per ogni i E Nn, l'esistenza di un unico punto
pi E [n tale che ei =o
Si ha inoltre pi =n (O, o, ... , o, 1, o, ... , O).

oP

allora la terna E(V) = (V, V, T) uno spazio euclideo.

F(O)

Nel presente paragrafo, t:n indicher sempre uno spazio euclideo di dimensione finita
n >O.

A.

--

Se 1T: F x F--+ F(O) l'applicazione che ad ogni coppia (R , S) associa l' unico vettore
applicato in O che ha la stessa lunghezza, la stessa direzione e lo stesso verso del segmento
orientato (R, S), allora immediato verificare che la terna (F(O) , F, 7r) verifica gli assiomi
(SEl) ed (SE2); F risulta pertanto uno spazio euclideo di dimensione tre.
Esempio 9 .2. (Lo spazio euclideo standard ~n) Se, nella Proposizione 9.1 , si considera
(V,< , >) = (~n, < , > ), spazio vettoriale euclideo standard n-dimensionale, allora
lo spazio euclideo associato sar detto spazio euclideo standard di dimensione n e sar
indicato con E(~n) o, pi semplicemente, ancora con ~n.

Esempio 9.3. Sia F lo spazio euclideo elementare dell'Esempio 9.1. Un riferimento


cartesiano su F una coppia R = ('O, B), dove O E F e f3 una base ordinata ortonormale dello spazio vettoriale euclideo F(O) . Pertanto, f3 risulta costituita da una terna
(linearmente indipendente) ((O, P1), (O , P2), (O, P3 )) di versori applicati in O a due a
due ortogonali .
Esempio 9.4. (Riferimento cartesiano naturale su ~n) Se ~n lo spazio euclideo
standard di dimensione n (Esempio 9.2), allora il riferimento cartesiano ft = (O , B),
dove_ O= (?,0, ... ,0) e B = (~,2, . . . ,n) la base naturale (ortonormale) dello
spazio vettoriale euclideo standard ~n = ~n (Esemp~,> ,8 . 1), detto riferimento cartesiano
naturale su ~n . Se P = (x 1 , x2 , .. . , xn) E ~n, aliora evidentemente
= p - O =
x 1-ei + x 2-e2 + + xnn, per cui P =n (x 1 , x 2 , . .. , xn).

oP

E F}

<(O, P), (O, Q) >= d(O, P) d(O, Q) cos(POQ)

oP

Esempio 9.5.
( ~,
allora

Se ~ 2 il piano euclideo standard, O' = (-1 , 4) ,

~ )) , allora

R = (O', B) un riferimento cartesiano su

O'P = (1,2)-(-1,4) = (2,-2) = 2J2

(~ , - ~)
v'2 v'2

f3 =

~ 2 . Se
+0

(( ___!__
./2' _ ___!__
./2 ) ,

P = (1, 2) E

(~ _l )
v'2 , v'2

~2,

Pertanto, P =n (2J2, O).

Proposizione 9.2. Sia R = (O, B) un riferimento cartesiano su [n e siano


P =n (x~, x~,, ... , x'f,), Q =n (xh, x~, ... , xQ ) punti di t:n .

.!4.llora,

PQ =fJ (xh - x~, x~ -

xi, .. . , xQ - xj:,).

158

Dimostrazione. Posto

9. SPAZI EUCLIDEI

f3 =

(e 1 , e 2 , ... , e 0

),

..,.. Osservazione 9.2. Le equazioni del cambiamento di riferimento inverso da R" a


R' sono evidentemente

si ha, per definizione:

DP =L:x~e;; oQ = L:x~e; .
i=l

(x ) = E - 1 (y) - E - 1 (b) = E - 1 (y - b) = tE(y - b) ,

i=l

come facile verificare, moltiplicando a sinistra per E- 1 =


ortogonale) le equazioni (*).

Per la relazione di Chasles si ottiene:

oQ-oP

= L(x~-x~)

i=l

Esempio 9.6.

= (o, i3)

un riferimento cartesiano su t:n,


l'applicazione </>n che ad ogni punto P =n (x 1 , x 2 , . .. , xn) E t;n associa </>n(P) =
1
(x , x 2 , . .. , xn) E !Rn una biiezione; tale biiezione detta sistema di coordinate
cartesiane relativo al riferimento cartesiano R = (O, B).
Supponiamo ora che R' = (O', B') ed R" = (O", B") siano due riferimenti cartesiani
su t;n. La proposizione seguente permette di ricavare la n-pla delle coordinate cartesiane di un punto P E t;n rispetto ad R" quando sia nota la n-pla delle sue coordinate
cartesiane rispetto ad R'.

Proposizione 9.3. Se P =n' (x 1 ,x 2 ,. . .,xn) e P =n" (y 1 ,y 2 ,. . .,yn), allora si


ha

(y)

(*)

R' = (O', B'), dove O'= (- 1, 4) e

= ( ( }z, -

E -- (

}z), ( }z, }z))

}z1

- .,/2

(si veda l'Esempio

B" =

((1 , O) , (O , 1)) .

}z).
1
'
.,/2

inoltre, O' =n" (- 1, 4). Pertanto, se P = n' (x1,x 2 ) e P =n" (y 1 , y 2 ), allora le


equazioni (*) del cambiamento di riferimento cartesiano da R' ad R" sono:

cio
yl
{

y2 =

Essendo
E - 1 = tE =

(~

ed

.,/2

., ,.;e+
--+ --,-t
O"P = O"O' + O'P.

le equazioni del cambiamento di riferimento inverso da R" a R' sono

Questa uguaglianza tra vettori liberi, espressa in termini di componenti rispetto alla
base B", diventa:

(b)

B'

9.5), ed il riferimento cartesiano R" = (O" , B"), dove O" = (O , O) e


La matrice delle componenti di B' rispetto a B"

Dimostrazione. Per la relazione di Chasles, si ha:

(si ricordi che E

Nel piano euclideo standard JR 2 , si considerino il riferimento cartesiano

= E(x) + (b)

dove E E On(IR) la matrice delle componenti della base B' rispetto a B", e () E>
Mnx-i(IR) la colonna delle coordinate cartesiane del punto O' rispetto al riferim1nto
R".

(y)

tE

e;.

Ci prova l'asserto.

poi immediato verificare che, se

159

3. SOTTOSPAZI EUCLIDEI

+ (x'),
--,-t

dove (x') denota la colonna delle componenti del vettore libero O' P rispetto alla
base B". Poich la colonna (x) delle coordinate cartesiane del punto P rispetto al

xl =
{ X2 =

}zyl _ }zy2 + ~
11

.j2 Y

12

.j2Y -

.,/2

Utilizzando tali equazioni, si ha che, se P = n" (1 , 2), allora P =n (2~, O), come gi
provato direttamente nell'Esempio 9.5 .
1

--,-t

riferimento R' coincide con la colonna delle componenti del vettore libero O' P rispetto
alla base B', le equazioni del cambiamento di base da B' a B" sono esattamente

(x') = E(x);
3. Sottospazi euclidei

la tesi segue quindi direttamente, sostituendo questa relazione nella uguaglianza precedente.

Sia (E, E, n) uno spazio euclideo, P E [ un suo punto ed X


suo spazio dei vettori liberi; poniamo

Le equazio (*) vengono dette equazioni del cambiamento di riferimento cartesiano


da R' ad R" .

(P,X) = {QE[

taf ~:o-, t

'(""

e~~ ~

':<J

PQEX}

'1-'1'~~ ~~tr

E un sottoinsieme del

9. SPAZI EUCLIDEI

160

3. SOTTOSPAZI EUCLIDEI

161

+Definizione 9.5.

Un sottoinsieme 1i di [ si dice sottospazio euclideo dello spazio


euclideo [ se esistono un punto P E [ ed un sottospazio vettoriale (euclideo) U di f
tale che 1i = (P, U) .

.,. Osservazione 9.4. Quale immediata conseguenza del Teorema 4.11 (a) e della
Definizione 9.6, i] massimo numero di punti affinemente indipendenti di uno spazio
euclideo di dimensione finita n n + 1.

Dalla definizione 9.5 e dagli assiomi (SEI), (SE2) discendono le seguenti propriet:

La proposizione seguente permette di affermare che ogni sottospazio euclideo di dimensione finita h univocamente determinato da h + 1 suoi punti affinemente indipendenti. Ci fornisce una importante caratterizzazione dei sottospazi degli spazi
euclidei di dimensione finita.

, Se 1i = (P, U) un sottospazio euclideo di E, allora P E H.


Se 1i = (P, U) un sottospazio euclideo di [, allora U = {PQ E f I P, Q E
H}; tale sottospazio vettoriale viene detto giacitura di H, e viene usualmente
indicato con il..
Ogni sottospazio euclideo univocamente determinato dalla sua giacitura e
da uno qualunque dei suoi punti.
Se 1i = (P, il.) un sottospazio euclideo di (f, [, 7r), allora la terna (il., H, 7r1)
a sua volta uno spazio euclideo, ove 7rl : 1i x 1i -t il. la applicazione
ottenuta per restrizione dalla applicazione 7r : [ x E -t

f.

Si noti che l'intersezione di sottospazi euclidei ancora un sottospazio euclideo.


l sottospazi euclidei di dimensione O sono i punti di [, mentre i sottospazi euclidei di
dimensione 1 e 2 sono detti rispettivamente rette e piani (euclidei) di. La giacitura
di una retta anche detta direzione.
Se t;n uno spazio euclideo di dimensione finita n, quale conseguenza immediata
della Proposizione 4.15, si ha che un sottospazio euclideo 1i di [ ha dimensione finita
h ~ n; inoltre, 1-l = [ se e solo se h = n.
I sottospazi euclidei di dimensione n - 1 sono detti. iperpian~ (euclid~i) di t;n.
\
.,. Osservazione 9.3. Sia (V,< ., >) uno spaz10 vettoriale euclideo ed E(V) ~
(V, V, T) lo spazio euclideo ad esso associato. Se U un sottospazio vettoriale di V
ed a E V, allora
(a, U) = { v E V

Proposizione 9.4. Dati h + 1 punti affinemente indipendenti Po, Pi, ... , Ph di[,
esiste uno ed un solo sottospazio euclideo h-dimensionale Hh di [ che li contiene.
Dimostrazione. Poich i punti Po, P1 , ... , Ph sono affinemente indipendenti i vet. p,p
~ sono linearmente indipendenti, ed individuano dunque
'
ton 1b
i en
o 1, . . . , PoPh
un
sottospazio vettoriale h-dimensionale Wh = L(PoPi, .. : , PoPh) di f. Il sottospazio
euclideo Hh = (Po, Wh), individuato dal punto Po e dal sottospazio vettoriale Wh,
per definizione ha dimensione h e contiene i punti P0 , Pi, . .. , Ph; inoltre, ogni altro
sottospazio euclideo h-dimensionale contenente Po, P1 , ... , Ph ha come giacitura Wh
e quindi coincide con Hh (si ricordi che ogni sottospazio euclideo univocamente determinato dalla sua giacitura e da uno qualunque dei suoi punti).
D

Il sottospazio 1-lh si dir generato dagli h


per Po, P1, ... , Ph.

Quindi, i sottospazi euclidei di E(V) si ottengono "per traslazione" (si veda l'Osservazione 6.5) dei sottospazi vettoriali di V .
Introduciamo ora la nozione di indipendenza affine di punti, che permette di parlare
di punti che generano un sottospazio euclideo.

Definizione 9.6. Una (h + 1)-pla (Po, P1, ... , Ph) di punti di E, con h > O,
~
--=7
detta affinemente indipendente se la h-pla di vettori liberi (PoPi, ... , PoPh) linearmente indipendente in f . In caso contrario, si dice che (Po, P1, ... , Ph) affinemente
dipendente.
E' facile verificare che, se una (h + 1)-pla di punti affinemente indipendente, allora
risultano affinemente indipendenti anche tutte le (h + 1)-ple da essa ottenute permutan,done le componenti in tutti i modi possibili. Ci giustifica la locuzione "i punti
P0 , P 1 , ... , Ph sono affinemente indipendenti (risp. dipendenti)", che verr spesso
usata come sinonimo di "la (h + l)-pla (Po, Pi, ... , Ph) affinemente indipendente
(risp . dipendente)".

punti P0 , P1 , ... , Ph o anche passante

Concludiamo il paragrafo introducendo la nozione di parallelismo tra sottospazi euclidei di uno spazio euclideo [.

+Definizione 9 . 7.

Due sottospazi euclidi 1-l, K di [ si dicono paralleli e si indica

il. fC o fC il.. <>w-<,\1-t t'\'l..~ '-"'~ric,;chv.lr~ t;,"1~\V ~o~Q. <

"'"-"l-V.t ..V\Mtl n .i t\"0\.ir. ~ 4>-. ,_"I,


'f'\ (d;\Q
Si noti eh~ se 1j e K sono entrambi sottospazi di dimensione finita h, allora 1-l//K se

M//K,

v - a E U} = a+ U.

+1

se

..J.A./I/\

I .-,(

e solo se 1l-= K!. Inoltre bene osservare che, in base alla Definizione 9.7, la nozione
di parallelismo non esclude la possibilit che i sottospazi in questione abbiano punti in
comune; anzi, facile verificare che, se dim(H) < dim(K) (risp. dim(H) = dim(K)),
allora (H//K e 1i n K -=f. 0) =? 1i e K (risp. 1i = K).
In generale, detti incidenti (risp. sghembi) due sottospazi euclidei che hanno almeno
un punto in comune (risp. che non sono n paralleli n incidenti), le possibili mutue
posizioni di due sottospazi euclidei 1-lh e K,k di [ (con h ~ k) sono:
~I)

= ><

paralleli ed incidenti (nel qual caso 1i

K) -

(IL) paralleli e disgiunti


(III) incidenti e non paralleli

. (~) sghembi '


_ -mo f ~t.
n<ift'\ Nv\ ~.\ t.11\
\'l\t\;\i K'
u., t ( , . ,,_
1
Si noti per che, a seconda delle situazioni, il numero delle mutue posizioni effettiva-

\i. (..

e,'\t

mente possibili pu anche essere inferiore a quattro: ad esempio (come si vedr nei
successivi 1 dei Capitoli 10 e 11), due rette del piano euclideo non possono mai
essere sghembe, cos come due piani (o una retta ed un piano) dello spazio euclideo
di dimensione tre.

162

9. SPAZI EUCLIDEI

Teorema 9.5. Dati comunque un sottospazio euclideo h-dimensionale Hh di [ ed


un punto P E[, esiste uno ed un solo sottospazio euclideo h-dimensionale K,h di[,
contenente P e parallelo a Hh.
Dimostrazione. Basta porre K,h = ( P, i{h) .

o
.,.. Osservazione 9.5. Per h = 1, il Teorema 9.5 una riformulazione del famoso
postulato delle parallele, noto anche come V 0 postulato di Euclide, che risulta pertanto, .
nell'ambito della presente teoria, una conseguenza degli assiomi usati per definire gli
spazi euclidei.
Il postulato delle parallele fa parte del sistema di assiomi usat da Euclide negli
"Elementi", al fine di costruire una teoria deduttiva atta a descrivere le propriet
geometriche del "piano" e dello "spazio fisico" in cui viviamo, ormai noti come piano
e spazio euclideo.
Tale postulato apparve immediatamente poco "autoevidente" gi ai pi antichi commentatori del trattato euclideo, che tentarono invano di dedurlo dagli altri postulati.
Allo scopo di provare la verit del V postulato, Saccheri 2 ebbe la geniale idea di
sostituire tale postulato con la sua negazione, sperando di dedurne una conseguenza
manifestamente assurda. Pur senza giungere in fondo al problema, tale lavoro lasciava
intravedere la possibilit di costruire sistemi geometrici coerenti, basati su principi
contrari al V postulato stesso: Saccheri fu dunque, suo malgrado, un precursore delle
cosiddette "geometrie non euclidee" , che vennero successivamente elaborate - in
indipendente, non senza reciproche polemiche - da Bolyai3 , Gauss 4 e Lobacevskij 5 .
In particolare, sostituendo il postulato delle parallele con l'ipotesi che per un punto
esterno ad una retta data non si possa tracciare alcuna retta (risp. si possa tracciare
pi di una retta) ad essa parallela, si ottiene la geometria ellittica (risp. la geometria
iperbolica).

modo )

4. RAPPRESENTAZIONI DI SOTTOSPAZI EUCLIDEI

Teorema 9.6. Fissato in [n un riferimento cartesiano R = (O, B), ogni sottospazio euclideo h-dimensionale Hh di [n (O < h < n) pu essere rappresentato,
relativamente ad R, da un sistema lineare minimo di n - h equazioni in n incognite
S; inoltre, il sistema lineare omogeneo So associato ad S rappresenta, relativamente
-e- y : O ._ ~ -t~.Cf..(...-.t.tt~
alla base B, la giacitura if.h di Hh .

O...x

Nel presente paragrafo, consideremo solo sottospazi di uno spazio euclideo [n di


dimensione finita n; R = (O, B) indicher un fissato riferimento cartesiano su [n.
In perfetta analogia a quanto fatto per i sottospazi di uno spazio vettoriale vn (
3 del Capitolo 6), ci poniamo il problema di rappresentare tramite equazioni (sia di
tipo cartesiano che di tipo parametrico) i sottospazi euclidei, ovvero di trovare delle
"condizioni" sulle coordinate cartesiane dei punti rispetto al riferimento fissato, che
siano verificate da tutti e soli i punti che appartengono al sottospazio considerato.
2

Fra Girolamo Saccheri: matematico italiano (Sanremo, 1667 - Mila no, 1733).
3Janos Bolyai: matematico ungherese (Kolzvar, 1802 - Marosvarhely, 1860).
4Karl Friedrich Gauss: matematico, fisico e astronomo tedesco (Brunswick, 1777 - Gottinga,
1855).
5Nikolaj Ivanovic Lobacevskij: matematico russo (Ma karev , 1793 - Kazan, 1856).

iJ

Dimostrazione . Siano Po =n (x, .. . , x 0), ... , Ph =n (x~, . .. , xl!) h + 1 punti


affinemente indipendenti di Hh. Per definizione, ci equivale a dire che i vettori liberi

- (X11
RoP1 =jj

1
Xo,
... , X1n

T,> =g
- (xh1 - Xo,1 .. . 'xhn - Xon)
Xon) , .. . , ROFh

sono linearmente indipendenti, e costituiscono dunque una base per if.h . Un generico
punto P =n (x 1 , . .. , xn) di [n appartiene ad Hh se e solo se il vettore libero P0 =.
8
(x 1 - x, ... , xn - x 0) appartiene ad if.h = L(PoPi, ... , PoP~). Ma ci equivale a
-:::-: =--=+
=--:::'-+
..
richiedere che la (h + 1)-pla (PoY, PoP1 , . . . , PoPh) sia linearmente dipendente e cio
che la matrice

xr-x'
abbia rango h.
Poich le ultime h colonne sono per ipotesi linearmente indipendenti, al loro interno
esiste sicuramente un minore M di ordine h con determinante non nullo; la condizione
che P E Hh equivale dunque - per il Teorema di Kronecker - all'annullarsi dei determinanti di tutti gli n - h minori orlati Mh+Ii ... , Mn di M in M . Si ottiene cos un
sistema lineare minimo (non pi necessariamente omogeneo) di n - h equazioni in n
incognite, che rappresenta Hh :
det
{

4. Rappresentazioni di sottospazi euclidei

163

~h+l

o
o.

det Mn

E ' poi immediato verificare, a partire dalla precedente matrice M, che il sistema lineare omogeneo associato coincide con la rappresentazione cartesiana della giacitura
~
~
=--:::'-+
H h di H h, ottenuta a partire dalla sua base P0 P1 , . .. , Po Ph (si veda la dimostrazione
del Teorema 6.10) .

o
Posto S = (A, -b), si avr quindi che

Hh={P=n(x 1 , . . . ,xn)

A (x)+(b)=(O)};

le equazioni A (x) + (b) = (O) si diranno equazioni cartesiane del sottospazio Hh


(relative ad R).
In realt, non difficile verificare che il Teorema 9.6 pu essere invertito, ovvero
che ogni sistema lineare possibile di rango n - h in n incognite rappresenta, relativamente ad un fissato riferimento cartesiano R = (O, B), un sottospazio euclideo
h-dimensionale Hh di [n.

9. SPAZI EUCLIDEI

164

5. CONDIZIONI DI PARALLELISMO

.,.. Osservazione 9.6. Ponendo h = n - 1 nel Teorema 9.6, si ottiene in particolare


che ogni iperpiano &n-l di &n pu essere rappresentato da una equazione lineare in
n incognite (e rango 1):
con

5. Condizioni di parallelismo
Nel presente paragrafo, il simbolo &n indicher sempre uno spazio euclideo di dimensione finita n.

(ai, ... , an) =J: (O, ... , O).

+ Definizione

9.8. Sia & 1 una retta euclidea di &n e sia R = (O, B) un fissato
riferimento cartesiano su &n. Se l =. 8 (l1, ... , ln) un vettore libero non nullo della
giacitura
diremo che (l1, ... , ln) E JRn una n-pla di coefficienti (o numeri o
parametri) direttori della retta &1 , relativi al riferimento R .

Esempio 9.7. Se R = (O,B = (OP1 , ... ,0P~)) un riferimento cartesiano su &n, si


dice i-esimo iperpiano coordinato relativo ad R (i E Nn) l'iperpiano euclideo 1ri = 1ri(R)
di &n generato dagli n punti affinemente indipendenti O, Pi, ... , Pi-1, Pi+l, ... , Pn.
Poich O =n (O, ... , O) e, per ogni i E Nn, Pi =n (O, . . . , O, 1, O, ... , O), l'i perpiano
coordinato 1ri rappresentato, relativamente ad R, dalla equazione Xi =O.
Si osservi che l'intersezione degli n iperpiani coordinati l'origine O di R.

Notiamo ora che - come gi osservato nel corso della dimostrazione del Teorema 9.6
- se il sottospazio euclideo 1-lh generato dai punti affinemente indipendenti Po =n
(xb, ... , x 0), P 1 =n (xL . . . , xf ), ... , Ph =n (x~, . .. , xh), allora un punto generico
-:::-:t
-=---=+
-==----=-+
P =n (x 1, ... ,xn ) appartiene ad 1-lh se e soltanto se PoI' E L(PoPi, ... ,PoPh);
ci e~uivale ovviamente alla esistenza di h scalari t 1, ... , th E JR tali che PoP =
l
h-==----=-+
t PoP1 + + t PoPh.
Pertanto, tutti e soli i punti P E 1-lh ammettono, rispetto ad R, coordinate (x 1 , ... , xn)
che si ottengono, al variare dei parametri t 1 , ... , th E JR, da:

xb

+t

&\

In altre parole, ricordando la Proposizione 9.2, una n-pla di coefficienti direttori della
retta & 1 Si ottiene considerando due punti distinti p =.n (x},, X~, ... , Xp) e Q =.n
(xb, x~, ... , xQ) di & 1 e ponendo
l

= PQ =g (xb

- x},, x~ -

x~, ... , xQ -

x}>).

Si noti che, per definizione, una qualunque n-pla di coefficienti direttori di &1 diversa
dalla n-pla nulla.
Proposizione 9.7. Sia &1 una retta di &n e sia R =(O, B) un fissato riferimento
cartesiano su &n. Si ha allora:

(a) Due qualunque n-ple di coefficienti direttori di & 1 (relative ad R) sono


proporzionali.

~b~ Se & 1 ha (rispetto ad R) equazioni parametriche

xi

xb

+ li t,

i E Nn

allora la n-pla (l1, ... ' ln) dei coefficienti del parametro t una n-pla di
coefficienti direttori di &1 (relativi ad R).
(c Se & 1 ha (rispetto ad R) equazioni cartesiane

Le corrispondenti equazioni
=

165

(x~ - xb)

+ + th(x~ -

xb)

A(x)
(t1, . .. ,th E JR)

vengono dette equazioni parametriche del sottospazio 1-lh (relativamente ad R).


-=--=+ , ... , o-=-=+))
.s: .
.
Esempio 9.8. Se R = (O, B- = (OP
Pn e' un n1enmento
cartesiano
su "cn , s1.
1
dice i-esimo asse coordinato, o asse Xi, relativo ad R (i E Nn) la retta generata dai due
punti O, Pi.
Le equazioni parametriche dell'asse Xi, rispetto ad R, sono:

= o

t/j =J: i

(t

E JR)

.,.. Osservazione 9 .1. Come gi visto per gli spazi vettoriali, le rappresentazioni
cartesiane e parametriche dei sottospazi euclidei di &n non sono uniche.

+ (b) =

(O)

con A E M(n-l)xn(JR) e g(A)

=n-

1,

allora ogni soluzione non nulla del sistema omogeneo A(x) =(O) una n-pla
di coefficienti direttori di & 1 (relativi ad R).
Dimostrazione. (a) Se l =r3 (l1, ... , ln), m =r3 ( m 1 , ... , m n) sono due vettori liberi
non nulli di &1, allora evidentemente m E &1 = L(l). Ci prova che esiste). E JR- {O}
tale che

(ml' . .. ' m n) = ). . (l 1, ... ' ln).


(b) Se &1 ha - rispetto ad R - equazioni parametriche xi = xh + li t, i E Nn, i
punti Po =n (x, x6, ... , x 0) e Pi =n (l1 + x, l 2 + x6, ... , ln + x 0) sono distinti e
appartengono ad &1 . Quindi, il vettore libero P0 P~ =. 8 (l1, l 2 , ... , ln) appartiene ad
. Ci prova che (l1, l 2 , ... , ln) una n-pla di coefficienti direttori di &1 .
(c) Basta ricordare che il vettore libero l =r3 (l1, l 2 , ... , ln) appartiene alla giacitura della retta &1 se e solo se (l 1 ' l 2 ' ... 'ln) soluzione del sistema lineare omogeneo
A (x) =(O) che rappresenta &1 (Teorema 9.6) .
D

167

6. ORTOGONALIT TRA SOTTOSPAZI

9 . SPAZI EUCLIDEI

166
cl ha (rispetto ad R) equazioni parametriche
.,.. Osservazione 9.8. Se la retta 0
xi = xt + li . t,
. ,
ll allora, ricavando il parametro t da
e se nessuno dei coefficienti direttori e nu o,
ciascuna delle n equazioni si ottiene:
xn -x(
2
x 1 - xb
x - x6 =
=
ln
l1
l2
(rispetto ad R).
che nota come equazione frazionaria della retta El

p)o~;~~7z:o:~8.necessaria

Esempio 9.9. Nello spazio euclideo E 5 , con un fissato riferimento cartesiano R, si


considerino le rette r, s e t, dove

rx' -x' +
r

e sufficiente affinch due rette El ed


aventi
. (ll
ln) ed (ml ... mn) siano parallele e che esista
.
. d"
coefficienti irettori
,'
'
'
_I'\ I\
.XEJR-{0} tale che: \<.\.\'l~(j)\,.N\.<> ~~~~lli~O'll.)(.,.J
(l1, ... 'ln) = . (ml' ... ' mn);
1
e sufficente affinch due iperpiani En- ed p-i

(b) Condizione necessaria


aventi equazioni cartesiane
/Il
/ln+b"
O
a~xl + ... + a~xn + b' =O e a1X + .. . + anx
=

.
_
i
zn)
m = _ (m1 . . . , mn), si ha E1 = L(l) e
Dimostrazione. (a) Se 1 =a (l , ,
e
-13
'
.,
fti = L(m). Allora, El = ft1 se e _:olo se 1 = >.m, con E .JR - \O} : c10 prova (a). _
(b) Poich le giaciture En-:..1 ed Fn-1 sono rappresentate nspett1vamente dalle equa

zioni lineari omogenee


' n -- O e
a '1x 1 + + anx
il sistema lineare omogeneo

= O

a~x ++a~xn

=0

( ,
a1
a1

+Definizione 9.9.

Due rette E 1 ed F 1 dello spazio euclideo En si dicono ortogonali,


1
1
e si indica E J_ F , se ogni vettore di f1 ortogonale a tutti i vettori di f 1, ovvero
se

fl, \iv

f1,

< u,v

>=o

+ . . . +"n-o
anx - '

+ + a~ xn

a~ x 1

/)
an
- 1
11-
. . . an
1
1
c Se
(l1, ... , zn), si ha che E1 ed p- sono paralleli se e solo se E = L(l) C
1 13
(_) 1
t
E fn-1 La affermazione (c) segue allora osservando
p- , ovvero se e so1tan o se 1

n _
1
0
che jn-1 rappresentato dalla equazione omogenea a1x + + anx -
o
(}Il

=_

(>. E JR)

Nel presente paragrafo tratteremo la nozione di ortogonalit tra sottospazi di un


medesimo spZ1n-eYdideo t;n (di dimensione finita n, in cui supporremo fissato un
riferimento cartesiano R = (O, 8)), restringendo l'attenzione ad alcuni casi particolari, che vengono ritenuti i pi significativi (oltre che i pi semplici come trattazione). 6
Si noti che, in dimensione due e tre, i casi considerati nel presente paragrafo coprono
tutti i casi possibili.

\fu E

a1111
X

cn-:..1 n F~1 La affermazione (b) segue allora osservando che En-l ed


rappresent a 0

.
cn-1
n Fn-1
ha dimensione
n - 1, ovvero se e
Fn-1 sono paralleli se e soltanto se 0
soltanto se

s:

= 3+2.X
= -1 +>.
= 4.X
5+.X
-2-

(c) Condizione necessaria e sufficiente affinch una retta El avente coeffici.enti


. tt . (ll
zn) ed un iperpiano p- 1 avente equazione cartesiana
dire ori
,,
bb
a x1 + . . . + anxn + b =O siano paralleli che si a ia:
1
a1ll + ... + anzn = o.

x - 2x
I
x 1 + 2x 2 - 3x3 =O
x1 - x2 + x 4 - x5 = 2
3x 2 + x 4 - 4x 5 = -1

xl
x2
x3
x4
xs

6. Ortogonalit tra sottospazi

E JR - {O} tale che:


I
I )
\
( Il
(a1,. .. ,an =/\"al,
.. ., a").
n'

siano paralleli che esista

e t generata dai punti P =n (O, 2, 3, -1, 5) e Q =n (2, 4, 5, 1, 7).


Poich r
(risp. s) (risp. t) hanno coefficienti direttori (1, 1, 1, 1, 1) (risp. (2, 1, 4, 1, -1)) (risp.
(1 ,' l, 1, 1, 1)), la Proposizione 9.8(a) consente di affermare che re t sono parallele, mentre
r ed s ed s e t sono non parallele.

!1

Pro(
a

Proposizione 9.9. Condizione necessaria e sufficiente affinch due rette E 1 ed


F 1 aventi coefficienti direttori (l 1, ... , ln) ed (m 1 , .. . , m n) siano ortogonali che si
abbia:

6Riportiamo qui, per completezza, anche la definizione pi generale di ortogonalit tra sottospazi
euclidei. Due sottospazi t;h ed Fk dello spazio euclideo t;n si dicono ortogonali, e si indica t;h J_ Fk,
se:
i due sottospazi non sono paralleli;
la giacitura di uno dei due sottospazi contiene il complemento ortogonale della giacitura
dell'altro, nel sottospazio vettoriale fh + :fk fn (ovvero: nel pi piccolo sottospazio
vettoriale di fn contenente entrambe le giaciture).
Si osservi che questa definizione generale coincide con quelle date nei casi particolari trattati.

168

9. SPAZI EUCLIDEI

6. ORTOGONALIT TRA SOTTOSPAZI

Dimostrazione. Posto l =.fJ (l1, ... , ln) e m =fJ (m 1 , . .. , mn), dalla Definizione 9.8
segue che El = L(l) e :f1 = L(m). Allora, per ogni u = l E E\ e per ogni
v = m E :f1 , si ha:

169

Proposizione 9.12. Condizione necessaria e sufficiente affinch due iperpiani


En-l ed Fn-l aventi equazioni cartesiane a~x 1 + + a~xn + b' =O ed a~xl +
+ a~xn + b" =O siano ortogonali che si abbia:
a~ a~

< u, v > = < l, m > = < l, m > .


>= O se e solo se < l, m >= O; la tesi segue dunque banalmente

Pertanto, < u, v
dalla Proposizione 8.6 (b).

+ + a~ a~

= O

Dimostrazione. In base alla Proposizione 9.11, (a~, ... ,a~) (risp. (a~, ... ,a~))
una n-pla di coefficienti direttori per una qualunque retta r' (risp. r") ortogonale ad
En-l (risp. ad Fn-l ). La tesi segue quindi direttamente dalla Proposizione 9.9.

+ Definizione 9.10.

Una retta E 1 ed un iperpiano Fn-l dello spazio euclideo En


si dicono ortogonali, e si indica E 1 ..l Fn- 1, se la giacitura della retta coincide con il
complemento ortogonale della giacitura dell'iperpiano.

Concludiamo il paragrafo introducendo la nozione di orientazione di una retta euclidea


e di angolo tra due rette orientate di En.

+Definizione 9.12.

Si dice retta euclidea orientata una coppia (E 1 , 1), dove E 1 una


retta dello spazio euclideo En e 1 E E1 - {O} un vettore non nullo della giacitura della
7
retta.
Se (E 1 , l), una retta orientata, si dice poi vettore positivo della giacitura
della retta ogni vettore concorde con l; inoltre, si dice n-pla positiva di coefficienti
direttori ogni n-pla costituita dalle componenti - rispetto ad un fissato riferimento
cartesiano R = (O, B) di En - di un vettore positivo di t1.

Si noti che, per il Teorema 8.11, il complemento ortogonale della giacitura dell'iperpiano p-l effettivamente un sottospazio vettoriale unidimensionale di [n (come
la giacitura della retta E 1 ), che a volte viene detto "la direzione ortogonale all 'iperpiano"; il lemma seguente ci consente di ricavarne direttamente una base, a partire
da una qualunque rappresentazione cartesiana di Fn- 1 .
Lemma 9.10. Se l'iperpiano p - l di En ha, rispetto ad R = (O, B), equazione
cartesiana a 1x 1 + + anxn + b = O, allora il vettore a =fj (a1, ... , an) una base
per il complemento ortogonale della giacitura di Fn- 1.
Dimostrazione. Basta ricordare che, per il Teorema 9.6, la equazione omogenea
a 1 x 1 + +anxn = O una rappresentazione cartesiana (rispetto alla base ortonormale
B di {n) della giacitura fn- 1 dell'iperpiano Fn- 1, e poi applicare la Proposizione
8.12 (nel caso particolare h = n - 1).

+Definizione 9 .13.

Date due rette orientate (E 1 , l) e (F1 , m) dello spazio euclideo


En, si dice angolo tra E 1 ed F 1 , e si denota con flFi, l'angolo </> E [O, -rr] tra l e m.

Si ha dunque, per definizione,


cos(flFi) = cos(l, m).
Inoltre, poich i vettori positivi della retta.orientata (E 1 , l) sono del tipo l' =>.I, con
E JR+ (si veda la Osservazione 8.17), si verifica banalmente che
cos(flFi)

Proposizione 9.11. Condizione necessaria e sufficiente affinch una retta E


di coefficienti direttori (l1, ... 'ln) ed un iperpiano p - l di equazione cartesiana
aix 1 + + anxn + b =O siano ortogonali che esista E JR - {O} tale che:
(l1, .. . ,ln)

(a1, ... ,an)

\fu~ 1,

cos(u, v),

segue che El = L(l), mentre dal Lemma 9.10 segue che .!.f;,,- 1 = L(a). Allora, El = .l.. F-;,,- 1 (ovvero, per definizione, E1 ..l p-l) se e solo se l = a, con
E JR - {O} : ci prova ovviamente la tesi.

~ m.

Si noti che, per definizione, E ed F sono parallele e concordemente orientate (risp.


parallele e discordemente orientate) (risp. ortogonali) se e soltanto se flFi = O (risp.
flFi = -rr) (risp. flFi = ~).
Proposizione 9.13. Se due rette E 1 ed F
(l1, ... 'zn) ed (m1, ... 'mn), allora:

Dimostrazione. Posto l =.fJ (l1, .. . , ln) e a =.fJ (a 1 , . . . , an), dalla Definizione 9.8

Vv

--cos(ElFl)

ll m 1

=
J(l1)2

hanno coefficienti direttori positivi

+ . . . zn m n

+ ... + (zn)2. J(ml)2 + ... + (mn)2

Dimostrazione. Basta osservare che, in base alla Definizione 9.8, I =. fJ (l1, ... , ln) e

m =fj (m 1 , ... , mn) sono due vettori (positivi) di El e di :f1 rispettivamente, e poi
applicare la Proposizione 8.6 (d) per il calcolo del coseno dell'angolo tra due vettori,
tramite le loro componenti rispetto ad una base ortonormale.

+Definizione 9.11.

Due iperpiani En-l ed p-l dello spazio euclideo En si dicono


ortogonali, e si indica En-l ..l p - 1 , se sono ortogonali due qualunque rette ad essi
ortogonali.

o
7
Si noti che orientare una retta equivale ad orientare la sua giacitura.

9. SPhZI EUCLIDEI

170

Osservazione 9.9. Supponiamo che, per -ogni i E Nn, l'i-esimo asse coordinato Xi
del riferimento cartesiano R = (O, B) sia canonicamente orientato, ovvero orientato
in modo che l'i-esimo versore della base f3 sia positivo. Se la retta E 1 ha - rispetto ad
R - coefficienti direttori positivi (l1, .. . , ln), allora

11>-

7. DISTANZA EUCLIDEA .

171

.
t razione
. P er 1a p ropos1z10ne

9 . 2, s1
.. h a~<..!
p~ =13
(xQ-x
1
1 xQ-x
2
2p, .. . , xQ-x
n
n)
D zmos
P>
p .
Poich f3 ortonormale in E-;.~ dalla Proposizfone 8.6 (c) segue subito:

d(P, Q) = ll PQ ll =
-1cos(E xi)

= J(l1)2 + ... + (ln) 2 .

J(l1 )2 + l1... + (ln) 2 ' ' J(l1 )2 +ln... + (ln)2 )

una particolare n-pla di coefficienti direttori della retta E 1, che individua le componenti - rispetto a f3 - del versore positivo della giacitura della retta. Ci giustifica
il termine n-pla di coseni direttori della retta E1, usato per individuare la n-pla delle
. componenti di un qualunque versore di E1.

+Definizione 9.15.

Dati due sottoinsiemi X, Y di E, si dice distanza di X da Y il


numero reale non negativo

d(X,Y)

Nel presente paragrafo, il simbolo E indicher sempre uno spazio euclideo. Il simbolo)
En indicher uno spazio euclideo di dimensione finita n; in tal caso, supporremo fissato
in En il riferimento cartesiano R = (O, B).
Se P, Q E E, si dice distanza (euclidea) di P da Q il numero

reale non negativo

d(P,Q)

11>-

llPQll

PQ = RS (Definizione 9.3), allora

dove P' indica la proiezione ortogonale di P su Eh ovvero il punto (unico!) di intersezione tra Eh ed il sottospazio euclideo (P, 1.fh) di En, passante per P ed avente
come giacitura il complemento ortogonale di fh.
In particolare, se h = n - 1, la distanza tra un punto P ed un iperpiano En-l si pu
calcolare direttamente, a partire dalle coordinate di P e da una equazione cartesiana
di En-l, tramite la seguente:
Proposizione 9.15. Se un iperpiano - 1 ha, rispetto ad R = (O, B), equazione
cartesiana a1x 1 + + anxn + b =O e se P ='R. (x 1, ... , xn), allora
1
d(P, En-1) = la1x + + anxn +bi

Jai ++a~
Dimostrazione. Sia P' ='R. (x 1, ... , xn) la proiezione ortogonale di P su En- 1. Posto
a =s (a1,. .. ,an), dal Lemma 9.10 segue che {a} una base di l.En-:. 1, e quindi

d(P, Q) = llPQll = llRBll = d(R, S).


Pertanto, gli estremi di segmenti orientati equipollenti hanno la stessa distanza. Si
soliti definire lunghezza del segmento orientato (P, Q) la distanza d(P, Q) tra i suoi
estremi. Dalle precedenti considerazioni segue allora che segmenti orientati equipollenti hanno la stessa lunghezza, coincidente con la lunghezza del vettore libero ad essi
associato.
Proposizione 9.14. Se P
due punti di En, si ha:

='R.

(x~, x},, ... , x?) e Q


n

d(P, Q)

~)xQ -x~)2.
i=l

='R.

P E X, Q E Y}

= min{d(P, Q) I Q E Eh} = d(P, P')

Osservazione 9.10. Se i segmenti orientati (P, Q), (R, S) E Ex E sono equipollenti,

cio se

inf{d(P,Q)

Si osservi che d(X, Y) = d(Y, X) e che, se X n Y =I= 0, allora d(X, Y) =O. Nel caso in
cui X= {P}, scriveremo d(P, Y), anzich d({P}, Y). Si dimostra facilmente (tramite
il Teorema di Pitagora (Proposizione 8.2)) che, se X = {P} e Y =Eh (sottospazio
euclideo di En), allora

d(P, Eh)
7. Distanza euclidea

+ Definizione 9.14.

x~)2.

i=l

Si noti che la n-pla costituita dai coseni degli angoli che la retta orientata E 1 forma
con gli n assi coordinati canonicamente orientati
-1. -1 - )
( cos(E x1), ... , cos(E xn)

L(xk -

li

-t

PP'

a; pertanto, ricordata la Proposizione 9.2, per ogni i E Nn, si ha:

xi - xi

ai.

Moltiplicando per ai e sommando per i E Nn, si ottiene:

(x~, x~, ... , xQ) sono

Sommando e sottraendo b nel primo membro di tale uguaglianza, e ricordando che


I:7= 1(ai) 2 = llall 2, si ottiene:

taixi

b-

(taixi

b) =

llall2,

;,

8. SIMPLESSI E VOLUMI

9. SPAZI EUCLIDEI

172

2-si~plesso < Ao, Ai'. A: > coincide con la usuale nozione di area del triangolo: infatti,
detta H la pr01ez10ne ortogonale di A 2 sulla retta r contenente A O e A i , Sl
ha

da cui, poich P' =n (x 1 , ... , xn) E t;n- 1, si ricava:


'("'n
-i+ b
, __ ui=I aix
ovvero "

L:aixi

+b=

llall

l!a1!2

i=l

d(P, P')

A questo punto, essendo d(P, t;n-l)

--t

ll PP' ll

= !!>.al!, la tesi

direttamente:

I L:~= 1 aixi + bi
!!ali

173

=~ det(<~,~> <~,~>)

segue

1 . I -:--:-+
-,----,-t
-,----,-t -:--:-+
= 2 V llA0A1ll 2 llA0A2\ l2- < AoA1, A 0 A 2 >2
1 . I -:--:-+
-:--:-+
-,----,-t
-:--:-+
= 2 V llA0A1ll 2 llA0A2l l2 - llA0A1ll 2 llA0A2 ll2 cos2(AoA1,AoA2)
1
-:--:-+
-:--:-+
.I
-:--:-+ -:--:-+
= 2 llA0A1 ll llA0A2l l y 1- cos2(AoA1,A0A2)

I L:~=l aixi +bi


JL:7=1(ai) 2

< AoA2, AoA1 > < AoA2, A 0 A 2 >

-,----,-t

-,-------,-+

-:--:-+

-:--:-+ -:--:-+

= 2 llA0A1ll llA0A2ll sen (AoA1, AoA2)

8. Simplessi e volumi

= 2 llA0A1ll llA2H\ I =
+ Definizione 9 .16. Dati h + 1 punti affinemente indipendenti Ao, Ai, ... , Ah di
t;n, si dice h-simplesso di vertici A 0 , A 1 , .. . , Ah la chiusura convessa dell'insieme
{A 0, A 1, ... , Ah}, ovvero il pi piccolo sottoinsieme convesso di t;n, contenente {Ao, A 1,
... , Ah} Si pu provare che l'h-simplesso di vertici Ao, Ai, ... , Ah coincide con il
sottoinsieme di t;n :

-,----,-t

< Ao, Ai, . . . , Ah>= {P E &n I AoJ-' =

1AoA1

-,----,-t

+ + hAoAh,

con Li ~ 1 e i 2: O,'v'i E Nh}

i=l

= 2 d(Ao, A1) d(A 2, r).


La seguente proposizione consente - una volta fissato un riferimento cartesiano sul
sottospazio euclideo h-dimensionale generato dai vertici di un h-simplesso _ di ef~are agevolmente il calcolo del volume, utilizzando o le componenti dei vettori
AoA1, . . . , AoAh o direttamente le coordinate dei vertici Ao, Ai, ... , Ah

Proposizione 9.16. Se r:rh =< Ao, Ai, ... , Ah > un h-simplesso di t;n sia &h il
s~tto~pazio euclideo h-dimensionale passante per i vertici Ao, A 1 , ... , Ah e' sia ft un
riferimento cartesiano su &h. Posto, per ogni O<
i<
h ' Pi =n- (xl.,,, ... , xh)
i ' s ha
li

Si noti che la nozione di h-simplesso coincide, per h = 1, 2, 3, con le usuali nozioni di


segmento, triangolo, tetraedro.

det

dove

G = (gj}i,jElllh,

1
~
h! vdet G,
.

gj

=<

--:-+

h!

(I

1
xl1

;~)

X~

xhh

xl

det

:o

X~

-,----,-t

xhh -xho

AoAi, AoAj >

-,----,-t

la matrice di Gram della h-pla di vettori (AoA1, ... , AoAh)


Si pu verificare facilmente che) per h = 1, il volume dell' 1-simplesso < Ao, Ai >
coincide con la lunghezza l!A0A 11! del segmento orientato (Ao,A1) definita nella _Osservazione 9.10, ovvero con la distanza d(Ao, A1). Inoltre, per h = 2, il volume del
8Si noti che la Definizione 9.17 presuppone che il determinante della matrice G sia sicuramente
positivo, come assicurato dalla Proposizione 8.13 relativa alle propriet delle matrici di Gram; in
alternativa, la dimostrazione di questo fatto pu essere agevolmente dedotta dalla dimostrazione
della seguente Proposizione 9.16.

X~ ~x!)

xh1 - xho

+Definizione 9.17. Dati h+l punti affinemente indipendenti Ao,Ai, ... ,Ah di t:n,
8
si dice volume dell'h-simplesso r:rh = < A 0 , A 1 , ... , Ah> il numero reale positivo
V(r:r )

x!

(xl~

Dimostrazione. Poich la base f3 del riferimento cartesiano fissato ortonormale si


verifica facilmente che (come provato nella Proposizione 8.13)
'

= tAA,

dove

A=

X~~ x

o
xlh - xl)

Xh
1 -

xhh -xho

xho

Ci prova - in virt del Teorema di Binet (Proposizione 3.15) e della Proposizione


3.14 - la prima uguaglianza dell'enunciato. D'altra parte, si pu verificare direttamente (sottraendo nella seconda matrice la prima colonna a tutte le successive, e poi

9. SIMMETRIE

9 . SPAZI EUCLIDEI

174

175

Il concetto di punto medio di un segmento si generalizza nel concetto di baricentro di


un h-simplesso.

applicando il Teorema di Laplace alla prima riga) che:

+Definizione 9.19. Dato un h-simplesso ah=< P0 , Pi, ... , Ph > di t;n, con Pi =n
(x}, ... , xi) (O:::; i:::; h), si dice baricentro di ah il punto H E t;n tale che
H

dalla condizione
Nel presente paragrafo, t;n indicher uno spazio e~clideo di dimensione finita n ~ 1,
in cui fissato un riferimento cartesiano R = (O, B).

detta simmetria (centrale) di centro C.

Dalla Definizione 9.20 segue che il simmetrico di P rispetto a C l'unico punto P'
tale che C risulti il punto medio del segmento < P, P' > .
Si noti inoltre che l'unico punto lasciato fisso da una simmetria centrale il suo centro

c.

AM =2AM-AM= AB-AM = (AM +MB)-AM= MB.


----+ ---t
La unicit segue invece osservando che, se M' E t;n tale che AM' = M' B, si ha:

= AM +M'A =

M'A+AM

PC= CP'. L'applicazione


P-+ sc(P)

tale che AM = M H.
Infatti, la esistenza dimostrata prendendo (in virt dell'assioma SEI) il puntq M E
t;n tale che AM = ~AB e ricordando la relazione di Chasles:

MM'= MB+BM'

se: En-+ En

Si verifica facilmente che dati due punti A, B E t;n, esiste ed unico il punto M E t;n

-=--=

( I:7=o x}
I:7=oxi )
h + 1 ' ' h + 1

+ Definizione 9.20. Fissato un punto C E t;n, per ogni punto P E t;n, si dice
simmetrico di P rispetto a C il punto P' = sc (P) E t;n univocamente individuato

9. Simmetrie

----+

-n

= M'M

..,. Osservazione 9.11. Se, rispetto al riferimento cartesiano R, si ha C =n (c 1 ,c2 ,


... , cn), P =n (x 1 , x 2 , ... , xn) e P' =n (y 1 , y 2 , ... , yn), allora la Proposizione 9.17
implica che, per ogni i E Nn, si ha:

e dunque M = M'.
Possiamo dare pertanto la seguente
+ Definizione 9.18. Dati due punti A, B E t;n, si dice punto medio del segmento

< A,B > l'unico punto ME t;n tale che AM =MB.


1

Proposizione 9.17. Siano A,B E t;n due punti di En, con A =n (a ,a , ... ,an)
e B =n (b1, b2 ,. . , bn). Allora, il punto medio del segmento < A, B > il punto
ME< A,B >,con
(al+bl a2+b2
an+bn)
M =n --2-,--2-,. .. ,
2
.

Dimostrazione. Essendo AB =B (b 1 - a 1 , b2 - a 2 , ... , bn - an), da AM =


subito:
--:-:- = - (bl - al b2 - a2
bn - an)
AM -5
2 '
2 ' ... '
2
.

~AB segue

Pertanto, le coordinate del punto simmetrio di un punto dato P rispetto a C possono


essere direttamente ottenute dalle coordinate di P e di C, attraverso la relazione:
yi = -xi+2ci,

ViENn.

Esempio 9.10. Ad esempio, nel piano euclideo E 2 , se C =n (1 , 2), allora il punto


generico P =n (x,y) ha come simmetrico rispetto a C il punto P' =n (-x+2,-y+4).
Se si desidera determinare la retta r', simmetrica della retta r : x + 2y - 1 = O rispetto
a C, allora si pu procedere nel modo seguente:

si scelgono due punti A, BE r (ad esempio, A =n (-1, 1) e B =n (1, O));


si determinano i due punti simmetrici A', B' di A, B rispetto a C (nel nostro
caso, A' =n (3, 3) e B' =n (1, 4));
la retta r' la retta passante per A' e B' .
Si ottiene dunque: r' : x + 2y - 9 = 0. 9
Esempio 9.11. Nello spazio euclideo E3 , se C =n (3 , 1, O), allora il punto generico
P =n (x, y, z) ha come simmetrico rispetto a C il punto P' =n (-x + 6, -y + 2, -z).
Operando nel modo descritto nell'esempio precedente, possibile determinare la retta r',

9Si noti che la retta simmetrica in una simmetria centrale sempre parallela a lla retta d ata.

10. ISOMETRIE

9. SPAZI EUCLIDEI

176

simmetrica della retta r :

X+ 2y- 3 = 0

Esempio 9.13. Nello spazio euclideo t: 3 , fissato il piano 7r : x + 2y - 3z - 7 = O,


cerchiamo il punto simmetrico dell'origine rispetto a 7r. Poich la retta ortogonale a 7r
passante per l'origine ha equazioni parametriche

rispetto a C: scelti A =n (1, 1, 1) e

{ x-z=O

177

B =n (3, O, 3), si ha A' =n (5, 1, -1) e B' =n (3, 2, -3), da cui


r':

= .>.
= 2.>.
= -3>.

X+ 2y- 7 = 0
{ x-z-6=0

Analogamente, possibile determinare il piano 7r1 , simmetrico del piano 7r : 3x + 2y- z 6 =O rispetto a C: scelti R =n (2, O, O), S =n (O, 3, O) e T =n (O, O, -6) (R , S, TE 7r),
i loro simmetrici rispetto a C sono R' =n (4, 2, O), S' =n (6, -1, O) e T' =n (6, 2, 6),
da cui
1
7r :
3x + 2y - z - 16 = O. 10

il punto di intersezione M =

M =n

(~ , 1, -~);

7r

n t individuato dal valore

dell'origine O rispetto a

7r

il punto O' =n (1, 2, -3).

10. Isometrie

PM = M P'. L'applicazione

Nel presente capitolo , i simboli t:n, Fn indicheranno sempre spazi euclidei della stessa
dimensione finita n.
Una applicazione a : t:n --+ Fn sar detta compatibile se, per ogni P, Q, R, S E t:n, si
ha:

univocamente determinato dalla condizione


St;n-1 : Cn --+ [n

St;n-1 (P)

(PQ = RS)

detta simmetria (ortogonale) rispetto ad t:n- 1 .


Dalla Definizione 9.21 segue che il simmetrico di P rispetto ad t:n-l l'unico punto
P' tale che M = t:n-l n (P, .Lt:n-:..l) risulti il punto medio del segmento < P, P' > .
Si noti inoltre che gli unici punti lasciati fissi da un simmetria ortogonale St;n - 1 sono
tutti e soli i punti di t:n- 1 .
Esempio 9.12. Ad esempio, consideriamo nel piano euclideo &2 la retta r avente, rispetto
ad un fissato rifermento cartesiano R, equazione r: x-y - l =O. Per ogni punto P =n
(x, y), la retta ortogonale ad r passante per P ha equazione t: x+y-x-fj =O; allora, le
coordinate cartesiane del punto M
da cui segue M =n

= nt

x + fi + l , x + Y -

verificano il sistema
1)

{xx+y-x-y=
- Y - == ~ 0,

d an do Ia P ropos1z1one
. .
9 .17 s1. ha
. R1cor

2
2
quindi che il simmetrico di P =n (x, y), rispetto ad r il punto P' =n (y + 1, x - 1).
Se si desidera determinare la retta s' , simmetrica della retta s : x = O rispetto alla retta
r, si pu procedere scegliendo, ad esempio, i punti A =n (O, 1) e B =n (O, 2) sulla retta
s, e determinando i rispettivi punti simmetrici A' =n (2, -1) e B' =n (3, -1) rispetto
ad r; pertanto, si ottiene che la retta cercata

.>. = ~ del parametro, owero

mediante la Proposizione 9.17 otteniamo quindi che il simmetrico

+ Definizione 9.21. Fissato un iperpiano &n-l di t:n, con n ~ 2, per ogni punto P E
t:n, sia M il punto di intersezione di t:n- l con la retta ( P, .L t:n-:.. 1 ) ortogonale ad t:n-l
e passante per P. Si dice simmetrico di P rispetto a t:n-l il punto P' = St:n - 1 (P) E t:n

P --+

(.>. E JR),

=>

(a(P)a(Q) = a(R)a(S}).

Se a : t:n --+ Fn compatibile, _:i-llora resta definita ~plicazione ii : t:-;. -: f n che


associa al vettore libero PQ E t:n il vettore libero ii(PQ) = a(P)a(Q) E Fn.
L'applicazione ii si dir indotta da a.
+Definizione 9.22. Una applicazione compatibile a : t:n --+ P sar detta isometria
di t:n in Fn se l'applicazione indotta a_ : t:-;. --+ fn una trasformazione ortogonale
(biunivoca) 12 di t:-;. in F"'n .
.
Osservazione 9.12. Ogni isometria a : t:n --+ Fn tra due spazi euclidei t:n ed Fn
una applicazione biunivoca che conserva le distanze:

d(a(P), a(Q))

= d(P, Q)

Infatti, per la Definizione 9.14 e per le propriet delle trasformazioni ortogonali


(Definizione 8.7 e successive osservazioni), si ha:

d(a(P), a(Q)) = lla(P)a(Q) ll = llii(PQ)ll = llPOll = d(P, Q) VP, Q E t:n.


La biunivocit invece conseguenza immediata della analoga propriet di ogni trasformazione ortogonale tra spazi vettoriali euclidei della stessa dimensione (Definizione
8.7 e successive osservazioni), unita all'assioma (SEl) (Definizione 9.1).

s': y = -1. u
1 0Si noti che anche il piano simmetrico in una simmetria centrale sempre parallelo al piano

dato.
11 Si noti che la retta simmetrica nella simmetria ortogonale rispetto ad r ha la medesima

intersezione con r della retta data.

12 Nel caso in cui l'applicazione indotta ii : t:n - t Fn sia semplicemente un isomorfismo di spazi
vettoriali, a llora la applicazione et si dice usualmente affinit di t;n in Fn. Si noti che la nozione di
affinit pu essere data anche supponendo che t;n ed Fn siano due spazi affini della stessa dimensione,
e non necessariamente due spazi euclidei (si veda la Osservazione 9.1).

9. SPAZI EUCLIDEI

178

10. ISOMETRIE

Proposizione 9 .18. Sia o : En -+ F n una isometria di En in F n, e siano


R = (O, B) ed R' = (O' , B') due riferimenti cartesiani su En ed P rispettivamente.
Indicate con:
(x) E Mnx 1 (1R) la colonna delle coordinate cartesiane di un generico punto P E En
rispetto ad R ,
(y ), (b) E M nx 1 (1R) le colonn e delle coordinate cartesiane dei punti a (P), o(O) E F n
rispetto ad R' ,
A E On(IR) la matrice (ortogonale) associata alla trasf ormazione ortogonale indotta
a : E-;,, -+ f n rispetto alle basi (ortonormali) B e B' )
si ha:
(y) = A (x) + (b).

Dalla Proposizione 9.18, unita alla Proposizione 8.15 che caratterizza le matrici associate alle t:asformazioni ortogonali che conservano (risp. rovesciano) l'orientazione, si
deduce facilmente la seguente caratterizzazione delle isometrie dirette (risp. inverse):
Proposizione 9.19. Sia En uno spazio euclideo orientato ed o una isometria di
En in s. A llora, o una isom etria diretta (risp. inversa) se e solo se, rispetto ad un
qualunque rif erim ento cartesian o R = (O, B) di En, la m atrice A E On(IR) associata
ad o ha detA = 1 (risp . detA = -1).

Esempio 9 .14. Nello spazio euclideo En, dotato di un riferimento cartesiano R = (O B)


f 1ss1amo
.
)
'
11 vettore v =s (a 1 , a 2 , . . . , an ); l'applicazione O v : En -+ En che al generico
2
1
1
2
punto P =n (x ,x , . .. ,xn ) associa il punto ov(P) = n (y ,y , . .. , yn) tale che

Dimostrazione . Per la relazione di Chasles e per la definizione di trasformazione


lineare indotta da una isometria, si ha:

O' a(P)

yi =xi + ai

= O'o(O) + o(O)o(P) = O' o(O) + a(oP).

B', diventa:

(y) = (b ) + (x' ),

dove (x' ) denota la colonna delle componenti del vettore libero a(oP) rispetto alla
base B' . Poich la colonna (x) delle coordinate cartesiane del punto P rispetto al
riferimento R coincide con la colonna delle componenti del vettore libero oP rispetto
alla base B, le equazioni della trasformazione ortogonale indotta
E-;,, -+ f n rispetto

a:

alle basi (ortonormali)

Be B' sono esattamente


(x' ) = A (x),

con A E On(IR);

la t esi segue quindi direttament e, sostit uendo questa relazione nella uguaglianza precedente.

Le equazioni (*) vengono dette equazioni della isometria a, relativamente ai riferimenti cartesiani R ed R '; la matrice ortogonale A si dice associata ad o relativamente

a R ed R' .
..,.. O sservazione 9. 13 . Non difficile verificare che ogni isometria trasforma sottospazi euclidei di dimensione h di En in sottospazi euclidei di dimensione h di F n:
ci pu essere dedotto, ad esempio, sostit uendo una rappresentazione parametrica del
sottospazio Eh e En nelle equazioni (*).

+ Definizione

9 .23. Uno spazio euclideo En di dice orientato se orientata, come


13
spazio vettoriale euclideo, la sua giacitura E-;,, (Definizione 8.13).

+D efinizione 9.24.

Una isometria o di uno spazio euclideo orientato En in s si dice


diretta (risp. inversa) se conserva (risp . rovescia) l'orientazione di E-;,, (Definizione

8.14).
13La presente definizione estende agli spazi euclidei di dimensione arbitaria la definizione di
orientazione di una retta euclidea gia anticipata nella Definizione 9.12.

Vi E Nn,

una isomet~ia diretta di En in s, la cui t rasformazione lineare indotta la trasformazione


identica di En. L' isometria O v usualmente detta traslazione14 di ampiezza v E f n,
perch il corrispondente del punto P E En l'unico punto P ' di En tale che P P' = v (si
ricordi l'assioma (SEl)) .

Questa uguaglianza t ra vettori liberi, espressa in termini di component i rispetto alla


base

179

Esempio 9 .15. Nel piano euclideo E 2 , dotato di un riferimento cartesiano R , fissiamo


</> E [O, 2n[; l'applicazione oc/> : E2 -+ E2 che al generico punto P =n (x, y ) associa il
punto
ac/>(P) = n (x cos</>+ y sen </>, -xsen</> + y cos</>),
una isometria di retta del piano euclideo in s, che lascia fissa l'origine del riferimento
R ~ la cui _ trasforma~_ione lin_eare i~dotta la trasformazione ortogonale Pc/> considerata
ne~I ~s~mp10 8._ 15 .. L 1sometna oc/> e usualmente detta rotazione di ampiezza </> attorno
all origine del nfenmento cartesiano.

~s~mpio. 9 .16. Nel~ spa~io ~uclideo En, do:ato di ~n riferimento cartesiano R =(O , B) ,
f1ss1am? il punto C = n (e , e , ... , cn); la simmetria (centrale) di centro C (Definizione
9.20) risulta essere una iso~etria , la cui t rasformazione lineare indotta l'opposto della
t rasform~~io~e identica di En (ovvero, associa ad ogni vet tore u il suo opposto - u) . Per
quanto g1a dimostrato nel paragrafo precedente, le equazioni della simmetria centrale di
centro
sono:
Yi = -xi+ 2ci,
Vi E Nn.

~a sim~e~ ria centrale di centro C E En quindi una isometria diretta per n pari ed una
1sometna inversa per n dispari .

Esempio 9.17. possibile poi dimostrare che anche le simmetrie ortogonali rispetto ad
un iperpiano En- l (Definizione 9.21) sono esempi di isometrie dello spazio euclideo En
in s, che lasciano fissi tutti e soli i punti dell'iperpiano considerato; tali isometrie sono
sempre inverse, per ogni n. Infatti , se R = (O, B) un sistema di riferimento cartesiano
di En in cui l'origine O appartiene all ' iperpiano En -l ed i primi n - 1 vettori della base
14 La nozione di

traslazione era gi stata introdotta, nel caso dello spazio vettoria le standard

!Kn , nella Osservazione 6.5.

9. SPAZI EUCLIDEI

180

ordinata (ortonormale) J3 appartengono a


simmetria ortogonale sono:

tn- 1 , 1e equazioni

relativamente ad

della

=xl
CAPITOLO 10

Il piano euclideo
.,.. Osservazione 9.14. Si noti. che, se n I = (O' , B') e n" -- (O" , B")
. .sono due
riferimenti cartesiani di uno spazio euclideo n-dimensionale t;n, le equaziom.del ca~
biamento di riferimento da 'R' a 'R" (Proposizione 9.3) rappresentano u?a is?metna
dello spazio euclideo standard ~n in s. Tale isometria risulta diretta (nsp. mversa)
se e solo se le basi ortonormali B' e B" sono concordi (risp. discordi) .

1. I sottospazi del piano euclideo: punti e rette

Nel presente capitolo, il simbolo &2 indicher sempre un piano euclideo.


Ovviamente, i sottospazi di [ 2 possono avere dimensione O (i punti di &2 ), 1 (le rette,
che sono contemporaneamente iperpiani di &2 ) e 2 (il piano [ 2 stesso) .
Fissato in [ 2 un riferimento cartesiano n = (O, B = (i,j)), se P =n (x, y) un punto
di [ 2 , allora le coordinate cartesiane x ed y sono dette rispettivamente ascissa ed
ordinata di P (relativamente ad 'R). Le rette coordinate del riferimento n sono l'asse
x (individuato dall'origine O e dalla direzione del versore i) e l'asse y (individuato
dall'origine O e dalla direzione del versore j) (Figura 10.1) .

)
y ------------ - ------

asse x

Figura 10.1
Per la Proposizione 9.4 (caso h = 1), ogni retta r di [ 2 univocamente determinata
da due qualunque suoi punti distinti A, BE r. Posto A =n (xA, YA) e B =n (xB, YB),
poich il vettore (non nullo)
=g (xB -xA, YB -yA) genera la giacitura della retta
r, un punto generico P =n (x, y) appartiene ad r se e soltanto se
E L(AB),
ovvero se (x - XA, y - YA) E L((xB - XA, YB - YA)).
Da questa affermazione si ricavano entrambi i tipi di rappresentazione gi visti in
generale nel 4 del Capitolo 9:

AB

AP

l. I SOTTOSPAZI DEL PIANO EUCLIDEO : PUNTI E RETTE

10. IL PIANO EUCLIDEO

182

det

(Xy-yA
- XA

Si noti poi che, data una qualunque delle rappresentazioni della retta r, possibile
ricavare direttamente una coppia (l, m) di coefficienti direttori di r :
nel caso della rappresentazione cartesiana ax +by+ e = O, si ha (l, m) =
(-b, a) : infatti, (-b, a) soluzione della equazione omogenea associata (che
rappresenta, rispetto alla base B, la giacitura della retta) .
nel caso della rappresentazione parametrica, (l, m) coincide con la coppia
dei coefficienti del parametro t: infatti, tali coefficienti sono costituiti dalle
componenti (xB-XA, YB-YA) del vettore libero
che genera la giacitura
della retta.
nel caso della rappresentazione frazionaria, (l, m) coincide con la coppia dei
denominatori: infatti, tali denominatori sono costituiti dalle componenti
(xB -xA, YB -yA) del vettore libero
che genera la giacitura della retta.
nel caso della rappresentazione in forma esplicita, una coppia di coefficienti
direttori data da (1, m), dove m il coeffiiente angolare di r: infatti,
la equazione esplicita y = mx + q corrisponde alla equazione cartesiana
mx - y + q =O, in cui (-b, a)= (1, m) .
Da queste osservazioni deduciamo il modo per ottenere le equazioni della retta s
parallela ad una retta data e passante per un fissato punto P =n (x, y):
se r ha rappresentazione cartesiana ax +by+ c = O, allora s ha rappresentazione cartesiana a(x - x) + b(y - y) =O;

la retta r ha equazione cartesiana

XB - XA)
YB -YA

che, una volta sviluppata, risulta del tipo~


con (a,b)-=/= (0,0);

ax+by+c=O,

la retta r ha equazioni parametriche


{Y

YA

(XB - ; A) t

(YB - YA) t

X = XA

AB,

4--

in cui i coefficienti del parametro reale t sono non entrambi nulli.

AB,

Nel caso in cui si abbia contemporaneamente XB - XA i= O ed YB - YA i= O (ovvero,


quando i punti A e B hanno diversa ascissa e diversa ordinata), possibile icavare il parametro t dalle equazioni parametriche, ottenendo la cosiddetta equazione
frazionaria della retta r :

~"~
Infine, nel caso in cui x 8

XA

X -XA
XB - XA

y-yA
-~
YB - y~ ..,.._:..- ~vvf A9
O, la retta r ammette una equazione del tipo

i=

y=mx+q
YB -yA
E JR e q E JR; tale equazione nota come equazione esplicita
XB -XA
della retta r (rispetto ad y), e gli scalari m e q sono comunemente detti coefficiente
angolare e ordinata all'origine dir.

con m

Esempio 10.1. La retta r passante per i punti (distinti) A =n (2, 1) e B =n (3 , -2)


ha equazione cartesiana
det

3-2) =o,

(Xy-1
-2

ed equazione esplicita
y

X (

. .
. h
equazioni
parametnc
e

Y_

21 51 -2)
_ 1

= -3x + 7.

{X
y

= 2

non ammette equazione frazionaria.

3t

ovvero

= O,

(t

JR),

y -1

. {X

presentaz10ne parametrica

= x_ +

Yo

+ m t

, allora s ha rap-

l t

y=y+mt

se r ha rappresentazione frazionaria x - xo
- l
sentazione frazionaria x ~ x = Y : Y .

+ q,

y-yo
- - - , allora s ha rapprem

allora s ha equazione esplicita

= y + m(x - x).

Infatti, in tutti i casi considerati, le equazioni scritte individuano una retta s con i
medesimi coefficienti direttori di r (e quindi, per la Proposizione 9.7, si ha s//r) e
risultano verificate dalle coordinate del punto P (e quindi, P E s); il risultato segue
pertanto dal Teorema 9.5.

(t E JR),

La retta s passante per i punti A =n (2, 1) e B =n (5, 1) ha invece equazione cartesiana


det

{X = Xo + l t
Y

se r ha equazione esplicita y = mx

y-1
-3

x-2

.
.
se r h a rappresentaz10ne
parametrica

2 + t
1 - 3t

La retta r ha poi equazioni parametriche {:


equazione frazionaria

3x +y - 7 =O.

ovvero

-2-1

183

Esempio 10.2. La retta r (risp. s) considerata nell'Esempio 10.1 ha coefficienti direttori


(1, -3) (risp. (1, O)) e coefficiente angolare -3 (risp. 1).

=o,

equazione esplicita y

1, ma

La proposizione seguente ci permette di studiare la mutua posizione di due rette di


E. 2 , a partire dalle loro equazioni cartesiane.

Proposizione 10.1. Siano r' ed r" due rette di [ 2 e siano rispettivamente


a' x + b' y + cI -- O ed a 11 x + b" y + cIl = 0 due loro equazioni
. . cartesiane,
.
.
relativamente
ad un fissato riferimento cartesiano R . Allora:

10. IL PIANO EUCLIDEO

184

1. I SOTTOSPAZI DEL PIANO EUCLIDEO: PUNTI E RETTE

Le seguenti proposizioni mettono a confronto le condizioni di parallelismo e le condizioni di ortogonalit tra due rette di E2 , l'una nel caso di rappresentazioni cartesiane, l'altra nel caso di equazioni esplicite; inoltre, ci forniscono le formule dirette
per calcolare l'angolo formato da due rette date.

(i) r 1 ed r" coincidono se e soltanto se


1

{!

a
( a"

b
b"

c )
c"

(ii) r 1 ed r" sono parallele disgiunte se e soltanto se


{!

1 1
b)
a
a"
b" = 1
(

{!

1 1
(a b
a" b"

1
c)

c"

Proposizione 10.2. Siano r 1 ed r" due rette di E2i e siano rispettivamente


a1x + b1 y + c1 = O ed a" x + b" y + c" = O due loro equazioni cartesiane, relativamente
ad un fissato riferimento cartesiano R. Allora:
(i)' r 1 ed r" sono parallele se e soltanto se esiste E JR - {O} tale che:

(iii) r 1 ed r" sono incidenti in un punto se e soltanto se

e (:: ~:1 )
1

a1
= 2

(ovvero:

det ( a"

bi)

b"

(a 1 , b1 ) =

(iv) r ed r" non sono mai sghembe.


1

So:

(a" , b")

(ii) r ed r" sono ortogonali se e soltanto se:

.
(event ua1ment e vuot a ) tra le due rette r 1 ed r"
Dimostrazione. L'intersezione
ovviamente rappresentata, relativamente al riferimento cartesiano R, dal sistema
lineare
1
1
a 1x + b y + c =O
S:
{ a"x + b"y + c" =O,
mentre l'intersezione tra le due giaciture
base B, dal sistema omogeneo associato

185

Ti

a1a"+ b1b11 =O
(iii) se r 1 ed r" sono orientate in modo che i vettori di componenti ( -b1 , a1 ) e
(-b", a") siano positivi, ;:;;:;-, il numero reale (compreso tra O e 7f) tale
che
a 1 a" + b1 b"
cos(r1 r 11 ) =
y'(a1)2 + (b1)2. J(a")2 + (b")2

e r71 rappresentata, relativamente alla

a1 x + b1y =O
{ a"x+b11 y=O.

La tesi segue allora facilmente, osservando che:


(i) se r 1 ed r" sono coincidenti, r 1 nr" deve contenere tutti i punti ?i ~ (ovvero
1
_
di r"), e quindi il sistema S deve essere possibile con 00 soluz10m; _
1
1
1
(ii) se r ed r" sono parallele disgiunte, deve essere r n r" = 0, mentre r n r" )
deve contenere tutti i vettori di Ti (ovvero di r71 ), e quindi il sistema S deve
1
essere impossibile mentre il sistema So deve avere 00 soluzioni;
,
I
Il
{P}
. d"
(iii) se r 1 ed r" sono incidenti in un punto P, deve essere r n r =
, qum 1
il sistema S deve essere possibile e determinato;
(iv) r 1 ed r" non possono essere sghembe, perch tutti i .?asi c~e si ~oss~n~
presentare nella discussione dei sistemi S ed So sono g1a stati esammat1 a1
punti precedenti.

Dimostrazione. Basta ricordare che ( -b1 , a1 ) e ( -b", a") sono coppie di coefficienti direttori positivi per r 1 ed r", e poi fare uso, rispettivamente, della Prop. 9.8(a) (ovvero
dalla Prop. 10.1 ((i) e (ii))), della Prop. 9.9 e della Prop. 9.13.

Proposizione 10.3. Siano r 1 ed r" due rette di E2 e siano rispettivamente y =


m 1 x + q1 ed y = m" x + q" due loro equazioni esplicite, relativamente ad un fissato
riferimento cartesiano R. Allora:
(i) r 1 ed r" sono parallele se e soltanto se
m1

m"

(ii) r 1 ed r" sono ortogonali se e soltanto se:


m 1 m"

-1

(iii) se r ed r" sono orientate in modo che i vettori di componenti (1, m 1 ) e


(1,m") siano positivi, ;:;;:;-, il numero reale (compreso tra O e 7r) tale che
Esempio 10.3. Nel piano euclideo f, 2 , dotato di un fissato riferimento cartesiano R, si

considerino le rette
r : 2x - y + 3 = O,

r1

4x - 2y + 6 = O,

s : 6x - 3t - 2 = O,
1

t : 3x - 2y + 5 = O.

La Proposizione 10.1 consente di affermare che r ed r coincidono, che r ed s sono


parallele disgiunte, e che re t (owero set) sono incidenti in un punto.

cos (;:;;:;-, )

m 1 m 11 +1

y'(m 1 ) 2 + 1y'(m") 2 +1

Dimostrazione. Basta ricordare che (1, m 1) e (1 , m") sono coppie di coefficienti direttori positivi per r 1 ed r", e poi fare uso, rispettivamente, della Prop. 9.8(a) (ovvero
dalla Prop. 10.1 ((i) e (ii))), della Prop. 9.9 e della Prop. 9.13.

l. I SOTTOSPAZI DEL PIANO EUCLIDEO: PUNTI E RETTE

10. IL PIANO EUCLIDEO

186

Proposizione 10.4.
(i) Siano r' ed r" due rette non parallele di t: 2 e siano rispettivamente a'x+b'y+
+c' =O ed a"x+b"y+c" =O due loro equazioni cartesiane, relativamente ad
un fissato riferimento cartesiano R. Allora, detto C il punto di intersezione
di r' ed r", l'equazione

Esempio 10.4. Se le rette r ed sconsiderate nell'esempio 10.1 sono orientate in modo


che le loro equazioni
r : 3x + y - 7 = O ed s : y = 1
siano positive, allora la retta t parallela ad r passante per il punto P =n ( -1, 4) ha
equazione
t : 3(x + 1) + (y - 4) =O,

>.(a'x

t : (x - 3) - 3(y - O) = O,
mentre l'angolo tra r ed s </>E [O, 7r] tale che
cos<f>

ax+by+k=O

rappresenta, al variare del parametro k E ~' tutte e sole le rette del fascio
(improprio) di direzione V E r (cio tutte le rette parallele ad r).

v110

Dimostrazione. (i) Poich { C} = r' n r", le coordinate di C verificano entrambe


le equ.azioni a'x + b'y + c' =O ed a"x + b"y + c" =O, e quindi verificano anche ogni
equazione ottenuta da quelle tramite combinazione lineare. Ci prova che tutte le
rette di equazione

..,. Osservazione 10.1. Si noti che, se x e y denotano i due assi coordinati del
riferimento R canonicamente orientati (ovvero orientati in modo che i versori i e j
siano positivi), allora la retta r di equazione esplicita y =mx+ q, orientata in modo
che il vettore di componenti (1, m) (risp. (-1, -m)) sia positivo, ha
cos(rx)

(risp.
cos(rx) =

v'm2 + l'
-1

v'm + l'
2

+ b'y + c') + (a"x + b"y + c") =O

rappresenta, al variare dei parametri reali(>.,) i- (O, O), tutte e sole le rette
del fascio (proprio} di centro C.
(ii) Sia r una retta di t: 2 e sia ax +by+ c = O una sua equazione cartesiana
relativamente ad un fissato riferimento cartesiano R. Allora la equazione '

la retta t' ortogonale ad r passante per il punto Q =n (3, O) ha equazione

30+11
=---;:::;;===o;;:---;:::;;===~
y'32+12.Jo2+12

187

cos(ry) = sin(rx) =

cos(ry) = sin(rx) =

>.(a'x + b'y + c')

v'm2 +1
-m

v'm 2 + 1

+ (a"x + b"y + c") =O,

al variare dei parametri reali (>., ) i- (O, O), appartengono al fascio di centro C.
Viceversa, ~e s ~na retta d.el fascio di centro C, allora s n (r' n r") = {C} = r' n r";
pertanto, l equazione cartesiana ax +by+ c = O di s, relativamente al riferimento
R, deve essere combinazione lineare delle due equazioni cartesiane di r' ed r". Ci
equivale ad affermare che deve esistere una coppia (>., ) E~ - {(O, O)}, tale che

ax +by+ c = >.(a'x + b'y + c')

+ (a"x + b"y + c" ).

Da questo segue, qualunque sia l'orientazione assegnata ad r, che tg(rx) = m; per~


tanto, il coefficiente angolare m della equazione esplicita coincide con la tangente dell'angolo che la retta (arbitrariamente orientata) forma con l'asse x, canonicamente
orientato, del riferimento R.

(ii) E' sufficiente osservare che ogni retta di equazione ax +by+ k = O, con k E~.
parallela ad r, e che ogni retta parallela ad r ha (per la Proposizione 10.2) equazione
(>.a)x + (>.b)y + d =O, con E~ - {O} e d E~, ovvero
d
ax +by+ k = O, con k = - E R

+Definizione 10.1. Dato un punto CE t: 2 , si dice fascio (proprio} di rette di centro


C l'insieme costituito da tutte e sole le rette di t: 2 che contengono C.

Esempio 10.5. Dato nel piano euclideo t: 2 il punto C ==. (1, 2), il fascio di rette di
centro
pu essere rappresentato dall'equazione

+ Definizione 10.2. Dato un vettore v E f2, si dice fascio (improprio} di rette di


direzione v l'insieme costituito da tutte e sole le rette di t: 2 che sono parallele alla
direzione individuata dal vettore v.
Il seguente risultato ci fornisce le equazioni di tutte le rette appartenenti ad un fissato
fascio proprio (risp. improprio), a partire dalla rappresentazione cartesiana di due
elementi (risp. un elemento) del fascio stesso.

>.(x - 1)

+ (y

- 2) =O,

ottenuto scegliendo le rette r' di equazione x - 1 = O ed r" di equazione y - 2 = O.


Scegliendo, invece, r' di equazione 2x -y = o ed r" di equazione X+ y - 3 = o si ottiene
l'equazione
'
>.(2x - y) + (x + y - 3) =O.
11 fascio di rette parallele alla retta r" ha equazione

x+y+k =O.

_)

10. IL PIANO EUCLIDEO

188

2. DISTANZE

189

2. Distanze
&2 ,

Nel piano euclideo


in cui si suppone di avere fissato un riferimento cartesiano
R = (O, B), la nozione di distanza tra due punti ed il relativo metodo di calcolo si
specializza nella forma seguente.

Esempio 10.6. Lo studio delle mutue posizioni tra le rette considerate nell ' Esempio 10.3,
di equazioni

r : 2x - y + 3 = O,

r' : 4x - 2y + 6 = O,

assicura che - per la Proposizione 10.7 - si ha:


d(r, r') = d(r, t) = d(s , t) = O.

Proposizione 10.5. Se P =n (x p,yp) e Q =n (xQ,yQ), allora:


d(P,Q)

= llPQll =

Per calcolare la distanza tra le due rette parallele disgiunte r ed s, consideriamo P =n


( -1, 1) E r ed applichiamo la formula fornita dalla Proposizione 10.6:

J(xQ-XP) 2 +(YQ-YP) 2

Dimostrazione. Basta utilizzare la Proposizione 9.14.

Poich le rette sono gli iperpiani di &2 , il calcolo della distanza tra un punto ed una
retta si effettua utilizzando, nel caso n = 2, la Proposizione 9.15.
Proposizione 10.6. Sia r la retta di & 2 di equazione cartesiana, rispetto ad R,
ax +by+ c =O e sia P =n (x, y). Allora:
lax +by+ cl
-'--==,-J + b2

+ Definizione

d(r',r")

d(Q,r")

\;/Q E r'

(risp. d(r',r")

d(P,r')

lax +by+ c"I


Ja2 + b2

I - c' + c"I
Ja2 + b2

A, ) C

V(< A,B,C >) = ABC = -1


2

><

det ( < A-:-:,


~ A-:-:
~
< AH,AC >

Proposizione 10.8. Se A =n (xA , YA), B =n (xB, YB), e


ABC =

~.2

det

(x~ x~ x~) ' = ~I


det (XB 2
YA

YB

<

Dimostrazione. un caso particolare (per h


sizione 9.16.

>)

AC,AC >

e =n (xc, Yc),
XA

~-~

Yc

A-:-:
A--:--
AH,AG'

xc - XA)
~-~

allora:

2) della dimostrazione della Propo-

\:IP E r")

Dimostrazione. La prima parte dell'enunciato banalmente vera.


Nel caso in cui r' ed r" siano parallele, occorre verificare che la distanza d(Q, r")
indipendente dalla scelta del punto Q E r' (analoga dimostrazione sussiste per
d(P, r'), con P E r") . In virt della Proposizione 10.2 possibile supporre che le
due rette abbiano - rispetto ad un fissato riferimento cartesiano R di &2 - equazioni
r' : ax +by+ c' =O, r" : ax +by+ c" =O. Allora, posto Q =n (x, y) e ricordato
che Q E r', la tesi segue dalla Proposizione 10.6:
d(Q, r") =

v'45

10.3. Dati tre punti non allineati A, B, C di &2 , si dice area del
1
il numero realre_p_os_i_ti_v_o__ _ _ _ _ _ _ _ __
triangolo di vertici

Proposizione 10. 7. Siano r' ed r" due rette di &2


Se r' ed r" sono incidenti (in particolare, coincidenti), la loro distanza
uguale a zero;
Se r' ed r" sono parallele, la loro distanza uguaglia la distanza tra r" (risp.
r') ed un punto qualsiasi dir' (risp. dir"):

J62

11

In dimensione due, la nozione di volume di un 2-simplesso (ovvero di area di un


triangolo) - vista in generale nel 8 del Capitolo 9 - si specializza nel modo seguente.

a2

Il seguente risultato fornisce il metodo operativo per il calcolo della distanza tra due )
rette di &2 , in funzione della loro reciproca posizione.

l(-1)6-3(1)-21
+ (-3)2

d(r, s) = d(P, s) =

d(P, r) =

t : 3x - 2y + 5 = O,

s : 6x - 3t - 2 = O,

Esempio 10.7. Se

A =n (-1,1), B =n (3,0) e C =n (2,-2), l'area del triangolo

ABC
1
2

1
3

_
~ I (3 O
_ (-1)
- 2 det
-1

2-(-1))1
-2-1

1Si noti che la Definizione 10.3 presuppone che il determina nte della matrice presente sotto il
segno di radice quadrata sia sicuramente positivo, come assicurato d alla Proposizione 8.13 relativa
alle propriet delle matrici di Gram; in alternativa, la dimostrazione di questo fatto pu essere
agevolmente d edotta dalla dimostrazione della Proposizione 9.16, nel caso h = 2.

190

10. IL PIANO EUCLIDEO

4. LE CONICHE COME LUOGHI GEOMETRICI


191

3. Le isometrie del piano euclideo


Nel presente paragrafo daremo alcune informazioni specifiche riguardo alle isometrie
del piano euclideo &2, che specializzano le informazioni gi fornite nel paragrafo 10
del Capitolo 9 sulle isometrie di un generico spazio euclideo n-dimensionale.
In base alla Definizione 9.22, una isometria del piano euclideo &2 in s una applicazione compatibile D : &2 ---+ &2 tale che l'applicazione indotta a : t;2 ---+ t;2 una
trasformazione ortogonale (biunivoca) di t;2 in s.
Per la Proposizione 9.18, poi, ogni isometria D di &2 in s si rappresenta, rispetto ad
un fissato riferimento cartesiano R = (O, B) , attraverso equazioni di tipo

ove (x, y) la coppia delle coordinate cartesiane di un generico punto P E &2 rispetto
ad R, (x', y') (risp. (a, b)) la coppia delle coordinate cartesiane del punto D(P) E &2
(risp. D(O) E &2) rispetto ad R, ed A E 0 2(1R) la matrice (ortogonale) associata
alla trasformazione ortogonale indotta a : t;2 ---+ t;2 rispetto alla base (ortonormale)

iJ.
Ricordiamo infine (Definizione 9.24) che una isometria D di &2 in s si dice diretta
(risp. inversa) se a conserva (risp. rovescia) l'orientazione di &\ per la Proposizione
9.19, l'isometria D di equazioni (*) diretta (risp. inversa) se e solo se det A = 1
(risp. detA = -1).
)

+Definizione 10.4.

Dimostrazione. Per semplicit, proveremo compiutamente l'enunciato solt t


d.

ano nel
fi
caso i una ISometna diretta. In tal caso, le equazioni di D rispetto ad
~ .
'
un ssato
n1enmento cartesiano R = (O, B), sono

G;) =A. G) + (~)'


ove A E 02(1R), detA = +1. Ricordato l'Esempio 3.2, si ha quindi:

A = ( coscp
-sen 'P

+ Definizione

10.5. Si dice glissorifiessione una applicazione D di &2 in s ottenuta come composizione di una riflessione Sr rispetto ad una retta r di &2 con una
traslazione Dv di ampiezza un vettore v i- O, con v "parallelo" ad r :
'

Non difficile verificare che, data la glissoriflessione D = Dv o sr, si ha anche D =


o Dv Inoltre, le glissoriflessioni sono isometrie inverse di &2 in s, che non lasciano
fisso alcun punto di &2.
Il seguente classico risultato afferma che, nel piano euclideo &2, tutte le isometrie
appartengono ad una delle quattro tipologie gi descritte: traslazioni, rotazioni (si
ricordi l'Esempio 9.15), riflessioni e glissoriflessioni.

con cp E [O, 2n[.

I punti fissi di D, che si trovano imponendo x' = x e y'


hanno per coordinate le soluzioni del sistema lineare

= y nelle equazioni precedenti

Tal.e sistema ammette una ed una sola soluzione se e solo se (cos cp-1)2 + (sen cp)2 i- o,
ossia se e solo se 'P i- O. In questo caso, quindi, D una rotazione (di ampiezza 'P)
attorno a tale punto fisso.
Se invece cp =O, le equazioni di D diventano:

x' = x+a
{ y' = y+ b
L'isometria

quindi, in questa ipotesi, la traslazione di ampiezza v =fJ (a, b).

Il caso di a isometria inversa si tratta in modo simile, a partire dalle equazioni


corrispondenti ad
A _ (cos cp
sencp

sen cp )
- coscp "

con cp E [O, 2n[

(Esempio ~:2, n~l caso di det A= -1), ma ricercando innanzitutto le rette fisse rispett~ ad ~: CIO puo essere fatto ricercando i punti su cui D agisce come una traslazione
?i am~ie~za un vettore v (che, se esistono, sono sempre 00 1 , ovvero sono tutti e soli
i p~nt~ di una retta f). Se v = O, ogni punto della retta f punto fisso per D, ed
D _
si d~mos~ra essere la riflessione rispetto ad f; se invece v i- O, D risulta essere la
ghss?nfless10ne ottenuta componendo la riflessione rispetto ad f con la traslazione di
ampiezza v.

Sr

Proposizione 10.9. (Teorema di classificazione delle isometrie piane Chasles, 1831) Una isometria D del piano euclideo &2 contenente punti fissi una
rotazione (attorno al suo unico punto fisso) o una riflessione, a seconda che sia diretta
o inv_ersa. Una isometria priva di punti fissi una traslazione o una glissoriflessione,
a seconda che sia diretta o inversa.

'

(cos cp - 1) x + sen cp y + a =:= O


{ -sen cp x + (cos cp - 1) y + b = O

Le simmetrie (ortogonali) del piano euclideo &2 rispetto ad una


retta r (Definizione 9.21) si dicono anche riflessioni di &2.
Come provato nell'Esempio 9.17, le riflessioni sono isometrie inverse di &2 in s.

sencp)
cos 'P

4. Le coniche come luoghi geometrici

~el prese~te par a~rafo daremo alc~ni cenni re~ativi alle coniche (non degeneri) del

piano euc~ideo & , m~ese come particolari luoghi geometrici. Elementi pi dettagliati
della teona delle comche verranno esposti nel Capitolo 12.

+Definizione 10.6.

Si dice circonferenza il luogo geometrico dei punti del piano t;2


che sono equidistanti da un punto fisso C, detto centro. La comune distanza tra il
centro ed i punti della circonferenza si dice raggio della circonferenza.

4 . LE CONICHE COME LUOGHI GEOMETRICI

10. IL PIANO EUCLIDEO

192

Fissato in E2 un riferimento cartesiano R, se il centro C =n (a, {3) ed il raggio


r > o, allora la circonferenza = { p E [ 2 I d(P, C) = r} ha equazione cartesiana

Si noti che la circonferenza pu essere considerata come una particolare ellisse, in cui
i due fuochi coincidono.

+ Definizione 10.8.

x 2 + y 2 - 2ax - 2f3y + a 2 + {3 2 - r 2 = O

Si dice iperbole il luogo geometrico dei punti del piano [ 2 che


hanno costante (uguale a 2a > O) la differenza - in valore assoluto - delle distanze da
due punti fissi F 1 e F2, detti fuochi.

Infatti, P '=R (x, y) E C se e soltanto se (x-a) 2 + (y- {3) 2 = r 2 ; sviluppando i calcoli


si perviene alla equazione considerata.
In particolare, se si sceglie un riferimento cartesiano R' avente origine nel centro C,
allora la circonferenza di centro C e raggio r > O assume equazione cartesiana:
(x')2

Fissato in [ 2 il riferimento cartesiano R tale che F 1 =n (-c, O) e F 2 =n (e, O) (con


d(Fi,F2) = 2c > 2a), allora la iperbole I= {P E E2 I ld(P,F1 ) - d(P,F2 )1=2a}
ha equazione cartesiana:

+ (y')2 = r2

+ Definizione

10. 7. Si dice ellisse il luogo geometrico dei punti del piano [ 2 che
hanno costante (uguale a 2a > O) la somma delle distanze da due punti fissi F1 e F2,
detti fuochi.

x2
y2
a2 - b2 = 1

(2)

dove b =

x2
a2

y2
b2 = 1

dove b =

J a2 -

c2

J c2 -

a2

>O

(si veda la Figura 10.3).

Fissato in [ 2 il riferimento cartesiano R tale che F 1 =n (-c, O) e F2 =n (c, O) (con


d(Fi,F2) = 2c < 2a), allora la ellisse E= {P E E2 I d(P,F1 ) + d(P,F2) = 2a} ha
equazione cartesiana2 :

(1)

193

> O.

(si veda la Figura 10.2).

F =(-c,O)

y W"= (O,b)

o
V'=(-a,O)

V"= (a,O)

V"=(a,O)

V'=(-a,O)

F =(-c,O)

Figura 10.3

Infatti, P == (x, y) E I se e soltanto se

/ J(x

+ c) 2 + y 2 -

J(x - c) 2

+ y 2 / = 2a;

W'=(O,-b)

sviluppando i calcoli (isolando i radicali ed elevando al quadrato due volte), si perviene


alla equazione considerata.
Figura 10.2

Infatti, P == (x, y) E E se e soltanto se

J(x + c) 2 + y 2 + J(x - c) 2 + y 2 = 2a;


sviluppando i calcoli (isolando i radicali ed elevando al quadrato due volte), si perviene
alla equazione considerata.
2Per analogia, il luogo geometrico rappresentato dalla equazione
2

(1')

~+~=-1

(che risulta vuoto perch la equazione scritta non pu essere verificata dalle coordinate di alcun
punto del piano euclideo), viene usualmente indicato come ellisse vuota (o immaginaria) di E2 .

+ Definizione

10.9. Si dice parabola il luogo geometrico dei punti del piano E2


che sono equidistanti da un punto fisso F, detto fuoco, e da una retta fissa 8, detta
direttrice.
Fissato in [ 2 il riferimento cartesiano R tale che F =n (O,~) e 8 abbia equazione
y = -~ (dove p = d(F, 8)), allora la parabola P = {P E [ 2 I d(P, F) = d(P, 8)} ha
equazione cartesiana:

(3)
(si veda la Figura 10.4).

1
y= -x2

2p

194

10. IL PIANO EUCLIDEO

4. LE CONICHE COME LUOGHI GEOMETRICI

195

Proposizione 10.10. Fissato un riferimento cartesiano R = (O, B) del piano


euclideo [ 2 , si consideri una generica equazione algebrica di secondo grado nelle
coordinate x e y:

(4)
P=(x, y)

Posto

- - - - -- - - + - - - -- - - - Y

A=

= -

ao2

= (x, y) E P

a12

a22

e M 00

a11

( a12

e supposto det A =I O,
allora la equazione (4) rappresenta - rispetto ad R - una
conica e del piano euclideo [ 2 .
In particolare:
(i) se det Mao = O, allora C una parabola;
(ii) se det Mao < O, allora C una iperbole;
(iii) se det Mao > O, allora C una ellisse (vuota se e solo se a22 det A > O) .

Figura 10.4

Infatti, P

(:~~ :~~ :~~)

se e soltanto se

La dimostrazione di questo risultato contenuta nel capitolo 12, dove esposta una
trattazione pi esauriente della teoria delle coniche del piano euclideo.

sviluppando i calcoli (elevando al quadrato ambo i membri), si perviene alla equazione


considerata.
In realt, possibile provare che, a parte qualche caso particolare facilmente individuabile, ogni equazione algebrica di secondo grado nelle coordinate x e y rappresenta
o una ellisse, o una iperbole, o una parabola del piano euclideo [ 2 . Tali curve vengono
globalmente indicate con il termine coniche (non degeneri) del piano euclideo, poich
esse sono state storicamente considerate e studiate come intersezioni tra un piano ed
un cono (si veda la Figura 10.5). Le equazione del tipo (1), (1'), (2), o (3) vengono
usualmente dette equazioni canoniche delle coniche del piano euclideo.

Parabola

Circonferenza
Figura 10.5

Ellisse

Iperbole

3Se det A =O, allora la equazione (4) rappresenta - rispetto ad n - o l' unione di due rette, o
una sola retta (contat a due volte), o un solo punto; poich anche questi sottoinsiemi di E2 si posssono
ottenere come particolari intersezioni tra un piano ed un cono, essi vengono solitamente denominati
coniche degen eri del piano euclideo E2 .

CAPITOLO 11

Lo spazio euclideo
1. I sottospazi dello spazio euclideo: punti, rette e piani

Nel presente capitolo, il simbolo E3 indicher sempre uno spazio euclideo ordinario
(ovvero, di dimensione tre).
Ovviamente, i sottospazi di E3 possono avere dimensione O (i punti di E3 ), 1 (le rette
di E3 ), 2 (i piani, che sono gli iperpiani di E3 ) e 3 (lo spazio E3 stesso).
Fissato in E3 un riferimento cartesiano R = (O,B = (i,j,k)), se P =R. (x,y,z) un
punto di E3 , allora le coordinate cartesiane x, y e z sono dette rispettivamente ascissa,
ordinata e quota di P (relativamente ad R) . Le rette coordinate del riferimento R sono
l'asse x (individuato dall'origine O e dalla direzione del versore i), l'asse y (individuato
dall'origine O e dalla direzione del versore j) e l'asse z (individuato dall'origine O e
dalla direzione del versore k), mentre i piani coordinati del riferimento R sono il piano
xy (individuato dall'origine O e dai versori i e j), il piano yz (individuato dall'origine
O e dai versori j e k) e il piano xz (individuato dall'origine O e dai versori i e k)
(Figura 11.1).

...

."'
<Il
<Il

......

z-------------~::-~
,

I
I

p/

(.:_ - - - - - - - - ---- -- "'

'Y
asse y
I

- -

- _ -

-~,,."

"'

Figura 11.1
Per la Proposizione 9.4 (caso h = 1), ogni retta r di E3 univocamente determinata
da due qualunque suoi punti distinti A, B E r. Posto A =R. (xA, YA, zA) e B =R.
(xB, YB, ZB), poich il vettore (non nullo)
=g (xB - XA, YB - YA, ZB - ZA) genera
la giacitura della retta r, un punto generico P =R. (x, y, z) appartiene ad r se e

AB

198

11. LO SPAZIO EUCLIDEO

soltanto se APE L(AB), ovvero se (x - XA, y - YA, z - ZA) E L((xB - XA, YB - YA,
ZB - ZA )).
Da questa affermazione si ricavano entrambi i tipi di rappresentazione gi visti in
generale nel 4 del Capitolo 9:
la retta r ha rappresentazione cartesiana

{} (~Z =
:; ~~ =:;)
- ZA ZB - ZA
con {}

Y
{
Z

=
=
=

a'

+ (xB - XA) t
+ (YtY~ t
+ (zB - ZA) t

XA
YA
ZA

b
b'

e) =

e'

2.
'

+t

y = 2 - 3t
z = 3 - 3t

A'

x-l
1

(t E JR)

y-2

-3

z-3
-3

La retta s passante per i punti A =n (1, 2, 3) e B' =n (O, 2, 1) ha invece equazione


cartesiana

r : { 2x - z + 1 = O
y-2=0

(t E JR)

- ., .

Esempio 11.1. Fissato un riferimento cartesiano R nello spazio euclideo [ 3 , i punti


A =n (1 , 2, 3) e B =n (2, -1, O) sono affinemente indipendenti (cio distinti), in quanto
il vettore libero AB =. 13 (1, -3, -3) linearmente indipendente (essendo diverso dal
vettore nullo). Per ottenere una rappresentazione cartesiana della retta r passante per A
e B basta considerare un generico punto P =n (x, y, z) di [ 3 ed imporre che
=. 13

AP

r=

O
O.

ed equazione frazionaria

in cui i tre coefficienti del parametro t non sono tutti nulli.


Nel caso in cui si abbia contemporaneamente XB - XA =f. O, YB -yA =f. O e ZB - ZA =f. O
(ovvero, quando i punti A e B hanno diversa ascissa, diversa ordinata e diversa
quota), possibile ricavare il parametro t dalle equazioni parametriche, ottenendo la
cosiddetta equazione frazionaria <:lella retta r :
Z- ZA
X-XA
y-yA
XB -XA
ZB -ZA
YB -yA
\
c..i}:'('t ,fu 1'l,

(x - 1, y - 2, z - 3) appartenga ad

{3x + y- 5
3x + z- 6

La retta r ha poi equazioni parametriche

la retta r ha equazioni parametriche~ <...oef ~ Je.\v t&\\~


X

r:

(a

199

Ci porta al seguente sistema lineare minimo, che rappresenta la retta r:

X =

che, una volta sviluppata, risulta del tipo

{axa' x ++byb' y++cze'+z +d =d' O= O

l. I SOTTOSPAZI DELLO SPAZIO EUCLIDEO : PUNTI, RETTE E PIANI

ed equazioni parametriche {: :

~+t

(t E JR),

ma non ammette equazione

z = 3 + 2t
frazionaria (perch i due punti A e B' hanno la stessa ordinata) .

Si noti poi che, data una qualunque delle rappresentazioni della retta r, possibile
ricavare direttamente una terna (l, m , n) di coefficienti direttori dir:
nel caso della rappresentazione cartesiana

ax + by + cz + d =O
{a' x + b' + e' z + d' = O
y

si ha

L(AB). Ci equivale ad imporre che

{} (: -3
=; -3
~3)

= 1.

Essendo det(l) =f. O, baster imporre che entrambi gli orlati del minore considerato abbiano
determinante nullo:

Ci deriva direttamente dalla risoluzione del sistema lineare omogeneo associato (che rappresenta, rispetto alla base B, la giacitura della retta): si veda
l'Esempio 6.4.
nel caso della rappresentazione parametrica, (l, m, n) coincide con la terna
dei coefficientrdel parametro t: infatti, tali coefficienti sono costituiti dalle
componenti (xB - XA, YB - YA, ZB - ZA ) del vettore libero AB, che genera
la giacitura della retta.
nel caso della rappresentazione frazionaria, (l, m, n) coincide con la terna
dei denominatori: infatti, tali denominatori sono costituiti dalle componenti
(xB - XA, YB - YA, ZB - ZA) del vettore libero AB, che genera la giacitura
della retta.

200

11. LO SPAZIO EUCLIDEO

1. I SOTTOSPAZI DELLO SPAZIO EUCLIDEO: PUNTI , RETTE E PIANI

201

se r ha rappresentazione frazionaria
Esempio 11.2. Le rette r ed sconsiderate nell'esempio 11.1 hanno rispettivamente coefficienti direttori (1, -3, -3) e (-1 , O, -2) (o anche (1, O, 2)), come si ricava direttamente

AB re

dalle componenti dei vettori liberi


E
AB' E s, o dai coefficienti del parametro
nelle equazioni parametriche delle due rette. Nel caso della retta r, i coefficienti direttori
si ricavano direttamente anche dai denominatori della equazione frazionaria; d'altra parte,
considerando la rappresentazione cartesiana di r, la matrice incompleta

M =

(33 1o O)1

e, pertanto, i coefficienti direttori di r risultano ancora

,-

(I~ ~I I~ ~I, I~ ~I)

(l, - 3 , - 3).

Analogamente, la matrice incompleta della rappresentazione cartesiana di s

M' =

G~

~1)

s risultano ancora

e, pertanto, i coefficienti direttori di

x-xo

y-yo
Z - Zo
m
n
allora s ha rappresentazione frazionaria
x-x y-y z-z
m
n
Infatti, in tutti i casi considerati, le equazioni scritte individuano una retta s con i
medesimi coefficienti direttori dir (e quindi, per la Proposizione 9.7, si ha s//r) e
risultano verificate dalle coordinate del punto P (e quindi, P E s); il risultato segue
pertanto dal Teorema 9.5.
La proposizione seguente ci permette di studiare la mutua posizione di due rette di
t: 3 , a partire dalle loro equazioni cartesiane.
Proposizione 11.1. Siano r' ed r" due rette di t: 3 e siano rispettivamente

ax +by+ cz + d =O
{ a' x + b' y + e' z + d' = O

{a"x + b"y + c" z + d" =O


a"' x + b"' y + c"' z + d"' = O

due loro rappresentazioni cartesiane, relativamente ad un fissato riferimento cartesiano R. Allora, posto
a
a'
A= a"
(
a"'

Si noti che la retta s non ammette rappresentazione frazionaria proprio perch uno dei
suoi coefficienti direttori nullo.

Da queste osservazioni deduciamo il modo per ottenere le equazioni della retta s


parallela ad una retta r data e passante per un fissato punto P =n (x, fj, z):
se r ha rappresentazione cartesiana

ax +by+ cz + d =O
{ a' x + b' y + e' z + d' = O
allora s ha rappresentazione cartesiana

b
b'
b"

b"'

c)

c'
c"
c"'

=
=

Xo

+ [. t
+ m t

y
Yo
z =zo+n t

allora s ha rappresentazione parametrica

= i + l t
y=y+mt
{
. z = z +n t
X

e
a"'

si ha che:

c
c'
c"
c"'

d)

d'

d"

d"'

(i) r' ed r" coincidono se e soltanto se


e(B)

(ii) r' ed r" sono parallele disgiunte se e soltanto se


e(A)

= 2

e(B)

= 3

(iii) r' ed r" sono incidenti in un punto se e soltanto se

a(x - x) + b(y - y) + c(z - z) = O


{ a'(x - x) + b'(y - y) + c'( z - z) =O
se r ha rappresentazione parametrica

b
b'
b"
b"'

a'
a"

e(A)

= 3

e(B)

(iv) r' ed r" sono sghembe se e soltanto se


e(A)

= ,~

e(B) = 4

Dimostrazione. L'intersezione (eventualmente vuota) tra le due rette r' ed r"


ovviamente rappresentata, relativamente al riferimento cartesiano R, dal sistema
lineare
ax +by+ cz + d =O
a'x + b'y + c' z + d' =O
S:
{ a" x + b"y + c" z + d" =O
a"' x + b"' y + c"' z + d"' = O,

~ \.~ <..oNV~

l'f\f

1. e. Se VVQ

202

mentre l'intersezione tra le due giaciture ? e r71 rappresentata, relativamente alla


base iJ, dal sistema omogeneo associato S 0 . La tesi segue allora facilmente, osservando
che:
(i) se r' ed r" sono coincidenti, r' nr" deve contenere tutti i punti dir' (ovvero
di r"), e quindi il sistema S deve essere possibile con 00 1 soluzioni;
(ii) se r' ed r" sono parallele disgiunte, deve essere r' n r" = 0, mentre ? n r7'
deve contenere tutti i vettori di? (ovvero di r71 ), e quindi il sistema S deve
essere impossibile, mentre il sistema So deve avere 00 1 soluzioni;
(iii) se r' ed r" sono incidenti in un punto P, deve essere r' n r" = {P}, quindi
il sistema S deve essere possibile e determinato;
(iv) se r' ed r" sono sghembe, deve essere r' n r" = 0 ed? n r71 ={O}, e quindi
il sistema S deve essere impossibile (cio rango della matrice incompleta
diverso dal rango della matrice completa), mentre il sistema So deve avere
solo la soluzione ovvia.
D

Esempio 11.3. Nello spazio euclideo [ 3 , dotato di un fissato riferimento cartesiano R,


si considerino le rette

r:

X -

s' .

X
{

y-z=O

=3
=1

2y- 2z

-y = 1

s 11 :

s
.

X { X -

{X+ Z= 1
y=O

(iii) se r' ed r" sono orientate in modo che (l', m', n') ed (l" , m", n") siano terne
positive di coefficienti direttori, :;:;:;:;, il numero reale (compreso tra O e
7r) tale che
l'l" + m'm" + n'n"
J(l')2 + (m')2 + (n')2. J(l")2 + (m")2 + (n")2

cos(;:t:;i)

Dimostrazione. Basta specializzare, per n = 3, gli enunciati rispettivamente della


Prop. 9.8(a), della Prop. 9.9 e della Prop. 9.13.
D

Esempio 11.4. Le rette r, s', s" ed s"' considerate nell'Esempio 11.3 .hanno rispettivamente coefficienti direttori (1, 1, 1), (1, 1, 1), (1, O, -1) e (O, O, 1), come si ricava facilmente risolvendo i sistemi lineari omogenei associati alle rappresentazioni cartesiane delle
quattro rette. La Proposizione 11.2(i) consente di affermare che r ed s' sono parallele,
mentre la Proposizione 11 .2(ii) consente di affermare che r ed s" sono ortogonali . Infine,
la Proposizione 11.2(iii) consente di calcolare l'angolo tra le rette r ed s 111 , supponendo
che esse siano orientate in modo che le terne di coefficienti direttori considerate risultino
positive:

2y + Z

cos(r:?')

=1

s 111 :

203

l. I SOTTOSPAZI DELLO SPAZIO EUCLIDEO: PUNTI , RETTE E PIANI

ll. LO SPAZIO EUCLIDEO

{X -y = 0
y=O

La Proposizione 11.1 consente di affermare che r ed s coincidono, che r ed s' sono


parallele disgiunte, che r e s" sono incidenti in un punto e che r e s'" sono sghembe.

10+10+11

Ji 2 + 12 + 12 . Jo2 + 02 + 12

V3

Passiamo ora ad esaminare le rappresentazioni dei piani di [ 3 .


Per la Proposizione 9.4 (caso h = 2), ogni piano 7r di [ 3 univocamente determinato
da tre qualunque suoi punti, distinti e a due a due non allineati, A, B, CE 7r. Posto
A ~n (~A , YA, ZA), .B ~n (xB'.YB, ZB) e C =.n (x~c, zc), poich i vettori (non
nulh e lmearmente md1pendenti)
=g (xB - XA, YB - YA, ZB - zA) e
=g
(xc - XA,Yc - YA,zc - ZA) generano la giacitura del piano 7r, un punto generico
P = n (x, y, z) appartiene a 7r se e soltanto se
E L(AB,
ovvero se

AB

La seguente proposizione mette a confronto la condizione di parallelismo e la condizione di ortogonalit tra due rette di [ 3 , nel caso in cui siano note due loro terne
di coefficienti direttori; inoltre, ci fornisce la formula diretta per calcolare l'angolo
formato da due rette date.
3

Proposizione 11.2. Siano r' ed r" due rette di [


e siano rispettivamente
(l', m', n') ed (l", m", n") due loro terne di coefficienti direttori, relativamente ad un
fissato riferimento cartesiano R. Allora:

(i) r' ed r" sono parallele se e soltanto se esiste


(l',m',n')

(l",m",n")

(ii) r' ed r" sono ortogonali se e soltanto se


l'l"

+ m'm" + n'n" =O

R - {O} tale che

AC

lfP

AC),

(x- XA, y-yA, z -zA) E L((xB - XA, YB -yA, ZB - zA), (xc -xA, Yc -yA, zc - ZA)).
Da questa affermazione si ricavano entrambi i tipi di rappresentazione gi visti in
generale nel 4 del Capitolo 9:
il piano

7r

ha equazione cartesiana

det

X-XA
Y - YA
( Z - ZA

XB-XA
YB - YA
ZB - ZA

XC - XA)
Yc-YA
zc - zA

che, una volta sviluppata, risulta del tipo


ax + by + cz + d

= O,

con

(a, b, e)

'I

(O, O, O);

11. LO SPAZIO EUCLIDEO

204

il piano
X

7f

se

ha equazioni parametriche

= XA

y = YA
ZA
z

1. I SOTTOSPAZI DELLO SPAZIO EUCLIDEO: PUNTI, RETTE E PIANI

+ (xs - XA) . + (xc - XA) .


+ (ys - YA) . + (Yc - YA) .
+ (zs - ZA) . + (zc - ZA) .

7r

ha rappresentazione parametrica

(,ElR)
{

Xo

Yo

Z = Zo

XB - XA
YB - YA
( zs-ZA

(!

XC -XA)
YC -yA = 2.
zc-zA

y
{

=
=

Z =

Fissato un riferimento cartesiano R = (O,B) nello spazio euclideo &3 ,


i punti A =n (1, 2, 3), B =n (2, -1, O) e C =n (O, 2, 1) sono affinemente indipendenti,
in quanto i vettori liberi
= 13 (1, -3, -3) e
=13 (-1, O, -2) sono linearmente
indipendenti (essendo non proporzionali) . Per ottenere una rappresentazione cartesiana
del piano 7r passante per A, B e C basta considerare un generico punto P =n (x, y, z)
Esempio 11.5.

AB

AC

AP =13 (x -

di &3 ed imporre che


equivale ad imporre che
(!

Il piano

7f

( z-3

+ U1 + VI
+ u2 + v2
+ U3 + V3

allora a ha rappresentazione parametrica

in cui

x-1
y- 2

205

~3 ~ )

1, y - 2, z - 3) appartenga a if = L(AB,

-3

2,

owero

-2

AC).

Ci

-1

x-1
y-2

-3

z-3

-3

-2

o.

7f:

(!
7r

7r

11

7r

7r

11

Si noti che, nella rappresentazione parametrica del piano 7r, le d':e terne di coefficienti
dei parametri individuano le componenti, rispetto alla base B, di due vettori che
generano la giacitura if del piano, cos come la equazione omogenea associata alla
rappresentazione cartesiana di 7f costituisce una rappresentazione cartesiana, rispetto
a B, della medesima giacitura if (si veda il Teorema 9.6).
Da queste osservazioni deduciamo il modo per ottenere le equazioni del piano a
parallelo ad un piano 7f dato e passante per un fissato punto P =n (x, f), z):
se 7r ha rappresentazione cartesiana
ax

+ by + cz + d = O,

allora a ha rappresentazione cartesiana


a(x - x)

+ b(y -

y)

+ c(z -

z) =O;

+ U2 + V2
Z + U3 + V3

f}

7r

7r

11

a'
( a"

b'
b"

e'
e"

d')

d"

= 1

(! (::,

e'
e"

::,

d')

d"

sono incidenti in una retta se e soltanto se


(!

(iv)

~:,)

::,

JR).

3 - 3t - 2t'

sono paralleli disgiunti se e soltanto se

(! (::,

(t, t'

V1

Proposizione 11.3. Siano 7r 1 e 7r 11 due piani di &3 e siano rispettivamente a'x +


b' y + e' z + d' = O ed a" x + b" y + e" z + d" = O due loro equazioni cartesiane,
relativamente ad un fissato riferimento cartesiano R. Allora:
1
11
(i~ 7r e 7r coincidono se e soltanto se

~iii)

2 -3t

La proposizione seguente ci permette di studiare la mutua posizione di due piani di

~i)

+t -t'

U1

& 3 , a partire dalle loro equazioni cartesiane.

La sua rappresentazione parametrica sar invece


X=

Infatti, in entrambi i casi, le equazioni scritte individuano un piano a con la medesima giacitura di 7r (e quindi, per definizione, si ha a// 7r) e risultano verificate dalle
coordinate del punto P (e quindi, P E o"); il risultato segue pertanto dal Teorema 9.5.

sar quindi rappresentato, rispetto ad R, dalla equazione cartesiana

6x + 5y - 3z - 7 = O.

a'
( a"

b'
b"

e') (a'

e"

(!

a"

b'
b"

e'
e"

d')

d"

= 2

non sono mai sghembi, n incidenti in un punto.

Dimostrazione. L'intersezione (eventualmente vuota) tra i due piani 7r 1 e 7r 11 ovviamente rappresentata, relativamente al riferimento cartesiano R, dal sistema lineare

S:

a' x + b' y + e' z + d' = O


{ a"x + b"y + c"z + d" =O,

mentre l'intersezione tra le due giaciture ;i e 7f-;, rappresentata, relativamente alla


base B, dal sistema omogeneo associato So . La tesi segue allora facilmente, osservando
che:
(i) se 7r 1 e 7r 11 sono coincidenti, 7r 1 n7f" deve contenere tutti i punti di 7r 1 (ovvero
di 7r 11 ), e quindi il sistema S deve essere possibile con 00 2 soluzioni;
(ii) se 7r 1 e 7r 11 sono paralleli disgiunti, deve essere 7r 1 n 7r 11 = 0, mentre 7f-, n 7f-;,
deve contenere tutti i vettori di 7r-, (ovvero di 7r71 ), e quindi il sistema S deve
essere impossibile, mentre il sistema S 0 deve avere 00 2 soluzioni;

l. I SOTTOSPAZI DELLO SPAZIO EUCLIDEO: PUNTI, RETTE E PIANI

11. LO SPAZIO EUCLIDEO

206

(iii) se 7r 1 e 7r 11 sono incidenti in una retta r, deve essere 7r 1 n 7r 11 = r, quindi il


sistema S deve essere possibile con 00 1 soluzioni;
(iv) 7r 1 e 7r 11 non possono essere n sghembi n incidenti in un punto, perch tutti
i casi che si possono presentare nella discussione dei sistemi S ed So sono
gi stati esaminati ai punti precedenti.

(iv) r e 7r non sono mai sghembi.

o
.,. Osservazione 11.1. Si noti che, nel caso in cui i due piani 7r 1 e 7r 11 siano incidenti
in una retta, il sistema costituito dalle due equazioni cartesiane di 7r 1 e 7r 11 individua
1
11
esattamente una rappresentazione cartesiana della retta intersezione r = 7r n 7r
3
In realt, ogni rappresentazione cartesiana di una qualunque retta r di E permette
di interpretare la retta stessa come intersezione di due piani non paralleli che la
contengono.

Dimostrazione. L'intersezione (eventualmente vuota) tra la retta r ed il piano 7r


ovviamente rappresentata, relativamente al riferimento cartesiano R, dal sistema
lineare
ax + by + cz + d =O
S:
a' x + b' y + c' z + d' = O
{
a"x + b"y + c"z + d" =O,
mentr_: l'intersezione tra le due giaciture 72 e 7r/1 rappresentata, relativamente alla
base B, dal sistema omogeneo associato S 0 . La tesi segue allora facilmente, osservando
che:
(i) se r contenuta in 7r, r n 7r deve contenere tutti i punti di r, e quindi il
sistema S deve essere possibile con 00 1 soluzioni (si osservi che Q(A) 2: 2);
(ii) se r e 7r sono paralleli disgiunti, deve essere r n 7r = 0, mentre n if deve
contenere tutti i vettori di
e quindi il sistema S deve essere impossibile,
mentre il sistema So deve avere 00 1 soluzioni;
(iii) se r e 7r sono incidenti in un punto P, deve essere r n 7r = {P}, quindi il
sistema S deve essere possibile e determinato (ovvero, deve essere u:il sistema
di Cramer);
(iv) r e 7r non possono essere sghembi, perch tutti i casi che si possono presentare nella discussione dei sistemi S ed S 0 sono gi stati esaminati ai
punti precedenti.

r,

Esempio 11.6. Nello spazio euclideo E. 3 , dotato di un fissato riferimento cartesiano R,


si considerino i piani
7r1 :

+ 5y - 3z - 7 =O
12x + lOy - 6z - 3 =O

6x

7r2 :

12x + lOy - 6z - 14 =O

7r3 :
7r4 : 2x - 4y + z - 1 =O.
La Proposizione 11.3 consente di affermare che 7r 1 e 7r 2 coincidono, che
paralleli disgiunti, e che 7r 1 e 7r 4 sono incidenti in una retta.

7r 1

7r3

sono

Le rappresentazioni cartesiane permettono di studiare anche la mutua posizione di


una retta e di un pianci di E. 3 , come indicato nel seguente risultato.
Proposizione 11.4. Siano r e 7r una retta ed un piano di E. 3 e siano rispettivament_e

ax + by + cz + d = O
{ a' x + b' y + e' z + d' = O

a" x

+ b" y + e" z + d"

= O

due loro rappresentazioni cartesiane, relativamente ad un fissato riferimento cartesiano R . Allora, pO'sto
b c
b
e' d'
B
(
;
b'
b' c'
e
d"
b"
c"
a"
a" b" c"

A~ U' ')

si ha che:
(i) r appartiene a

7r

d)

se e soltanto se
Q(B) = 2;

(ii) r e

7r

sono paralleli e disgiunti se e soltanto se

Q(A) = 2

Q(B)

3;

(iii) r e 7r sono incidenti in un punto se e soltanto se

Q(A)

= Q(B) = 3;

207

Esempio 11. 7. Nello spazio euclideo E. 3 , d0tato di un fissato riferimento cartesiano R,


si considerino il piano
7r: x-y-l=O
e le rette s, s', s" considerate nell'Esempio 11.3. La Proposizione 11.4 consente d
affermare che s contenuta in 7r, che s' e 7r sono paralleli disgiunti, e che 7r e s" sono
incidenti in un punto.

Nello spazio euclideo, possibile introdurre, accanto alla nozione di angolo tra due
rette orientate (la cui ampiezza pu essere calcolata mediante la Prop. 11.2 (iii)),
anche la nozione di angolo tra due piani e la nozione di angolo tra una retta ed un
piano.
+ Definizione 11.1. Si dice piano orientato di E. 3 una coppia (7r, >.), dove 7r un
piano di E. 3 ed >. E ..Lif un vettore libero ortogonale a 7r.
Se (7r, >.) un piano
orientato, si dicono positivi tutti i vettori liberi E ..Lif concordi con >.; inoltre, si
dice positiva ogni equazione cartesiana ax + by + cz + d = O di 7r tale che il vettore
libero a = (a , b, e) sia positivo.
+Definizione 11.2. Dati ~iani orientati
tra 7r 1 e 7r 11 , e si denota con 7r 17r 11 , l'angolo</> E

>.')e (7r 11 , >.")di E. 3 , si dice angolo


[0,7r] tra>.' e>.".

(7r',

208

11. LO SPAZIO EUCLIDEO

Si ha dunque, per definizione,

(ii) r e 7r sono ortogonali se e soltanto se esiste p E JR. - {O} tale che


-1 -11)
cos( 7r
7r

(l,m,n) = p (a,b,c);

cos( I , Il ) .

(i.i-) se r orientata in modo che (l, m, n) sia una terna positiva di coefficienti

+ Definizione 11.3. Dati un piano orientato (7r, ) ed una retta orientata (r, I) di
3
[ , si dice angolo tra 7r ed r, e si denota con 7ir, il numero reale </> E [- ~, ~] avente
per seno il coseno dell'angolo tra e I :

sen (iir)

_
sen (nr) =

Proposizione 11.5. Nello spazio euclideo [ 3 , in cui fissato un riferimento


cartesiano R, siano 7r 1 e 7r 11 due piani aventi spettivamente equazioni cartesiane
a'x + b'y + c' z + d' =O e a"x + b"y + c"z + d" =O.
Allora:
7r

7r

11

(ii)

7r

7r

11

equazione

al+bm+cn

J a2 +

b2 + c2 . Jl2 + m2 + n2

Dimostrazione. (i) Per definizione, re 7r sono paralleli se e soltanto sere if; poich
v = (l, m, n) genera
ci equivale a richiedere v E if, che corrisponde esattamente
alla condizione a l + b m + c n = O.
(ii) La seconda affermazione un caso particolare della Proposizione 9.11.
(iii) L'ultima affermazione discende direttamente dalla Definizione 11.3, ricordando
che V= (l, m, n) un vettore positivo dir e che - in virt del Lemma 9.10 - il vettore
a= (a, b, c) un vettore positivo ortogonale a 7r .

r,

Esempio 11.8. Nello spazio euclideo [ 3 , dotato di un fissato riferimento cartesiano R,

sono ortogonali se e soltanto se


a' a"

+ b' b" + c' c" =

si considerino i piani

(iii) se 7r e 7r sono orientati in modo che a' x + b' y + c' z + d' = O e a" x + b" y +
c" z + d" = O siano equazioni positive, H' il numero reale </> E [O, 7r] tale
che
a' a" + b' b" + c' c"
cos(H')
J(a')2 + (b')2 + (c')2 . J(a")2 + (b")2 + (c'')2
1

= O sia una

sono paralleli se e soltanto se esiste p E JR. - {O} tale che

(a', b', c') = p (a", b", c") ;


1

direttori e 7r orientato in modo che ax + by + cz + d


positiva, r7r il numero reale</> E [ -~, ~] tale che

cos(, I)

Le seguenti proposizioni mettono a confronto le condizioni di parallelismo e di ortogonalit e forniscono la formula diretta per calcolare l'ampiezza dell'angolo compreso,
l'una nel caso di due piani, l'altra nel caso di una retta e di un piano.

(f)

209

1. I SOTTOSPAZI DELLO SPAZIO EUCLIDEO: PUNTI, RETTE E PIANI

O" : X -

2y +

11

3x + y -

11

Dimostrazione. (i) Basta ricordare, come gi osservato nel corso della dimostrazione
della Proposizione 11.3, che 7r 1 e 7r 11 sono paralleli se e soltanto se ;,n7f71 ha dimensione
a' b"
b' c" ha rango uno .
due, ovvero se e soltanto se la matrice a"

c')

(
(ii) La seconda affermazione un caso particolare della Proposizione 9.12.
(iii) L'ultima affermazione discende direttamente dalla Definizione 11.2, ricordando
che - in virt del Lemma 9.10 - i vettori a' = (a', b', c') e a" = (a", b", c") sono vettori
positivi ortogonali rispettivamente a 7r 1 e 7r11

0"

Z -

1=0
Z -

0"

4=0

1
:

0"

X 111

2y +

: X

+ 5=0

+y-

1= 0

111

e le rette s', s" ed s considerate nell'Esempio 11 .3. La Proposizione 11.5 consente di


affermare che O" e 0" 1 sono paralleli, che O" e 0" 11 sono ortogonali, e che (supponendo che
i piani siano orientati in modo che le equazini scritte risultino positive) l'angolo tra O" e
111
0"
tale che
-1
1
11-21+10
1

cos(a:? )

2y'3

Jl2 + (-2)2 + 12. Jl2 + 12 + 02

Analogamente, la Proposizione 11.6 consente di affermare che O" ed s' sono paralleli, che
ed s" sono ortogonali, e che (supponendo anche che la retta s 111 sia orientata in modo
che la terna di coefficienti direttori {O, O, 1) risulti positiva) l'angolo tra O" ed s"' tale
che

O"

10-20+11
sen(O"s"') = J12+(-2)2+12.Jo2+02+12 =

J6.JI

J6

o
Proposizione 11.6. Nella spazio euclideo [ 3 , in cui fissato un riferimento
cartesiano R, siano r una retta avente coefficienti direttori (l, m, n) e 7r un piano
avente equazione cartesiana ax +by+ cz + d =O.
Allora:

(i} r e 7r sono paralleli se e soltanto se


al+b m+cn

O
'

+ Definizione 11.4. Data una retta r di [ 3 , si dice fascio (proprio) di piani di asse
r l'insieme costituito da tutti e soli i piani di [ 3 che contengono
Definizione 11.5. Dato un sottospazio vettoriale bidimensionale U di t3, si dice
fascio (improprio) di piani paralleli di giacitura U l'insieme costituito da tutti e soli
L piani di [ 3 aventi U come giacitura.

11. LO SPAZIO EUCLIDEO

210

Il seguente risultato ci fornisce le equazioni di tutti i piani appartenenti ad un fissato


fascio proprio (risp. improprio), a partire dalla rappresentazione cartesiana di due
elementi (risp. un elemento) del fascio stesso.

l'equazione del fascio di piani di asse la retta r :

>.(3x - y + z - 1) + (x - z) =O.
Il fascio di piani paralleli al piano di equazione

Proposizione 11. 7.
{i?) Siano 7r 1 e 7r 11 due piani non paralleli di [ 3 e siano rispettivamente
a' x + b' y + c' z + d' = O ed a" x + b" y + c" z + d" = O due loro equazioni
cartesiane, relativamente ad un fissato riferimento cartesiano R . Allora,
detta r la retta intersezione di 7r 1 e 7r 11 , la equazione
>.(a'x + b'y +

c' z + d') + (a"x + b"y + c" z+ d") =O

rappresenta, al variare dei parametri reali (>., ) =/= (O, O), tutti e soli i piani
del fascio (proprio? di asse r.
(i1) Sia 7r un piano di [ 3 e sia ax+by+cz+d =O una sua equazione cartesiana,
relativamente ad un fissato riferimento cartesiano R . Allora, la equazione
ax.+ by+ cz

+ k =O

rappresenta, al variare del parametro k E JR, tutti e soli i piani del fascio
(improprio) di giacitura if (cio tutti i piani paralleli a 7r).
Dimostrazione. (i) Poich r = 7r 1 n 7r 11 , le coordinate di un qualunque punto P E r
verificano entrambe le equazioni a' x + b' y + c' z + d' = Oed a" x + b" y + c" z + d" = O,
e quindi verificano anche ogni equazione ottenuta da quelle tramite combinazione
lineare. Ci prova che tutti i piani di equazione
>.(a'x + b'y + c'z

2li

2. DISTANZE

+ d') + (a"x + b"y + c"z + d") =O,

al variare dei parametri reali (>., ) =/= (O, O), appartengono al fascio di asse r.
1
11
Viceversa, se (j un piano del fascio di asse r, allora (j n (7r' n 7r 11 ) = r = 7r n 7r ;
pertanto, l'equazione cartesiana ax+by+cz+d =O di (j, relativamente al riferimento
11
1
R, deve essere combinazione lineare delle due equazioni cartesiane di 7r e 7r Ci
equivale ad affermare che deve esistere una coppia (>., ) E JR - {(O, O)}, tale che

+ d = >.(a'x + b'y + c'z + d') + (a"x + b"y + c"z + d").


(ii) E' sufficiente osservare che ogni piano di equazione ax +by+ cz + k = O, con

3x -y + z - l =O
ha invece equazione

3x - y

+z +k

= O.

+Definizione 11.6. Dato un punto C E f 3 , si dice stella (propria) di piani di centro


e (risp. stella (propria) di rette di centro e ) l'insieme costituito da tutti e soli i piani
(risp. le rette) di f

che contengono C.

+ Definizione 11. 7.

Dato un vettore non nullo v E f3, si dice stella (impropria)


di piani di direzione v (risp. stella (impropria) di rette di direzione v) l'insieme
costituito da tutti e soli i piani (risp. le rette) di [ 3 che sono paralleli alla direzione
individuata dal vettore v.

2. Distanze

Nello spazio euclideo f 3 , in cui si suppone di avere fissato un riferimento cartesiano


R = (O, B), la nozione di distanza tra due punti ed il relativo metodo di calcolo si
specializza nella forma seguente.
Proposizione 11.8. Se P =n (xp, yp, Zp) e Q =n (xQ, YQ, ZQ), allora:
I

Dimostrazione. Basta utilizzare la Proposizione 9.14.

ax +by+ cz

k E JR, parallelo a 7r, e che ogni piano parallelo a 7r ha (per la Proposizione 11.3)
equazione (>.a)x + (>.b)y + (>.c)z +e= O, con E JR - {O} ed e E JR, ovvero
e
ax +by+ cz + k = O, con k = );" E JR.

Poich i piani sono gli iperpiani di f 3 , il calcolo della distanza tra un punto ed un
piano si effettua utilizzando, nel caso n = 3, la Proposizione 9.15.
Proposizione 11.9. Sia 7r il piano di [ 3 di equazione cartesiana, rispetto ad R,
ax +by+ cz + d =O e sia P =n (x, fj, .z). Allora:

d(P, 7r) =

lax + bfi + c.z +di


../a2+b2+c2

Esempio 11.9. Data nello spazio euclideo [

3 la retta

3x - y + z - 1 = O
{ x-z=O

r di equazioni

212

11. LO SPAZIO EUCLIDEO

Esempio 11.10. Nello spazio euclideo E3 , dotato di un fissato riferimento cartesiano


R, la distanza del punto P =n (1, 2, 3) dal piano 7r : 3x + 2y - z + 3 = O, si calcola
di rettamente tramite la formula fornita dalla Proposizione 11.9:
d(P

7r)

I seguenti risultati forniscono i metodi operativi per il calcolo della distanza tra due
piani, tra una retta ed un piano e tra due rette di E3 , in funzione della loro reciproca
posizione.
Propos izione 11.11. Siano 7r 1 e 7r 11 du e piani di E3 .

= '--13_--::1=+=2==2=-=1==3+=-'31

Se 7r 1 e 7r 11 sono incidenti (in particolare, coincidenti), la loro distanza


uguale a zero;
Se 7r 1 e 7r 11 sono paralleli, la loro distanza uguaglia la distanza tra 7r 11 ed un
punto qualsiasi di 7r 1 : 1

V1A

J32+22 +(-1)2

213

2. DISTANZE

Il calcolo della distanza tra un punto ed una retta si effettua invece utilizzando la
proiezione ortogonale del punto sulla retta, come indicato nel 7 del Capitolo 9 (caso
n = 3 ed h = 1) .
Proposizione 11.10. Sia r una retta di E3 avente coefficienti direttori (l, m, n) e
sia P =n (x, y, z). Allora:
d(P, r ) = d(P, P ')
dove il punto P' (proiezione ortogonale di P su r') si ottiene intersecando r con il
piano ortogonale ad r passante per P, che ha equazione cartesiana
l(x - x)

+ m(y -

y)

+ n(z -

Dimostrazione. Occorre verificare che d(P, P')


-;:::-:-t
Px

----+
= PP'

z) = O.
min{ d(P, X)

Dimostrazione. La prima parte dell'enunciato banalmente vera, poich, se esiste un


punto p E 7r 1 n 7r 11 , si ha d(7r 1 , 7r 11 ) = d(P , P) =o.
Nel caso in cui 7r 1 e 7r 11 siano paralleli, occorre verificare che la distanza d( Q, 7r 11 )
indipendent e dalla scelta del punto Q E 7r 1 In virt della Proposizione 11.5 possibile
supporre che i due piani abbiano - rispetto ad un fissato riferimento cartesiano R di
[ 3 - equazioni 7r 1 : ax + by + cz + d' = O, 7r 11 : ax + by + cz + d" = O. Allora, posto
Q =n (x, y, z), e ricordato che Q E 7r 1 , per la Proposizione 11.9 si ottiene:

d( Q, 7r")
X E r }. Poich,

--+ con PP
----+, 1- P'X , i1 l"T'.leorema d"i pitagora
+ P'X,
----+
---+
----+

Per ogni X E r ) si ha
(Propositione 8.2) implica llPXll 2 = llPP'll2 + llP' Xll2;::: llPP'll2; ci assicura appunto che d(P, P') :::; d(P, X), per ogni X E r.
D

Proposizione 11.12. Siano r e

ovvero

2x - y - 1 =O.

La proiezione ortogonale A' di A su r ha coordinate che verificano il sistema


X

+ 2y - 2z - 20

=0

z +6 = O
{

da cui

A'

= (2, 3, -6)

2x -y- 1 = O

Per la Proposizione 11.10 si ha quindi che:


d(A, r) = d(A, A') = .j(2 - 1) 2 + (3 - 1) 2 + (-6 + 4) 2
.

7r

una .retta ed un piano di E3 .

d(r, 7r) = d(P, 7r)

2(x - 1) - l(y - 1) + O(z + 4) =O,

V9

= 3.

yf a2 + b2 + c2'

Se r contenuta in 7r, o se r e 7r sono incidenti in un p1,m to, la loro distanza


uguale a zero;
Se r e 7r sono paralleli, la loro distanza uguaglia la distanza tra 7r ed un
punto qualsiasi di r :2

{x+ 2y - 2z - 20 =O

occorre determinare il piano 7r ortogonale ad r e contenente A; poich (2, -1, O) una


terna di coefficienti direttori di r, 7r ha equazione:

+ d"I

z + 6 =0

7r :

yfa2 + b2 + c2

I - d'

che prova la tesi.

Esempio 11.11. Per calcolare la distanza del punto A= (1, 1, -4) dalla retta
r:

lax +by+ ci+ d"I

VP E r

Dimostrazione. La prima parte dell'enunciato banalmente vera, poich - sia nel caso
in cui r contenuta in 7r che nel caso in cui r e 7r sono incidenti - esiste un punto
P E r n 7r, e quindi d(r, 7r) = d(P, P) = O.
Nel caso in cui re 7r siano paralleli, occorre verificare che la distanza d(P, 7r) indipendente dalla scelta del punto P E r. Se il piano 7r ha - rispetto ad un fissato riferimento
cartesiano R di E3 - equazione 7r : ax +by+ cz + d = O, allora la retta r ha coefficienti
direttori (l , m, n) tali che al+ bm + cn =O (si ricordi la Proposizione 11.6); inoltre,
posto P =n (x, y, z), per ogni altro punto X E r si ha X =n (x + pl , y+ pm, z + pn)),
1 evidente che i ruoli di rr' e rr" possono essere scambiati.
2

Si osservi che,_in questo caso - a differenza d elle Proposizioni 11.11 e 11.13 - i ruoli di re rr
non possono essere scambiati.

11. LO SPAZIO EUCLIDEO

214

con p E JR. Per la Proposizione 11.9 si ottiene allora che:

+ pl) + b(Y + pm) + c(z + pn) +di


,,/a2+b2+c2
+by+ cz + d + p (al+ bm + cn)I
,,/a2+b2+c2

d(X, 7r) = la(x


lax

+ by + cz + di
=
va2+b2+c2

lax

d(P, 7r),

che prova la tesi.


D

Proposizione 11.13. Siano r' ed r" due rette di E 3 .


Se r' ed r" sono incidenti (in particolare, coincidenti), la loro distanza
uguale a zero;
Se r' ed r" sono parallele, la loro distanza uguaglia la distanza tra r" ed un
punto qualsiasi di r' :3
d(r',r")

d(Q,r")

't:/Q E r'

Se r' ed r" sono sghembe, la loro distanza uguaglia la distanza tra r' ed il
piano 1f 11 parallelo ad r' e contenente r" :4
d(r',r") = d(r 1 ,7r11 ) = d(Q,7r")

't:/Q E r'

Dimostrazione. La prima parte dell'enunciato banalmente vera.


La seconda parte dell'enunciato una conseguenza diretta della Proposizione 10.7,
perch due rette parallele sono sempre complanari.
Dimostriamo infine che, nel caso in cui r' ed r" sono sghembe, allora d( r', r") =
d(Q, 7r11 ), 't:/Q E r' (si veda la Figura 11.2).

2. DISTANZE

215

Poich r" e 1f 11 , si ha ovviamente d(r', r") ;::: d(r', 7r 11 ); d'altra parte, essendo 7r 11
parallelo ad r', la Proposizione 11.12 implica d(r',7r") = d(Q,Q'), 't:/Q E r' (dove
Q' denota la proiezione ortogonale di Q su 1f 11 ). Ora, fissato Q E r', sia rQ, la retta
parallela ad r' e passante per Q' (proiezione ortogonale di Q su 7r 11 ). Poich rQ, ed r"
sono ovviamente non parallele (essendo sghembe r' ed r") e sono entrambe contenute
in 1f 11 , esiste R E rQ, n r". Essendo rQ, ed r' due ~ette parallele, la seconda parte .
dell'enunciato assicura che d(Q, Q') = d(R, R') (= d(rQ,, r')), dove R' la proiezione
ortogonale di R su r'. A questo punto, avendo trovato R E r" ed R' E r' tali che
d(R,R') = d(Q,Q') = d(r',7r"), resta dimostrato che d(r',r") = d(r',7r"), da cui
segue la tesi.
D

Nel caso di due rette sghembe r' ed r" di E3 , il seguente risultato permette di ricavare,
oltre alla distanza d( r', r"), nche i punti H E r' e K E r" che realizzano tale distanza.
Proposizione 11.14. Siano r' ed r" due rette sghembe di E 3 . Allora, esiste una
ed una sola retta t ortogonale ed incidente sia ad r' che a r"; inoltre, posto H = r' n t
e K = r" n t, si ha che
d(r',r") = d(H,K)
Dimostrazione. (cenno) Se I' E i' ed I" E f"' sono due vettori (non nulli) che generano
le giaciture delle rette, la ipotesi che r' ed r" siano sghembe implica dim(L(I', I")) = 2,
e quindi dim(-1L(I',I")) = 1 (per il Teorema 8.11). Scelto un vettore non nullo
m E _L L(I', I"), la retta t si ottiene come intersezione tra il piano 7r 1 , appartenente
al fascio di piani di asse r' e parallelo ad m, ed il piano 1f11 , appartenente al fascio di
piani di asse r" e parallelo ad m.
D

Esempio 11.12. Nello spazio euclideo E3 , le rette

r:

Q'

7t"

Figura 11.2
3 evidente che i ruoli di r' e r" possono essere scambiati.
4
evidente che anche in questo caso i ruoli di r' e r 11 possono essere scambiati.

y-

3=0
y - 2z = 0

X {

s:

{y -

+1= 0

X -

= 0

sono sghembe (come si pu facilmente verificare, utilizzando la Proposizione 11.1).


Per calcolare la distanza tra r ed s tramite la Proposizione 11 .13, determiniamo il piano
7r parallelo ad r e contenente s. Poich esso appartiene al fascio di piani di asse s, avr
equazione del tipo
>.(y - z + 1) + (x - z) =O;
inoltre, essendo parallelo ad r (che ha coefficienti direttori (2, 2, 1), dovr essere verificata
la condizione
>.(2 - 1) + (2 - 1) =O, owero >.+=O.
Il piano 7r ha quindi equazione cartesiana x-y-1 = O. Scelto il punto P =n (5, 2, 1) E r,
la distanza tra r ed s risulta:

d(r, s) = d(r, 7r) = d(P, 7r) =

15Vl+T
- 2 - 11 --

vln2.
,t,

216

11. LO SPAZIO EUCLIDEO

Per calcolare invece la distanza tra r ed s tramite la Proposizione 11.14, determiniamo le


componenti di un vettore non nullo v =fj (l , m, n) ortogonale sia ad r che ad s; poich
r ed s hanno rispettivamente coefficienti direttori (2, 2, 1) e (1, 1, 1), deve essere

2l + 2m+n = O
{ l+m+n=O

owero (l , m, n)

= p (1, -1, O).

2. DISTANZE

217

V(< A,B,C,D >) =

det

X+ y - 4z - 3 = 0,

det

mentre l'equazione del piano (3 contenente s e parallelo al vettore v

+y -

2z + 1 = 0.

La retta t = a n (3 (ortogonale ed incidente sia ad r che ad s), interseca r nel punto


P =n (-1 , 4, -2) ed s nel punto Q =s (-2, -3, -2); pertanto, si ha che:
d(r,s)

d(P,Q)

:! =~ x~)

(=~
ZA

L'equazione del piano a contenente r e parallelo al vettore v

e =n (xc,yc,zc ),

Proposizione 11.15. Se A =n (xA ,YA,ZA ), B =n (xs ,ys,zs ),


D =n (xD , YD, zD), allora:

ZB

ZC

(~:ZB -ZA
=~~

Dimostrazione. un caso particolre (per h

= 3)

YD
ZD

Xc - XA
Yc-YA
zc - zA

XD - XA)
YD -yA
ZD-ZA

della Proposizione 9.16.

= J(-1+2) 2 +(-4+3) 2 +(-2+2) 2 = v'2.


Esempio 11.13. Siano A =n (1, 1, -4), B =n (O, 4, -6) , C =n (4, 2, -6), D =n
(1, 3, -4) quattro punti di & 3 (dove R = (O, B) un fissato riferimento cartesiano) .
Poich
=fj (-1, 3, 2),
=fj (3, 1, -2),
= fj (O, 2, O) e

AB

AC

AD

In dimensione tre, la nozione di volume di un h-simplesso - vista in generale nel 8


del Capitolo 9 - si specializza nelle seguenti nozioni di area di un triangolo e di volume
di un tetraedro. 5

+ Definizione

11.8. Dati tre punti non allineati A, B, C di &3 , si dice area del
triangolo di vertici A, B , C il numero reale positivo

V( < A, B,

e > ) = AAsc

2.

det

>)

(<AB, AB> < AB,11C


< AB,11C > <AC,AC>

-1
3
-2

3
1
-2

i- o,

i quattro punti sono affinemente indipendenti.


Il volume del tetraedro a 3 =< A, B, C, D > , per definizione:
( 3
1
Va)=
-
6

det

~) ~ ~6 . v'64 ~ ~.3

('4

14
2 4

Per la Proposizione 11.15, si ha anche:

+ Definizione 11.9.

Dati quattro punti non complanari e a tre a tre non allineati


A, B, C e D di &3 , si dice volume del tetraedro di vertici A, B, C e D il numero reale
positivo

V(< A,B,C,D >)

det

< AB,AB >


< AB,11C >
(
< AB,m >

>)

< AB,.AD
<AC,AD>
<AD,AD>

e jJ
1

1
Va)= -
6 det
( 3

1
6

det

-4

4
-6

3
-2

3
1
-2

1
4
2
-6

e ~)

1
6

I -16/

8
3

L'area del triangolo a 2 = < A, B , C > per definizione:


5Si noti che le Definizioni 11.8 e 11.9 presuppongono che i determinanti delle matrici presenti
sotto il segno di radice quadrata siano sicuramente positivi, come assicurato dalla Proposizione 8.13
relativa alle propriet delle matrici di Gram; in alternativa, la dimostrazione di questo fatto pu
essere agevolmente dedotta dalla dimostrazione della Proposizione 9.16, nei casi h = 2 ed h = 3
rispettivamente.

V(a

2
)

AABC

= ~ v'18o = 3Vs.

Si noti che, in alternativa, l'area del triangolo a 2 pu anche essere calcolata tramite la
classica formula
AABC

= 2 d(A, r)

d(B, C),

11 . LO SPAZIO EUCLIDEO

218

dove r denota la retta contenente B e C; poich r ha equazione cartesiana

r:

{X+ 2y -

=Q

z +6=0
si ha d(A, r)

=3

CAPITOLO 12

(si veda l'Esempio 11.12), e quindi risulta :


ABC

~ 3 d(B,C)

~ 3 2Vs =

3Vs.

Elementi di teoria delle coniche e delle quadriche


1. Ampliamento proiettivo di uno spazio euclideo
Nel presente paragrafo, En indicher uno spazio euclideo di dimensione finita n > O,
su cui fissato un riferimento cartesiano R = (O, B).
+ Definizione 12.1. Si dice ampliamento proiettivo (o completamento proiettivo)
dello spazio euclideo En l'insieme

pn =

EnuE~-1,

dove E~- , detto iperpiano improprio di En, l'insieme delle direzioni delle rette
di En (ovvero, i sottospazi vettoriali di dimensione uno della giacitura E-;,,).
Gli elementi di En (ovvero, i punti dello spazio euclideo originario) si dicono punti propri dell'ampliamento proiettivo, mentre gli elementi di E~-l si dicono punti impropri
dell 'ampliamento proiettivo.
Per abuso di linguaggio, quando risulter chiaro che lo spazio euclideo En stato
completato con l'aggiunta del suo iperpianq improprio, si parler pi semplicemente
di punti propri e punti impropri di En .
..,. Osservazione 12.1. Si noti che, per definizione di iperpiano improprio, ad ogni
retta di En risulta associato un punto improprio di En, e che rette parallele individuano
lo stesso punto improprio. Inoltre, poich ogni vettore libero non nullo genera un
sottospazio vettoriale di dimensione uno di E-;,, , si pu dire che ogni vettore libero non
nullo v individua un punto improprio di En, che corrisponde alla giacitura di tutte le
rette parallele a v (ovvero, tutte le rette r di E2 tali che v ET).
+Definizione 12.2. Dato un punto proprio P =n (y1, y 2 , ... , yn), si dice (n+ 1)-pla
di coordinate omogenee di P rispetto ad R ogni (n + 1)-pla (x 0 , x 1 , . . . , Xn) tale che:
X1

X2

Xn

- = y ' - = y , .. . , - = y

xo

xo

xo

Dato un punto improprio P00 individuato dalla direzione del vettore v E E-;,, - {O},
COn V =B (l 1, [ 2 , ... , zn), Si dice (n + 1)-pla di coordinate omogenee di p 00 rispetto ad
R ogni (n + 1)-pla (xo,x1, ... ,xn) tale che:
x 0 =O ed esiste p E R - {O}, per cui (xi, .. . , xn) = p

Sia per i punti propri che per i punti impropri di En, scriveremo
P =n [xo, X1,

.. . , Xn]

(l1, ... , ln).

220

12. ELEMENTI DI TEORIA DELLE CONICHE E DELLE QUADRICHE

per indicare che la (n+l)-pla (x 0 , x 1 , ... , Xn) una (n+l)-pla di coordinate omogenee
del punto P.
..,. Osservazione 12.2. Si noti che, per la Definizione 12.2, la (n + 1)-pla di coordinate omogenee di un punto (proprio o improprio) di [n individuata a meno di
un coefficiente di proporzionalit non nullo, e che nessun punto di pn = [n U &-:;.,,- 1
ammette la (n + 1)-pla nulla quale (n + 1)-pla di coordinate omogenee.

1. AMPLIAMENTO PROIETTIVO DI UNO SPAZIO EUCLIDEO

alla rappresentazione cartesiana delle rette nel completamento proiettivo del piano
euclideo.
Proposizione 12.1. Data una retta (propria) r di [ 2 avente, rispetto al riferimento
cartesiano R = (O, B), equazione cartesiana ax +by+ c = O, con (a, b) =f. (O, O), si
ha che:
nel completamento proiettivo di & 2 , la retta r rappresentata - in coordinate
omogenee rispetto ad R - dalla equazione omogenea

..,. Osservazione 12.3. Date due (n+l)-ple non nulle (xo, x 1 , ... , xn), (x~, x~, ... , x~)
di numeri reali, poniamo
(xo, xi, ... , Xn)"' (x~, x~, ... , x~) {::}

3.X

E JR - {O}, (x~, ... , x~)

>. (xo,. .. , Xn)

La relazione
una relazione di equivalenza sull'insieme JRn+l - {(O, . . . , O)},
come facile verificare (si veda il 4 del Capitolo 1).
L'insieme quoziente
(JRn+l - {(0, ... ,0)})/ "',usualmente indicato con JR!Pin, detto spazio proiettivo
reale standard n-dimensionale. Un punto di IRIP'n dunque una classe [xo, xi, ... , xn] 1
di proporzionalit di (n + 1)-ple non nulle di numeri reali.
Ogni fissato riferimento cartesiano R di [n induce quindi una biiezione c/>n : pn =
[n U &-:;.,,- 1 ---+ IRIP'n, che ad ogni punto P di pn associa la classe [xo, x1, ... , Xn] delle
(n + 1)-ple (tra loro proporzionali) delle coordinate omogenee di P rispetto ad R.
Infatti, presa una qualunque (n + 1)-pla non nulla (x 0 , x 1 , ... , Xn) di numeri reali, a
meno di proporzionalit, essa individua uno ed un solo punto P di pn = [n U &-:;.,,- 1
che ammette (x 0 , x 1 , ... , xn) come sua (n+l)-pla di coordinate omogenee rispetto al
riferimento cartesiano R:
se xo =/.O, allora P il punto proprio di coordinate cartesiane

(xi, x
2

Xn) ;
x 0 xo
x0
se x 0 =O, allora P il punto improprio individuato dalla direzione del vettore
di componenti (xi, ... , Xn)
~
, ... ,

..,. Osservazione 12.4. Si noti che i sottospazi euCiidei paralleli di [n risultano


incidenti nel completamento proiettivo dello spazio euclideo [n, : infatti, se [h ed [k
sono sottospazi paralleli, con h ::; k, allora - per definizione - l'insieme &:;,,- 1 dei punti
impropri di [h contenuto nell'insieme &~- 1 dei punti impropri di [k.
Fissiamo ora l'attenzione sui casi n = 2 ed n = 3.
Caso n = 2. Sia [ 2 un piano euclideo, su cui fissato un riferimento cartesiano
R =(O, B), e sia P 2 = [ 2 U r 00 il suo completamento proiettivo, dove r 00 - la retta
impropria di [ 2 - indica l'insieme delle direzioni delle rette di [ 2 (ovvero, i sottospazi
vettoriali di dimensione uno di [2).
Denotata usualmente con (x, y) la coppia delle coordinate cartesiane dei punti (propri). di [ 2 rispetto ad R, indichiamo con [xo, xi, x2] la terna (a meno di proporzionalit) delle coordinate omogenee dei punti (propri ed impropri) di [ 2 rispetto
ad R. Ricordando il fatto che un punto P =-n [xo, xi, x 2 ] improprio se e soltanto se x 0 = O, immediato verificare la validit della seguente proposizione, relativa
1Scriviamo [xo, xi, . .. , xnJ, anzich [(xo, xi, . . . , xn)J, per indicare la classe rappresenta ta dalla
(n + 1)-pla (xo, xi, . .. , xn), rispetto alla relazione~.

221

ax1

+ bx2 + cxo = O;

l'unico punto improprio dir P 00 =-n [O, b, -a].


Viceversa, data una equazione lineare omogenea
ax1

+ bx2 + cxo =O,

con (a, b)

=f. (O, O),

l'insieme delle soluzioni diverse dalla ovvia fornisce le coordinate omogenee, rispetto
ad R, dei punti (propri e impropri) di una retta (propria) r di [ 2 .
Inoltre, l'equazione xo = O rappresenta - in coordinate omogenee rispetto ad R - la
retta impropria di [ 2 .

o
Con le medesime notazioni, si prova facilmente anche come ottenere una rappresentazione cartesiana o parametrica di una retta nel completamento proiettivo del piano
euclideo, a partire da due qualunque suoi punti distinti.
Proposizione 12.2. Dati due punti distinti (propri o impropri} P e Q di [ 2
aventi, rispetto ad un riferimento cartesiano R = (O, r3), coordinate omogenee P =-n
2
[yo, Y1, Y2 ] e Q =-n [zo, zi, z2], la retta r di,[ passante per P e Q rappresentata:
(a) dalla equazione cartesiana (omogenea)
Xo
XI

Yo
YI

Z1

zo

X2

Y2

Z2

=0;

(b) dalle equazioni parametriche

{"
XI

X2

Yo + zo
+ z1
.Xy2 + z2
y1

(>.,)E IR 2

{(0,0)}.
o

Si noti che la retta r di cui alla Proposizione precedente la retta impropria se e solo
se P e Q sono entrambi punti impropri di [ 2 .
..,. Osservazione 12.5. Le nozioni esposte in questo paragrafo chiariscono il significato
del termine fascio improprio di rette di & 2 , usato per indicare l'insieme delle rette
parallele alla direzione individuata da un fissato vettore v: esso costituito da tutte
e sole le rette di & 2 che contengono il punto improprio individuato dal vettore v, cos
come il fascio proprio di rette di centro C E [ 2 denota l'insieme di tutte e sole le rette
di &2 contenenti il punto (proprio) C.

222

1. AMPLIAMENTO PROIETTIVO DI UNO SPAZIO EUCLIDEO

12. ELEMENTI DI TEORIA DELLE CONICHE E DELLE QUADRICHE

l'insieme delle soluzioni diverse dalla ovvia fornisce le coordinate omogenee, rispetto
ad R, dei punti {propri e impropri) della retta (propria) r di E3 di equazione(**).
Inoltre, il sistema lineare omogeneo

Caso n = 3.
Sia E3 uno spazio euclideo di dimensione tre, su cui fissato un riferimento cartesiano
R = (O, B), e sia P 3 = E3 U 7r 00 il suo completamento proiettivo, dove 7r00 - il piano
improprio di E3 - indica l'insieme delle direzioni delle rette di E3 (ovvero, i sottospazi
vettoriali di dimensione uno di EJ).
Denotata usualmente con ( x, y, z) la terna delle coordinate cartesiane dei punti (propri) di E3 rispetto ad R, indichiamo con [x 0 , x 1 , x 2, x 3 J la quaterna (a meno di proporzionalit) delle coordinate omogenee dei punti (propri ed impropri) di E3 rispetto
ad R. Ricordando il fatto che un punto P =n [xo, xi, x2, x3] improprio se e soltanto
se xo = O, immediato verificare la validit delle due proposizioni seguenti, relative
alla rappresentazione cartesiana dei piani e delle rette nel completamento proiettivo
dello spazio euclideo.

ax1 + bx2
{ xo =o

Proposizione 12.5. Dati tre punti non allineati (propri o impropri) P, Q ed R


di E3 aventi, rispetto ad un riferimento cartesiano R = (O, B), coordinate omogenee
P =n [yo,y1,y2,y3], Q =n [zo,z1,z2,z3] ed R =n [to,ti,t2,t3], il piano 7r di E3
passante per P, Q ed R rappresentato:

(a) dalla equazione cartesiana (omogenea)

con (a, b, c) =/:- (O, O, O),


Xo
X1
X2
X3

l'insieme delle soluzioni diverse dalla ovvia fornisce le coordinate omogenee, rispetto ad R, dei punti (propri e impropri) del piano (proprio) 7r di E3 , di equazione
cartesiana (*).
Inoltre, x 0 = O rappresenta - in coordinate omogenee rispetto ad R - il piano improprio
di E3 .

Proposizione 12.4. Data una retta (propria) r di E 3 avente, rispetto al riferimento


cartesiano R = (O, B), rappresentazione cartesiana

(**)

+ by + cz + d =O
{ a' x + b' y + c' z + d' = O
ax

con

b
b'

~)

+ cx3 + dxo = O
+ c'x3 + d'xo =O

l'unico punto improprio di r P 00 =n [O, l, m, n], con (l, m, n) terna di


coefficienti direttori della retta r.

~)

Z3

t3

ti =O;
t2

+ zo + vt0
Y1 + z1 + vt1
y2 + z2 + vt2
y3 + z3 + vt3
yo

(>.,,v) E IR 3

{(0,0,0)} .

Proposizione 12.6. Dati due punti distinti (propri o impropri) P e Q di E3


aventi, rispetto ad un riferimento cartesiano R = (O, B), coordinate omogenee P =n
3
[yo, Y1, y2, y3] e Q =n [z o, z1, z2, z3], la retta r di E passante per P e Q rappresentata:

(a) dalle equazioni cartesiane {omogenee) ottenute imponendo


XO

X1

b
b'

to

(b) dalle equazioni parametriche

Viceversa, data un sistema lineare omogeneo

+ bx2 + cx3 + dxo =O


{ a'x1 + b'x2 + c'x3 + d'xo =O

Zo
Z1
Z2

Si noti che il piano 7r di cui alla Proposizione precedente il piano improprio se e solo
se P, Q ed R sono tre punti impropri di E3 .

nel completamento proiettivo di E3, la retta r rappresentata - in coordinate


omogenee rispetto ad R - dal sistema lineare omogeneo

ax1

Yo
Y1
Y2
Y3

= 2,

si ha che:

ax1 + bx2
{ a'x1 + b'x2

1T

Con le medesime notazioni, si prova facilmente anche come ottenere una rappresentazione cartesiana o parametrica di una retta (risp. di un piano) nel completamento
proiettivo dello spazio euclideo tridimensionale, a partire da due (risp. tre) qualunque
suoi punti distinti (risp. non allineati).

+ bx2 + cx3 + dxo = O.

+ bx2 + cx3 + dxo =O,

con (a,b,c) =/:- (0,0,0),

Viceversa, data una equazione lineare omogenea


ax1

+ cx3 = O

rappresenta - in coordinate omogenee rispetto ad R - la retta impropria del piano


di E3 di equazione ax + by + cz + d = O (o di ogni piano ad esso parallelo).

Proposizione 12.3. Sia 7r un piano (proprio) di E 3 avente, rispetto al riferimento


cartesiano R =(O, B), equazione cartesiana(*) ax +by+ cz + d =O, con (a, b, c) =/:(O, O, O) . Nel completamento proiettivo di E3 il piano 7r rappresentato - in coordinate
omogenee rispetto ad R - dalla equazione omogenea
ax1

223

{!

= 2,

X~

Yo
Y1
Y2
Y3

:~) =
z2

Z3

2;

224

12.

+ Definizione

12.4. Data una conica C di &2 di equazione (*), si dice supporto


proprio (o immagine propria) di C l'insieme Ip(C) dei punti del piano le cui coordinate
- rispetto ad R - verificano una (e quindi tutte) le equazioni di C:
2
2
Ip(C) = {P =n (x, y) I aux + a22Y + 2a12xfJ + 2ao1x + 2ao2Y + aoo =O}.

(b) dalle equazioni parametriche

+ zo
+ z1
Y2 + z2
y3 + z3
Yo
Y1

(>..,)E IR 2 -{(0,0)}.
D

E' importante osservare che - a differenza di quanto si potrebbe intuitivamente supporre - l'immagine propriaip(C) non in generale sufficiente ad individuare la conica
e : ad esempio,
C1: x 2 +y 2 =-1
C2: x 2 +y 2 =-2
C3: 3x 2 +5y 2 =-1

Si noti che la retta r di cui alla Proposizione precedente una retta impropria del
completamento proiettivo dello spazio &3 se e solo se P e Q sono entrambi punti
impropri di [3.

rappresentano, rispetto ad R, tre coniche diverse, ma ciascuna di esse ha immagine


propria vuota:
Ip(C1) = Ip(C2) = Ip(C3) = 0.
Se si suppone di ampliare proiettivamente il piano euclideo &2, denotando con [x 0 , xi,
x 2] una terna di coordinate cartesiane omogenee dei suoi punti (propri ed impropri) rispetto al riferimento cartesiano R, allora l'equazione (*) origina, in coordinate
omogenee, la seguente equazione omogenea della conica C:
(**)
au(x1) 2+a22(x2) 2+2a12x1x2+2ao1xox1 +2ao2xox2+aoo(xo) 2 =O,

..,.. Osservazione 12.6. Le nozioni esposte in questo paragrafo chiariscono il significato


del termine fascio improprio di piani di [ 3, usato per indicare l'insieme dei piani aventi
per giacitura un fissato sottospazio vettoriale bidimensionale U di t;"""'3: esso costituito
da tutti e soli i piani di [ 3 che contengono la (comune) retta impropria di tutti i piani
paralleli a U, cos come il fascio proprio di piani di asse una data retta (propria) r di
&3 denota l'insieme di tutti e soli i piani di &3 contenenti r.
Analogamente, la stella impropria di piani (risp. stella impropria di rette) di direzione
un fissato vettore non nullo v di 3, essendo l'insieme dei piani (risp. delle rette) di
&3 che sono paralleli alla direzione individuata dal vettore v, costituito da tutti e
soli i piani (risp. tutte e sole le rette) che contengono il punto improprio individuato
dal vettore v, cos come la stella propria di piani (risp. di rette) di centro C E [ 3
denota l'insieme di tutti e soli i piani (risp. tutte e sole le rette) di [ 3 contenenti il
punto (proprio) C.

che si pu scrivere sinteticamente nella forma


2

Sia &2 un piano euclideo, in cui fissato un riferimento cartesiano R = (O, B).

aijXiXj =O.

i,j=O

+ Definizione 12.5.
I

2. Le coniche del piano euclideo

+Definizione 12.3.

2.25

2. LE CONICHE DEL PIANO EUCLIDEO

ELEMENTI DI TEORIA DELLE CONICHE E DELLE QUADRICHE

Data una conica C di &2 di equazione omogenea (**), si dice


supporto improprio (o immagine impropria) di C l'insieme I 00 (C) dei punti impropri
dell'ampliamento proiettivo di & 2 le cui coordinate cartesiane omogenee - rispetto ad
R - verificano una (e quindi tutte) le equazioni omogenee di C:
Ioo(C) = {Poo =n [O, xi, x2] I au(x1) 2 + a22(x2) 2 + 2a12x1x2 =O}.
Si dice poi supporto (o immagine) di C l'insieme
I(C)

= Ip(C) u I

00

(C).

Considerata una generica equazione algebrica di secondo grado

nelle coordinate x e y:
Nel seguito, con abuso di linguaggio e per semplicit di notazioni, identificheremo
spesso la conica con il suo supporto.
Definizione 12.6. Data una conica Cdi & 2 di equazione(*) (o di equazione omogenea(**)), si dice matrice associata a C (o discriminante di C) rispetto al riferimento
cartesiano R la matrice simmetrica2

diremo che tale equazione rappresenta, rispetto al riferimento cartesiano R, una conica
del piano euclideo & 2. Inoltre, diremo che due equazioni aux 2 + a 22 y 2 + 2a 12 xy+
+2ao1X + 2ao2Y + aoo = 0 e a~1X 2 + a~2Y 2 + 2a~2XY + 2ao1X + 2ao2Y + aoo = 0
rappresentano, rispetto ad R, la stessa conica di &2 se e soltanto se esiste E JR- {O}
tale che a~1 = % 'Vi,j E {O, 1, 2} .
Si noti che, in base alla Definizione 12.3, ogni conica Cdi &2 rappresentata - rispetto
ad R - da infinite equazioni algebriche di secondo grado, tutte proporzionali tra di
loro; usualmente, si dice che l'equazione di C rispetto ad R definita a meno di un
coefficiente di proporzionalit (non nullo).

2 Si noti che anche la matrice associata a C, come l'equazione e l'equazione omogenea,. risulta
definita a meno di un coefficiente di proporzionalit non nullo.

2. LE CONICHE DEL PIANO EUCLIDEO

12 . ELEMENTI DI TEORIA DELLE CONICHE E DELLE QUADRICHE

226

Tramite la matrice associata a C, possibile scrivere in forma matriciale le equazioni


(*) e (**) di C:

(>)

()

(! x y) A

( x,

G)

x, x,) A ( ~:)

~O

' sm
t et.1cament e,
(o, prn

t(u) A (u) = O),

(o , pi sinteticamente,

t(x) A (x)

= O) .

Vediamo ora come cambia la matrice associata ad una conica (e quindi, anche la sua
equazione e la sua equazione omogenea) al variare del sistema di riferimento fissato.
Proposizione 12. 7. Sia C una conica di E2 avente, rispetto al riferimento carte2
siano R, matrice associata A E S 3 (JR). Se R' un altro riferimento cartesiano su [ ,

G'.) = (:~ :D. G) + G~),

con

(:~

:D

E 02(IR),

sono le equazioni del cambiamento di riferimento da R ad R', allora la conica C ha,


rispetto ad R', matrice associata A' tale che

t.f;.A'

E,

con

227

.,.. Osservazione 12.8. Se interpretiamo il discriminante A di una conica C, rispetto


ad un riferimento cartesiano R, come la matrice (simmetrica) associata ad una forma
quadratica q su lR.3 (si veda l'Appendice B), l'equazione omogenea di C ha come
primo membro q(x) = t(x) A (x), il valore che q assume su di un generico vettore
3
X= (xo,Xi,X2) di lR. .
Un diverso discriminante di C, relativo ad R, d evidentemente luogo ad una forma
quadratica proporzionale a q. Se, invece, si considera un diverso riferimento R', come
si visto, il relativo discriminante di C , a meno di proporzionalit, una matrice A'
congruente ad A (si veda il 3 della Appendice B).
Tali considerazioni inducono a ritenere che l'ambiente pi opportuno per definire le
coniche sia l'ampliamento proiettivo del piano euclideo e che, in tale contesto, una
conica sia individuata da una classe di proporzionalit di forme quadratiche.
Dalla Proposizione 12.7 si deduce la
Proposizione 12.8. Tutti i discriminanti di una stessa conica C hanno lo stesso
rango.
Dimostrazione. Se due matrici sono associate a C rispetto allo stesso riferimento
cartesiano, allora sono proporzionali (e quindi hanno banalmente lo stesso rango). Se
invece due matrici A e A' sono associate a C rispetto a differenti riferimenti cartesiani,
allora per la Proposizione 12. 7 si ha A = t E A' E con E E G Ln (JR). L'affermazione
segue allora osservando che, se F E GLn(IR), allora e(A F) = e(F A)= e(A), per
ogni matrice A E Mn(lR.) .

o
Per rango e(C) di C si intender il rango di un suo qualsiasi discriminante.
Dimostrazione. Sostituendo le equazioni del cambiamento di riferimento cartesiano
da R ad. R', scritte come

ovvero

(u')

=E (u),

Una conica C di E2 si dice non specializzata o non degenere se


e( C) = 3. In caso contrario, si dice che C una conica specializzata o degenere di E2 .
Quindi, se A un discriminante di C, si ha che C degenere se e solo se det A= O.

.,.. Osservazione 12.9. Non difficile verificare che noti sottoinsiemi del piano euclideo (in particolare: rette ed unioni di due rette) risultano essere il supporto di
opportune coniche degeneri:
se r una retta di [ 2 avente equazione omogenea ax 1+ bx 2+ cx 0 = O rispetto
ad un fissato riferimento cartesiano R, allora

nella forma matriciale della equazione(*) di C rispetto ad R',

t(u'). A' (u') =O,


si ottiene l'equazione

t(u). t.E;. A' E (u) = O


che, confrontata con la forma matriciale dell'equazione (*)
t(u) . A. (u) = O, prova la tesi.

+Definizione 12. 7.

di C rispetto ad

.,.. Osservazione 12. 7. Con le notazioni della Proposizione 12.7, ricordando il teorema
di Binet (J='.roposizione 3.15) , si ha det A = det A'. _I~fatti, d~lla ortogo nal~t_ di E_
segue det E = det E = 1 e quindi det A = (det E) det A = det A . Si ncord1
tuttavia che anche la matrice A' associata a C rispetto ad R' risulta definita a meno
di un coefficiente di proporzionalit non nullo.

(ax1

R,

+ bx2 + cxo) 2 =O

la equazione di una conica degenere Cdi E2 , il cui supporto I(C) costituito


da tutti e soli i punti della retta r (che si dice "contata due volte");
se r ed s sono due rette distinte di E2 aventi rispettivamente equazioni
omogenee a' x1 + b' x2 + c' xo = O e a" x 1 + b" x2 + c" xo = O rispetto al
riferimento cartesiano R, allora
(a'x1

+ b'x2 + c'xo) (a"x1 + b"x2 + c"xo)

=O

la equazione di una conica degenere Cdi [ 2 , il cui supporto I(C) costituito


da tutti e soli i punti delle rette r ed s.

228

2. LE CONICHE DEL PIANO EUCLIDEO

12. ELEMENTI DI TEORIA DELLE CONICHE E DELLE QUADRICHE

In realt (cbme gi anticipato nella nota 3 di pag.195) tali sottoinsiemi, uniti ai


singoli punti di E2 , esauriscono tutti i possibili supporti di una conica degenere del
piano euclideo. infatti possibile dimostrare che, se e una conica degenere di [ 2 ,
allora verificata una (ed una sola) delle seguenti affermazioni:
esiste una retta (propria o impropria) r di E2 tale che I(C) = r;

Ragionando in modo analogo a quanto fatto in (i), si ha che l'equazione(##) ammette


due, una o zero soluzioni reali a seconda che
= (a 12) 2 -a 11 a22 sia rispettivamente
positivo, nullo o negativo.
(iii) Infine, se il supporto di C contiene la retta propria (risp. impropria) r, allora i coefficienti aoo, ao1, a11 nell'equazione ( #) (risp. i coefficienti au, a 12, a 22 nell'equazione
(##)) devono essere tutti nulli e dunque si ha det A = O.

-i

esistono due rette distinte r ed s di [ 2 (di cui una eventualmente coincidente


con la retta impropria), tali che I(C) = r U s;
esiste un punto (proprio o improprio) P E [ 2 tale che I(C) = {P}.
Nel primo caso si ha e(C)

= 1,

mentre nel secondo e nel terzo caso si ha e(C)

+ Definizione 12.8.

= 2.

Le coniche si suddividono innanzitutto in reali, se I(C) =f. 0, o vuote (o immaginarie),


se I(C) = 0. Si osservi che una conica degenere sempre reale.
Detto A un discriminante di C, si noti che C reale se e solo se la matrice A non
definita (Definizione B .4); quindi, per distinguere le coniche reali da quelle immaginarie si pu utilizzare il Criterio di Sylvester (Proposizione B.9). In alternativa, si
pu attendere la Proposizione 12.18.

(#)
Poich r non contenuta in C, l'equazione ( #) non pu essere identicamente soddisfatta (cio i coefficienti a 00 , a 01 , a 11 non possono essere tutti nulli): dunque, supponendo
di ricavare una incognita in funzione dell'altra, l'equazione ( #) ammette due, una o
= (a01 ) 2 - aoo a 11 sia rispettivamente positivo,
zero soluzioni reali a seconda che
nullo o negativo.
(ii) Se r la retta impropria r 00 di equazione omogenea xo = O rispetto a un qualunque riferimento cartesiano R, ed A un discriminante di C rispetto ad R, allora
i punti di intersezione di roo con hanno coordinate cartesiane omogenee [O,x1,x2]
che verificano l'equazione di secondo grado:

-i

Si dice che:
(a) r tangente a e se l'intersezione di r con e costituita da un solo punto
oppure se r contenuta nel supporto di C;
(b) r secante e se l'intersezione dir con e costituita da due punti distinti;
(c) r esterna a e se l'intersezione dir con e vuota.

Una conica non degenere Cdi E2 si dice:


(a) parabola Se roo tangente a C, OVVerO Se il Supporto improprio di C Si riduce
ad un solo punto (improprio);
(b) iperbole Se r 00 secante C, ovvero Se il Supporto improprio di C costituito
da due punti (impropri) distinti;
(c) ellisse Se r 00 esterna a C, ovvero Se il Supporto improprio di C VUOto. 3

Dimostrazione. (i) Se r una retta propria, si pu supporre che r sia l'asse x di


un riferimento cartesiano R, ovvero la retta di equazione omogenea x2 = O. Se A
un discriminante di C rispetto ad R, allora i punti di intersezione di r con C hanno
coordinate cartesiane omogenee [x 0 , xi, O] che verificano l'equazione di secondo grado:

Sia C una conica di E2 ed r una retta (propria o impropria) di

+ Definizione 12.9.

Proposizione 12.9. Se C una conica di [ 2 ed r una retta (propria o impropria)


di [ 2 non contenuta nel supporto di e, allora l'intersezione dir con e costituita da
uno dei seguenti sottoinsiemi di [ 2 :

Inoltre, se C non degenere, allora il supporto di C non contiene rette.

Ricordando che (il supporto di) una conica non degenere non contiene rette (Proposizione 12.9), si ottiene la seguente classificazione delle coniche non degeneri di [ 2 .

Una diversa classificazione delle coniche non degeneri si effettua esaminandone l'intersezione con la retta impropria r 00 di [ 2 .

- due punti distinti;


- un solo punto;
- l'insieme vuoto.

229

La seguente proposizione fornisce le semplici condizioni algebriche su Aoo (il complemento algebrico dell'elemento aoo nella matrice A) per distinguere parabole, iperboli
ed ellissi.
Proposizione 12.10. Sia Cuna conica non degenere di t: 2 e sia A (con det A
un suo discriminante rispetto al riferimento cartesiano R. Allora, si ha che:
(a) C una parabola se e soltanto se Aoo =O;
(b) C una iperbole se e soltanto se A 00 < O;
(c) C una ellisse se e soltanto se A 00 > O.

=f. O)

Dimostrazione. Ricordando il punto (ii) della dimostrazione della Proposizione 12.9,


= (a 12 ) 2 - a 11 a 22
si ha che r 00 tangente, secante o esterna a C a seconda che
sia rispettivamente nullo, positivo o negativo. La tesi segue quindi immediatamente,
osservando che

-i

ai21A
a22
-

00

(##)

3Si noti che le parabole e le iperboli sono sempre coniche reali, avendo I (C)
00
ellissi possono essere reali o immaginarie.

=I 0,

mentre le

12.

230

equazione ax 1 + bx2 + cxo = O coincide con la retta di equazione (%) se e solo se la


terna (yo, Y1, Y2) soddisfa la condizione

Esempio 12.1. Consideriamo, nel piano euclideo E 2, dotato di un riferimento cartesiano


R, le coniche aventi le seguenti equazioni:
C1 : 3x 2 + 8xy - 3y 2 + 2 = O
C2 : x 2 - 2xy + 3y 2 + lOx + 7 = O
C3 : x 2 + 4xy + 4y 2 - 2y + 2 = O
C4 : x 2 + xy - 2y 2 - x + y = O

A,~ (H -3~);

+ Definizione 12.10.

Sia Cuna conica non degenere di [ 2, avente A come matrice


associata rispetto al riferimento cartesiano R. Se P =n [yo, Y1, Y2] un punto (proprio
od improprio) di E2, si dice retta polare 1f p di P rispetto alla conica la retta (propria
o impropria) di equazione omogenea

In particolare, essendo

~}

(xo

poich det A2 = -61 i- O, la conica C2 non degenere. In particolare, essendo


Aoo = 2 > O, la conica C2 risulta essere una ellisse.
Un discriminante di C3, rispetto ad R,

A3 =

(~-1 2~

-1)
2

poich det A4

cl

O,

x,

O, la conica C4 una conica degenere.

x,) k

(E) ~

Esempio 12.2. Rispetto alla conica C1 considerata nell'Esempio 12.1, la retta polare
del punto P =n [1 , O, 1] ha , rispetto ad R, equazione omogenea :

~1 -4~);

.,. Osservazione 12.10. Si ricordi che, se A E GL 3(JR), il sistema lineare normale


A (y) = (O) ammette come soluzione solo la terna nulla. Pertanto, se C una conica
non degenere di E2, A un suo discriminante rispetto ad R e P =n [yo, Y1, Y2] un
punto (proprio od improprio) di [ 2, l'uguaglianza

(3) (xo

Per l'Osservazione 12.10, l'applicazione 1f che a P associa 1fp una biiezione tra i punti
del completamento proiettivo P 2 del piano euclideo e le sue rette. In altri termini,
per ogni retta r (propria od impropria) di [ 2 , esiste uno ed un solo punto P (proprio
od improprio), la cui retta polare sia r. Tale punto detto polo di r. Si osservi che
P E 1fp se e solo se P E I(C) .

.
'

poich det A 3 = -1 i- O, la conica C3 non degenere. In particolare, essendo Aoo


la conica C3 risulta essere una parabola.
Un discriminante di C4 , rispetto ad R,

A,~

con p # O

L'Osservazione 12.10 consente di dare la seguente

poich det A1 = -50 i- O, la conica C1 non degenere.


Aoo = -25 < O, la conica C1 risulta essere una iperbole.
Un discriminante di C2, rispetto ad R,
5
1

(E) G) ,

Tale condizione, fissato p i- O, costituisce un sistema lineare normale e ammette


dunque una ed una sola soluzione (non nulla); inoltre, al variare di pi- O, si ottengono
come soluzioni terne proporzionali.

Un discriminante di C1, rispetto ad R,

-1

231

2. LE CONICHE DEL PIANO EUCLIDEO

ELEMENTI DI TEORIA DELLE CONICHE E DELLE QUADRICHE

(aooYo+a.,y, +a,,y,) xo+(amYo+any, +a,,y,)-x, +

+(ao2Yo + a12Y1 + a22Y2) x2 = O


costituisce un'equazione lineare omogenea in cui i coefficienti delle incognite xo, X1, x2
non sono tutti nulli e rappresenta quindi una retta di E2. Inoltre, la generica retta di

x2)

O 3

cio 2xo + 4x 1 - 3x2 = O.


Se r la retta avente, rispetto ad R, equazione omogenea 4x 0 + x 1 - 7x 2 = O, le
coordinate omogenee del suo polo Q, rispetto alla conica C1, possono essere ottenute
mediante il procedimento descritto nell'Osservazione 12.10. Posto infatti
A1

(~~)
(~ 4~ -3~ (~~)
Y2
Y2
=

= p (

) ,
- 7

e scegliendo, come valore non nullo di p, p = 1, si ottiene come soluzione del sistema
lineare normale (usando ad esempio le formule di Leibniz-Cramer):

Yo

4
1
-7

o o

3 4
4 -3
-100
--50
- --2
detA1

12.

232

Yi

o
o
2

o
o

4
1

Nel primo caso, 1fp interseca I(C) esattamente nei punti di contatto tra la conica e le
due rette tangenti alla conica passanti per P (si veda la Figura 12.1) .

-7 -3
det A1

233

2. LE CONICHE DEL PIANO EUCLIDEO

ELEMENTI DI TEORIA DELLE CONICHE E DELLE QUADRICHE

=~=

-1

-50

3 1
4 -7 = -50
Y2 =
detA1
-50
Il polo dir dunque il punto Q =n [2, -1, l] .

1.

I(C)
1tp

Proposizione 12.11. Sia C una conica non degenere del piano euclideo, e siano
P, Q due punti di &2 . Si ha che:
Q E 7fp se e solo se P E 1fQ (Legge di reciprocit)
Se P un punto del supporto I(C), allora la retta polare 1fp di P rispetto a
e l'unica retta tangente alla conica in p.

Figura 12.1
Infatti, se Q E 7fp n I(C), per la Legge di reciprocit si ha che P E 1fQ, che - per
la Proposizione 12.11 - la retta tangente in Q alla conica; ci prova che la retta
passante per P e Q tangente alla conica. D'altra parte, se r una retta passante
per P e tangente alla conica in un punto Q E I(C), allora r la retta polare di Q;
per la Legge di reciprocit segue quindi che Q appartiene alla retta 7fp polare di P.

Dimostrazione. Se P =n [y0 , y 1, y2] e Q =n [zo, z1, z2], allora si ha che:

(Q

E 7rp <=:? t(z) A (y)

= O)

(P E

1fQ

<=:?

t(y) A (z)

= O).

La Legge di reciprocit segue quindi dalla simmetria della matrice A.


Supponiamo ora che P E I(C); la retta r per P e per un secondo punto Q =f. P
risulta tangente alla conica in P se e solo se P l'unico punto di intersezione trar e
I(C). Se P =n [y0 , yi, y2] e Q =n [z0 , z 1, z2], allora tutti e soli i punti della retta r
hanno, rispetto ad R, coordinate cartesiane omogenee [yo+zo, y1 +z1, y2+z2],
al variare dei parametri reali (non entrambi nulli) , (Proposizione 12.2); i punti
di intersezione tra r e I(C) corrispondono dunque alle soluzioni della equazione di
secondo grado
t(y + z) A (y + z) = O,
che equivale a
2

+ 2 t(z) A (y) + 2 t(z) A (z) =

O.
2
La ipotesi P E I(C) assicura che il coefficiente di sempre nullo; quindi, la
equazione ammette una sola soluzione (corrispondente alla coppia (, ) = (1, O),
ovvero al punto di tangenza P) se e soltanto se anche il coefficiente di si annulla.
Ci implica che r tangente alla conica se e soltanto se
t(y) A (y)

Esempio 12.3. Come visto nell'Esempio 12.2 la retta polare 1fp del punto P =n [1, O, 1]
rispetto alla conica C1 considerata nell'Esempio 12.1 ha, relativamente ad R, equazione
omogenea 2xo + 4x1 - 3x 2 = O, mentre la retta polare 1fQ del punto Q =n [2, -1, 1] ha,
relativamente ad R, equazione omogenea 4x 0 + x 1 - 7x 2 = O.
Si noti che si ha P tJ. 1fp, mentre Q E 1fQ; infatti, P tJ. I(C1), mentre Q E I(C1) {in
accordo con la Proposizione 12.11).
Si verifichi che la retta polare di un punto arbitrario di 1fp (risp. di 1fQ) passa per P (risp.
per Q).

t(z) A (y) = O,

cio se e soltanto se il punto Q appartiene alla polare

1fp

di P.

.,.. Osservazione 12.11. Si noti che, se P non appartiene al supporto I(C), allora
la retta polare 1fp di p rispetto a pu essere o secante o esterna a (se 1fp fosse
tangente a C ip. un punto P, per la Proposizione 12.11 sarebbe anche la retta polare
di P, che assurdo essendo 7f una biiezione).

+Definizione 12.11.

Sia Cuna conica non degenere di &2. Si dice diametro di C


ogni retta propria che sia retta polare di un punto improprio di & 2.
Si dice centro di C il polo C della retta impropria r 00
Come ovvia conseguenza della Proposizione 12.11 (Legge di reciprocit), si ha che tutti
i diametri contengono il centro di e e costituiscono un fascio (proprio o improprio)
di rette.
Proposizione 12.12. Sia C_una conica non degenere di &2 avente, rispetto al
riferimento cartesiano R = (O, B), discriminante A E S 3 (1R). Allora:

C =n [Aoo, Ao1, Ao2]

[lau
a12

a121,-1ao1 a12 1 1ao1


a22
ao2 a22 ' ao2

234

12.

ELEMENTI DI TEORIA DELLE CONICHE E DELLE QUADRICHE

Dimostrazione. Basta verificare che la retta polare del punto C =n [Aoo, Ao1, Ao2]
coincide con la retta impropria. Per definizione di retta polare, la equazione omogenea
di 7rC si ottiene da:
7rC:

(xo

xi

x2 ) A

(~~~)
Ao2

O;

sviluppando il prodotto tra la matrice A e la matrice colonna delle coordinate d~ C,


ed utilizzando il Teorema di Laplace generalizzato (Osservazione 3.5), tale equaz10ne
diventa:
7rc : (detA) xo=O.
Poich si supposto C non degenere, sicuramente si ha det A =j=. O; pertanto, 7rC
2
coincide effettivamente con la retta impropria di [ .

Si osservi che, come conseguenza delle Proposizioni 12.10 e 12.12, si ha che:


se e una parabola, il suo centro il punto improprio individuato dalla
direzione del vettore
v

2. LE CONICHE DEL PIANO EUCLIDEO

Si noti che, per la Definizione 12.9, le uniche coniche di [ 2 che ammettono asintoti
sono le iperboli: infatti, il supporto improprio delle ellissi vuoto, mentre l'unico punto
improprio delle parabole (che coincide con il centro) ammette come retta tangente la
retta impropria.
Ogni iperbole ammette due asintoti, che si ottengono facilmente come rette polari dei
due punti impropri dell'iperbole. D'altra parte, gli asintoti di una iperbole sono particolari diametri (perch rette polari di punti impropri), e perci contengono il centro
della iperbole; pertanto, noto il centro Cedi punti impropri P00 e Q 00 dell'iperbole,
gli asintoti coincidono con le rette CP00 e CQ 00

Definizione 12.13. Si dice iperbole equilatera una iperbole del piano euclideo [ 2
avente per asintoti due rette ortogonali.
Non difficile verificare, ricavando direttamente dalla equazione omogenea le coordinate dei punti impropri ed imponendo la condizione di ortogonalit tra le direzioni
da essi individuate, che le iperboli equilatere sono caratterizzate da una semplice
condizione algebrica su qualunque matrice ad esse associata:
Proposizione 12.13. Sia C una iperbole di E2 avente, rispetto al riferimento
cartesiano R, matrice associata A E S3 (JR) . L'iperbole C equilatera se e soltanto se

=s (Ao1, Ao2),

ed i suoi diametri sono tutti paralleli a v;


se C una iperbole o una ellisse, il suo centro il punto proprio di coordinate
cartesiane
C =n (Ao1, Ao2).

Aoo Aoo

au

C2 =n ( - 125 ' -

3xf - 3x~
{ Xo = Q

+ 8x1x2

=O

per cui i punti impropri di C1 sono P00 =n [O , -3, 1] e Q 00 =n [O , 1, 3]. Poich il centro
C di C1 coincide con l'origine del riferimento 'R, gli asintoti sono le due rette CP00 , di
equazione x + 3y =O, e CQ 00 , di equazione 3x-y =O. Si verifichi che esse coincidono
con le polari 7r p e 7rQ rispettivamente.
Si noti inoltre che i due asintoti di C1 risultano tra loro ortogonali : la equazione della
iperbole C1 verifica infatti la condizione della Proposizione 12.13, che caratterizza le
iperboli equilatere.
00

00

~) .

Nel caso della parabola C3 considerata nell'Esempio 12.1, il centro risulta aver~ co~rdinate
omogenee c3 =n [O , 2, -1], cio il punto improprio individuato dalla d1rez1one del
vettore
V

+ a22 =O.

Esempio 12.5. Nel caso della iperbole C1 considerata nell'Esempio 12.1, il supporto
improprio ha equazione

Le coniche aventi centro proprio (cio le iperboli e le ellissi) sono usualmente dette
coniche a centro.
Esempio 12.4. Nel caso dell'iperbole C1 considerata nell'Esempio 12.1.' il ~entro ~isul
ta avere coordinate omogenee C 1 =n [-25 , O, O], cio il punto proprio d1 coordinate
cartesiane
C1 =n (O, O) (origine del riferimento 'R)
Nel caso dell'ellisse C2 considerata nell'Esempio 12.1, il centro risulta avere coordinate
omogenee C2 =n [2, -15, -5], cio il punto proprio di coordinate cartesiane

235

=s (2, -1) .

Definizione 12.14. Sia C una conica non degenere di E 2. Si dice asse di C ogni
diametro 7rp di C che sia ort ogonale alla direzione individuata dal suo polo P00
Si dice vertice di C ogni punto di intersezione del supporto proprio Ip(C) con un asse
di C.

00

Si noti che gli assi di C, essendo particolari diametri, contengono sempre il centro di
C.

t Definizione 12.12. Sia C.una conica non degenere di [ 2 . Si dice asintoto di C ogni
retta propria tangente a

e in un suo punto improprio.

La seguente proposizione fornisce il metodo operativo per trovare gli assi (e quindi i
vertici) di una conica.

, 236

12. ELEMENTI DI TEORIA DELLE CONICHE E DELLE QUADRICHE

Proposizione 12.14. Sia C una conica non degenere di [ 2


riferimento cartesiano R, matrice associata A E S3(JR.); sia M 00
mentare dell'elemento aoo in A. Gli assi di C sono le rette polari
2
di [ individuati dalle direzioni degli autovettori di M 00 , relativi
nulli.

avente, rispetto al
il minore compledei punti impropri
ad autovalori non

In altre parole, la Proposizione 12.14 afferma che un punto P 00 =n [O, l, m] polo di


un asse di C se e soltanto se esiste >. E JR. - {O} tale che

(+)

Moo

(~)

>. (~)

Si noti che, poich Moo E S2(1R.), essa ammette sempre due autovalori, eventualmente
coincidenti, con somma delle molteplicit geometriche uguale a due (Teorema 7.14).
Dimostrazione. In base alla Definizione 12.10, la retta polare di un generico punto
improprio Poo =n [O, l, m] del piano euclideo E2 ha, relativamente ad R, equazione
(ao1l + ao2m) xo + (aul + a12m) x1 +(ad+ a22m) x2

2. LE CONICHE DEL PIANO EUCLIDEO

237

di C. Inoltre, poich il punto improprio Q00 di 7rp1 00 individua la direzione ortogonale


a P 100 , la sua retta polare 7rq 00 , per la legge di reciprocit, contiene P 100 . Dunque,
7rq 00 (che una retta propria in quanto polare di un punto improprio rispetto ad una
conica a centro) ha direzione ortogonale al suo polo Q 00 e coincide quindi con l'altro
asse 7rp200 di C : ci prova che i due assi sono tra loro ortogonali.
Se invece M 00 ha un solo autovalore (non nullo) di molteplicit due, allora gli autovettori di M 00 ad esso associati individuano tutti i punti impropri di [ 2 ; tutti i diametri
risultano quindi essere assi di e.
In ogni caso, gli assi si intersecano ovviamente nel centro della conica, perch il centro
appartiene ad ogni diametro (e quindi, ad ogni asse) di e.
Nel caso che C sia una parabola, la matrice Moo (avendo det Moo = O) ammette
sicuramente l'autovalore nullo, con molteplicit uno (perch, se tale molteplicit fosse
due, la matrice A non potrebbe essere regolare); esiste pertanto un unico autovalore
5. non nullo, e il punto improprio P 00 , individuato dagli autovettori di Moo, tutti tra
loro proporzionali, relativi a 5., determina l'unico asse 7rp di C. Infine, poich l'asse
7rp una retta propria contenente il centro (improprio) della parabola C, esso non
pu essere tangente a C; pertanto, l'asse interseca il supporto I(C) in un ulteriore
punto proprio V, che risulta essere l'unico vertice della parabola.
00

00

e pertanto i coefficienti direttori di una retta ortogonale ad essa sono proporzionali


a (aul + a12m, a12l + a22m). Quindi, la direzione individuata da P 00 ortogonale a
7rp se e soltanto se esiste >. E JR. - {O} tale che

00

(aul + a12m, a12l + a22m)

= >. (l, m),

ovvero se e solo se vale la condizione ( +).

o
Dalla Legge di reciprocit segue facilmente che la retta tangente ad una conica C in un
suo vertice V ortogonale all'asse contenente V: infatti, detto 7rp l'asse contenente
V, la Legge di reciprocit (Proposizione 12.11) assicura che P00 E 7rv, e quindi che la
polare di V (ovvero la tangente in V a C) ha la direzione ortogonale all'asse (che
individuata, per definizione di asse, dal suo polo P 00 ).
Come conseguenza delle Proposizioni 12.10 e 12.14, si ottiene poi il seguente risultato,
relativo alla esistenza di assi per i vari tipi di coniche non degeneri.
00

Proposizione 12.15. Sia C una conica non degenere di t: 2.


Se C una conica a centro, esistono sempre (almeno 4 } due assi di C, tra
loro ortogonali, che si intersecano nel centro di e;
se C una parabola, essa ammette un solo asse ed un solo vertice.

Esempio 12.6. Nel caso della iperbole C1 considerata nell'Esempio 12.1, gli autovalori
della matrice M 00 sono >. 1 = 5 e >. 2 = -5, che si ottengono risolvendo la equazione
caratteristica
det ( t

Gli autovettori relativi all'autovalore

= t

2
-

25

= O.

>. 1 sono i vettori (l, m) tali che


l - 2m =O;

owero

gli autovettori relativi all'autovalore >. 2 sono invece i vettori (l, m) tali che

(=~ =~). (~)

(~) '

2l + m =O.

owero

I poli degli assi di C1 sono dunque i punti impropri P 100 =n [O, 2, 1] e


gli assi di C1 sono allora le rette 7rp100 e 7r p 200 di equazione:
7r p 100

Dimostrazione. Per la Proposizione 12.14, ogni classe di proporzionalit di autovettori


della matrice Moo E 2(JR.), relativi ad un autovalore non nullo, individua un asse della
conica C.
Nel caso che C sia una conica a centro, la matrice M 00 non pu ammettere l'autovalore nullo (essendo det M 00 :/:-O).
Se Moo ha una coppia di autovalori distinti (non nulli), allora esistono esattamente
due punti impropri P1 00 e P2 00 le cui rette polari 7rp100 e 7rp2 00 sono gli unici due assi

-=} t ~43 )

2x + y

=0

7rp200

X -

2y

P2 00

=n [O, 1, -2];

= 0.

Esempio 12. 7. Nel caso della ellisse C2 considerata nell'Esempio 12.1, gli autovalori
della matrice M 00 sono >.1 = 2 + J2 e >. 2 = 2 - J2, che si ottengono risolvendo la
equazione caratteristica
det

(t ~

Gli autovettori relativi all'autovalore

1 )

t-3

t 2 - 4t

+ 2 = o.

>. 1 sono i vettori (l, m) tali che

L'unica conica non vuota che ammette pi di due assi la circonferenza, per la quale tutti i
dia metri risultano essere assi: si veda anche la successiva Proposizione 12.19.

owero

(J2+1)l+m =O;

12.

238

ELEMENTI DI TEORIA DELLE CONICHE E DELLE QUADRICHE

gli autovettori relativi all'autovalore

>. 2

sono invece i vettori (l, m) tali che


ovvero

(-h+l)l+m =O.

I poli degli assi di C2 sono dunque i punti impropri P 100 =n [O, 1 - J2, 1] e P 200 =n
[O, 1+J2,1]; gli assi di C2 sono allora le rette 7rp1 00 e 7rp2 00 di equazione:
7rP1 00

-V2x+(2+V2)y+5-5J2 =O

7rp200

V2x+(2-J2)y+5+5V2 =O.

Esempio 12.8. Nel caso della parabola C3 considerata nell'Esempio 12.1, l'unico autovalore non nullo della matrice M 00 >. = 5, essendo

det (t _=-21

t -=_24) = t2 - 5t.

Gli autovettori relativi a tale autovalore>. sono i vettori

(l, m) tali che

ovvero

2l - m =O.

11 polo dell'(unico) asse di C3 dunque il punto improprio P00 =n [O , 1, 2]; l'asse di C3


allora la retta 7rp00 di equazione:
7rp00

5x+l0y-2 = 0.

Si noti che, in alternativa, la direzione del punto improprio P00 pu essere determinata
come la .direzione ortogonale al centro (improprio) C3 = n [0 ,2,-1] della parabola C3 :
infatti, l'asse di C3 , essendo un particolare diametro, risulta necessariamente parallelo alla
direzione individuata dal centro.

3. RIDUZIONE A FORMA CANONICA DELLE CONICHE

(ii) Se C una parabola, sia R il riferimento cartesiano avente origine (J coincidente con il vertice V di C, ass e Y coincidente con l'asse di C ed asse
X coincidente con la tangente in V a C. Allora, la matrice associata a C
rispetto ad R risulta di tipo "anti-diagonale" .
Dimostrazione. Sia A= (aij) E S3(!R.) il discriminante di e rispetto ad R .
(i) Se C una conica a centro, l'asse X (avente equazione x 2 = O rispetto ad R)
un asse della conica e quindi deve coincidere con la retta polare della sua direzione
ortogonale P~ =n [O, O, 1] (avente equazione iio2Xo + a 12x 1 + a 22 x 2 = O rispetto
ad R); pertanto si ha ao2 = a 12 = O. Analogamente, l'asse Y (avente equazione
x 1 =O rispetto ad R) deve coincidere con la retta polare della sua direzione ortogonale
P~ =n [O, 1, O] (avente equazione ao1Xo + aux1 + ii12x2 =O rispetto ad R) ; pertanto
si ha ao 1 = a 12 =O. Dunque la matrice A di tipo diagonale.
(ii) Se e una parabola, l'asse X (avente equazione X2 =o rispetto ad R) deve coincidere con la polare del vertice V =n [1 , O, O] (avente equazione a00 x 0 +a01 x 1 +a 02 x 2 =
O rispetto ad R); pertanto si ha iioo = ao 1 = O. L'asse Y (avente equazione x 1 = O
rispetto ad R) coincide con l'unico asse della parabola, cio con la retta polare della
sua direzione ortogonale P~ =n [O, 1, O] (avente equazione ao 1 x 0 + a 11 x 1 + a 12 x 2 =
O rispetto ad R); si ha quindi ao 1 = a 12 = O. Infine, poich il centro C00 =n
[Aoo , Ao1, Ao2] della parabola il punto improprio dell'asse X (avente coordinat e
omogenee [0,0,l] rispetto ad R), si ha Aoo = au a22 = O, con Ao2 = -a 11 a 02 I= O,
da cui segue ii22 =O.

o
La proposizione seguente fornisce il metodo operativo per ottenere, a partire da una
qualunque matrice associata alla conica non degenere C, una matrice di tipo diagonale
o "anti-diagonale" associata a e.

Proposizione 12.17. Sia C una conica non degenere di [


discriminante, rispetto al riferimento cartesiano R.
3. Riduzione a forma canonica delle coniche
Nel presente paragrafo, C denoter sempre una conica del piano euclideo E2 , dotato
di un fissato riferimento cartesiano R = (O, B) .
Le propriet del centro, degli assi e dei vertici, ottenute nel paragrafo precedente,
permettono, nei vari tipi di coniche non degeneri, di potere scegliere sempre un riferimento cartesiano rispetto al quale l'equazione della conica risulta particolarmente
semplice.
Infatti, la proposizione seguente afferma che, fissato opportunamente
il riferimento, la matrice associata o di tipo diagonale o di tipo "anti-diagonale"
(ovvero, i suoi unici elementi non nulli appartengono alla diagonale secondaria) .

Proposizione 12.16. Sia C una conica non degenere di E2 .

(i) Se C una conica a centro, sia R il riferimento cartesiano avente origine

O coincidente con il centro di C, ed assi coordinati X e Y coincidenti con


una coppia di assi, tra loro ortogonali, di C. Allora, la matrice associata a
ad R risulta di tipo diagonale.

e rispetto

239

e sia A un suo

(i) Se C una conica a centro, allora una matrice di tipo diagonale associata a

JR. sono i due autovalori (eventualmente coincidenti) del minore


E JR. - {O} si ricava imponendo det D = det A.
(ii) Se C una parabola, allora una matrice di tipo "anti-diagonale" associata a
e
dove

i, 2 E

Moo di A ed

D'

(~d'

~)

dove E JR. l'unico autovalore non nullo del minore M 00 di A ed' E IR.-{O}
si ricava imponendo det D' = det A.
Dimostrazione. In virt della Proposizione 12.7, il discriminante A di C rispetto al
riferimento R individuato nella Proposizione 12.16 (di tipo diagonale nel caso (i) , di

240

12. ELEMENTI DI TEORIA DELLE CONICHE E DELLE QUADRICHE

Si noti che, nel caso della ellisse, il segno di d coincide con il segno di det A (infatti, per
la Proposizione 12.17(i), si ha det A= d >.1 >.2 = d Aoo); quindi, una conica C una
ellisse (risp. una ellisse vuota) se e soltanto se, in qualunque matrice A associata a
C, il minore M 00 ammette due autovalori, entrambi di segno discorde (risp . concorde}
con det A.
In realt, esiste un criterio alternativo per riconoscere le coniche a supporto vuoto,
anche senza determinare gli autovalori del minore Moo :

tipo "anti-diagonale" nel caso (ii)) tale che

o
d
ei

con

e~)

ed E

e2
2

d
( ei

e, per l'Osservazione 12.7, si ha:


det A = det A.
D'altra parte, se M 00 (risp. M00 ) denota il minore complementare dell'elemento a 00
(risp. lioo) in A (risp. in A), si ha:

Moo = t E Moo E,
1

Essendo t E = E- , ne consegue che M00 e M 00 sono simili, ovvero che Moo contiene,
sulla sua diagonale principale, esattamente gli autovalori di M 00 .
D

Nel caso della parabola, l'equazione indotta dalla matrice "antidiagonale" D' risulta
2
>.X + 2d'Y =O. Pertanto, moltiplicando per (-2d')- 1 e cambiando eventualmente
orientazione all'asse Y del riferimento ft, la equazione di C rispetto ad R assume la
forma della equazione (3) del 4 del Capitolo 10 (equazione canonica della parabola,
intesa come particolare luogo geometrico del piano):
Y

= ~x2
2p

'

p = /-

dove

~ I

Nel caso delle coniche a centro, l'equazione di C rispetto ad R assume la forma di


una delle equazioni canoniche delle coniche, viste nel 4 del Capitolo 10. Infatti,
moltiplicando per (-d)- 1 , la equazione indotta dalla matrice diagonale D risulta

~
-d

. x2

241

3. RIDUZIONE A FORMA CANONICA DELLE CONICHE

+ ~ . y2 = l.

Proposizione 12.18. Una conica C di [ 2 ha supporto vuoto se e solo se, in qualunque matrice A associata a C, si ha Aoo > O e a22 det A > O (o, equivalentemente,
an det A> O}.
Dimostrazione. 5 sufficiente provare che le condizioni scritte sono equivalenti a
richiedere che >. 1 , >. 2 (autovalori del minore M 00 ) siano entrambi di segno concorde
con det A. In effetti, essendo >.1 2 = det Moo = Aoo, 1 e 2 sono concordi se e solo
se >. 1 >. 2 = Aoo >O (cio C un'ellisse) e, in tal caso, da Aoo = an a22 - (a12) 2 > O
segue che anche an e a22 sono concordi. Da au + 1122 = 1 + 2 (uguaglianza delle
tracce di due matrici simili: si veda la Proposizione 7.9), si deduce perci che, nl
caso in cui C sia una ellisse, au, a22, 1 e 2 sono tutti concordi. La tesi risulta cos
provata.
D

Si noti poi che la equazione canonica di una conica C ha i coefficienti di X 2 e di Y 2


coincidenti se e solo se, in qualunque matrice A associata a C, il minore Moo ammette
due autovalori coincidenti; ci permette di ottenere la seguente caratterizzazione delle
circonferenze all'interno delle coniche del piano euclideo:
Proposizione 12.19. Una conica C di [
una qualunque matrice associata A, si ha '

Moo = ( ~

-d

~) ,

una circonferenza se e soltanto se, in

>. det A < O.

con

Allora:

se 1 e 2 hanno segno opposto, la conica una iperbole (essendo >. 1


2 = Aoo < O) e, scambiando eventualmente tra loro l'asse X e l'asse Y,
la equazione assume la forma della equazione (2) del 4 del Capitolo 10
(equazione canonica della iperbole, intesa come particolare luogo geometrico
del piano):
x2

y2

-l? =

1;

se >. 1 e >. 2 sono entrambi di segno concorde (risp. discorde) con -d , allora
la conica una ellisse (essendo >. 1 2 = Aoo > O) e l'equazione assume
la forma della equazione (1) (risp. (1')) del 4 del Capitolo 10 (equazione
canonica della ellisse (risp. della ellisse vuota), intesa come particolare luogo
geometrico del piano):
x2

y2

+ b2=1

x2

Esempio 12.9. In base alla Proposizione 12.17 (caso {i)), una matrice di tipo diagonale
associata alla iperbole C1 considerata nell'Esempio 12.1

(risp. ~

y2

+ b2

= -1),

ove, scambiando eventualmente tra loro l'asse X e l'asse Y, si ha a 2: b.

~ (~ ~5

n,

con det D = -25d = det A= -50, da cui segue d = 2.


Allora, una equazione canonica di C1
-5X 2

+ 5Y 2 + 2 =

x2

O,

owero

- 25

y2
-

= l.

5Si noti che, in alternativa alla dimostrazione diretta qui presentata, la Proposizione 12.18 pu
essere dedotta immediatamente dal Criterio di Sylvester (Teorema B.9, con relativa nota), nel caso
particolare n = 3.

242

12. ELEMENTI DI TEORIA DELLE CONICHE E DELLE QUADRICHE

~sempio 12.10. In base alla Proposizione 12.17 (caso (ii)), una matrice di tipo antidragonale associata alla parabola C3 considerata nell'Esempio 12.1

D'
con det D' = -5d'
canonica di C3

det A

- )s.

owero

Allora, una equazione

svs
x2
2
.

Proposizione 12.20. Sia C una conica non degenere di E 2 . Allora ogni asse di C
asse di simmetria6 per il supporto proprio Ip(C) .
'
Inoltre:

se una conica a centro, il centro


centro di simmetria per il supporto
proprio Ip(C);
se una ellisse reale, ogni asse di contiene due vertici, e i fuochi di
appartengono all'asse in cui la distanza tra i vertici maggiore (detto asse
maggiore o asse focale);
se C una iperbole, un asse di C (detto asse trasverso o asse focale) contiene
due vertici, mentre l'altro asse (detto asse non trasverso) non intersecaI(C)
i fuochi di
appartengono all'asse trasverso.
)

eviden~e poi che, per quanto gi visto nel 4 del Capitolo 10, le equazioni canoniche
delle comche non degeneri permettono di ricavare facilmente le coordinate dei fuochi
e, ~e! caso della parabola, la equazione della direttrice o.
Proposizione 12.21. Sia C una conica non degenere di E 2 e sia
cartesiano in cui C assume equazione canonica. Allora:

e una parabola di equazione canonica y = 2_


X2
2p
)
F

=n (O,~),

o:

il riferimento

con p > O, si ha:

Il procedimento si svolge nei seguenti passi, a partire dalla equazione della conica non
degenere C rispetto al riferimento cartesiano R:
1) Se C una conica a centro (risp. una parabola), si determinino, rispetto
ad R , le coordinate del centro C (risp. del vertice V) e l'equazione dell'asse
focale (risp. dell'asse) f di C;
2) si det ermini l'equazione canonica di C e si calcoli la distanza c = d(C, F 2 )
(risp. ~ = d(V, F));
3) si scriva, rispetto ad R , l'equazione della circonferenza di centro C (risp.
V) e raggio c (risp. ~), e si determinino le sue intersezioni H 1 ed H2 c;on
l'asse f.
A questo punto:

Se C una conica a centro, H 1 ed H2 sono esattamente i due fuo chi di C.


Se C una parabola, i due punti H 1 ed H 2 sono uno il fuoco F di C, e l'altro
l'intersezione H tra l'asse f e la direttrice di C : per distinguerli, basta
osservare che la retta ortogonale ,a f passant e per F (risp. per H) ha
due intersezioni distinte con I(C) (risp. non interseca I(C)).

Si noti infine che, nel caso delle iperboli equilatere, esiste una ulteriore scelta del
sistema di riferimento, che porta ad una equazione di forma particolarmente semplice:
Proposizione 12. 22. Sia C una iperbole equilatera di [ 2 . Se R = (O, B) il riferimento cartesiano avente origine nel centro di C ed avente assi coordinati co0cidenti
con gli asintoti (tra loro ortogonali) di C, allora la equazione di C rispetto ad R risulta
del tipo

con

k E JR - {O}.
D

con a 2: b,
)

Ci signi~ca .eh~ p er o?ni asse r di C e per ogni punto P E I p(C) , a nche P' E Ip(C) , ove
P = sr(P) md1ca 1! s1mmetnco di P rispetto a lla retta r (Definizione 9.21).
,

Poich le distanze tra i punti notevoli del supporto di una conica (non vuota) non
dipendono dal riferimento cartesiano scelto, possibile risalire, attraverso la Proposizione 12.21, alle coordinate dei fuochi (e, nel caso della parabola, alla equazione
della direttrice) rispetto a qualunque sistema di riferimento.

XY = k,

Y= _!!_.
2'

,
.
x2
y2
se C e una ellisse (reale) di equazione canonica - + - = 1
~ ~

x2
y2
se C una iperbole di equazione canonica 7}2 - b2 = 1, si ha:

o o

Le equazioni canoniche delle coniche non degeneri permettono di ricavare facilmente


alcune propriet del supporto proprio che, essendo indipendenti dal riferimento scelto
possono essere formulate in termini generali.
'

se

243

d'o) )

-1, da cui segue d'

2
2
5X --Y=O

v'5

(~d'

3. RIDUZIONE A FORMA CANONICA DELLE CONICHE

La equazione descritta nella Proposizione 12.22 viene usualment e detta equazione


canonica riferita agli asintoti della iperbole equilat era C, e pu essere facilmente ott enuta a partire da una qualunque equazione associata a C, osservando che, se r 1 ed r 2
sono gli asintoti della iperbole equilatera C, allora d(P,r 1 ) d(P,r2) = lkl, per ogni
punto P E I(C) .

244

12.

ELEMENTI DI TEORIA DELLE CONICHE E DELLE QUADRICHE

245

4. FASCI DI CONICHE

4. Fasci di coniche

+ Definizione 12.15 .

Date due coniche distinte (degeneri o non degeneri) C1 e C2


del piano euclideo E2 , aventi rispettivamente equazioni omogenee
2

C1 :

a~1 xiXj = O

C2 :

a~jxiXj = O

i,j=O

i,j=O

rispetto ad un fissato riferimento cartesiano R, si dice fascio di coniche individuato


da C1 e C2 l'insieme F(Ci, C2) di coniche aventi, rispetto ad R, equazioni omogenee

(.t a~jXiXj) (.t a~jxiXj)


+

i,J=O

o,

con (>. , ) E JR

JR - {O, O}.

Figura 12.2

i,J=O

Si noti che il fascio F(C1,C2) contiene infinite coniche (al variare degli scalari e),
ma che coppie (, ) proporzionali individuano la stessa conica. Ad esempio, ogni
coppia (O,) (con E JR - {O}) individua la conica C2 E F(C1, C2). Inoltre, se C3 e C4
sono due coniche distinte del fascio F(C1,C2), si ha che F(C3,C4) = F(C1 ,C2).
Proposizione 12.23. Sia F(C1,C2) un fascio di coniche del piano euclideo E2 .
Per ogni punto P ~ I(C1) nI(C2), esiste una ed una sola conica CE F(C1 ,C2), tale
che P E I(C).

Dimostrazione. sufficiente osservare che, sostituendo le coordinate cartesiane omogenee di P nella equazione omogenea del fascio, i coefficienti dei parametri e
non possono essere contemporaneament e nulli (perch P ~ I(C1) n I(C2)); quindi, i
parametri e devono verificare una equazione lineare omogenea di rango uno, le cui
soluzioni (che sono 00 1 , tutte multiple di una qualunque fissata) individuano tutte la
medesima conica.

Esempio 12.11. Nel completamento proiettivo del piano euclideo E2


un riferimento cartesiano R - siano dati, ad esempio, i punti

A=n[l,1,0],

B=n[l,0,1],

C=n[l,-1,0],

in cui fissato

D=n[l,0,-1].

Una volta verificato che tali punti sono a tre a tre non allineati, si considerino la conica
(degenere) C1 di equazione omogenea

il cui supporto costituito da CDUAB, e la conica (degenere) C2 di equazione omogenea

Le seguenti osservazioni consentono di scrivere con facilit l'equazione di un fascio di


coniche individuato da particolari condizioni. Per semplicit, indicheremo con XY la
retta (eventualmente impropria) del piano euclideo E2 passante per i punti distinti
(propri o impropri) X, Y E f; 2

Fasci del 1 tipo.


L'insieme delle coniche passanti per quattro punti distinti
A, B, C, D E E2 , a tre a tre non allineati, un fascio di coniche F 1 di E2 .
Inoltre , se C1 e C2 sono due delle tre coniche degeneri, il cui supporto rispettivamente
costituito da
ABUCD,

allora F1

= F(C1,C2)

(Figura 12.2).

ACUBD,

ADUBC,

il cui supporto costituito da BD U AC.


Il fascio F 1 costituito dalle coniche passanti per A, B, C, D ha quindi equazione omogenea:

Fasci del 11 tipo. L 'insieme delle coniche passanti per tre punti distinti A, B, C,
non allineati, di E2 ed aventi quale tangente in A una fis sata retta r, un fa scio di
coniche F 2 di t: 2 .
Inoltre, se C1 (risp. C2) la conica degenere il cui supporto costituito da AB U AC
(risp. r U BC), allora F2 = F(C1 , C2) (Figura 12.3) .

246

12. ELEMENTI DI TEORIA DELLE CONICHE E DELLE QUADRICHE

5. LE QUADRICHE DELLO SPAZIO EUCLIDEO

247

r
Figura 12.4
Figura 12.3
Esempio 12.13. Nel completamento proiettivo del piano euclideo & 2
un riferimento cartesiano R - siano dati, ad esempio, i punti
Esempio 12.12. Nel completamento proiettivo del piano euclideo [
un riferimento cartesiano R - siano dati, ad esempio, i punti

2 -

A =n [1, 1, O],

in cui fissato

B =n [1, O, 1],

in cui fissato

B =n [1,0,1]

e le rette
r : Xo - X1

A =n [1, 1, O],

= o,

s : Xo - X2

= o.

Una volta verificato che A Er e BE s, si considerino la conica (degenere) C1 di equazione


omogenea

C =n [1, - 1, O]

e la retta r : xo - x 1 = O.
Una volta verificato che A, B, C non sono allineati e che A E r, si considerino la conica
{degenere) C1 di equazione omogenea

il cui supporto costituito da ACUAB, e la conica (degenere) C2 di equazione omogenea

(xo - x1)(xo - x2)

( -Xo + X1 + X2)

0,

il cui supporto coincide con la retta AB (co~tata due volte) .


Il fascio F 3 costituito dalle coniche passanti per A, B e tangenti in A ad r e in B ad s
ha quindi equazione omogenea:

F3 : >.(xo - x1)(xo -

il cui supporto costituito da r U BC.


Il fascio F2 costituito dalle coniche passanti per A, B, C e tangenti in A ad r ha quindi
equazione omogenea :

o.

= O,

il cui supporto costitu ito da r U s, e la conica (degenere) C2 di equazione omogenea

x2) + (-xo + x1 + x2)

= O.

5. Le quadriche dello spazio euclideo


Nel presente paragrafo, estenderemo alla dimensione tre i concetti e i risultati esposti
nel 2 per la dimensione d ue. Supponiamo dunque che & 3 sia uno spazio euclideo di
dimensione tre, in cui fissato un riferimento cartesiano R = (O , B).

Fasci del Ill 0 tipo.


L 'insieme delle coniche passanti per due punti distinti
A, B E [ 2 , ed aventi quale tangente in A una fi ssata retta r e quale tangente in
Buna fissata retta s (con r i- s), un fascio di coniche F 3 di [ 2 .

+Definizione 12.16. Considerata una generica equazione algebrica di secondo grado


nelle coordinate x, y e z:

Inoltre , se C1 (risp. C2) la conica degenere il cui supporto costituito dalla retta
AB, "contata due volte" (risp. dar U s), allora F 3 = F(C 1 , C2 ) (Figura 12.4) .

diremo che tale equazione rappresenta, rispetto al riferimento cartesiano R , una


quadrica dello spazio euclideo [ 3 .

(*)

2
2
2
aux +a22y +a33 z + 2a12xy+2a13xz+2a23yz +2ao1 x+ 2ao2Y+2ao3z+aoo

=O,

248

12. ELEMENTI DI TEORIA DELLE CONICHE E DELLE QUADRICHE

Inoltre, diremo che due equazioni a 11 x 2 + a22Y 2 + a33Z 2 + 2a12XY + 2a13XZ + 2a23yz+
+2a01x+2ao2y+2a0 3z+a00 =O e a~ 1 x 2 +a~ 2 y 2 +a; 3 z 2 +2a~ 2 xy+2a~ 3 xz+2a~ 3 yz+
+2a~ 1 x + 2a~ 2 y + 2a~ 3 z + a~ 0 = O rappresentano, rispetto ad R, la stessa quadrica
di [ 3 se e soltanto se esiste >. E JR. - {O} tale che a~i = >. aii Vi, j E {O, 1, 2, 3}.

5. LE QUADRICHE DELLO SPAZIO EUCLIDEO

249

riferimento cartesiano R la matrice simmetrica7


ao1 ao2
a11
a12 a13
A= ao1
ao2 a12 a22 a23
ao3 a13 a23 a33

"")

C"

E S4(JR.)

Si noti che, in base alla Definizione 12.16, ogni quadrica Q di [ 3 rappresentata rispetto ad R - da infinite equazioni algebriche di secondo grado, tutte proporzionali
tra di loro; usualmente, si dice che l'equazione di Q rispetto ad R definita a meno
di un coefficiente di proporzionalit (non nullo) .
Le quadriche sono dunque il corrispondente tridimensionale delle coniche del piano
euclideo [ 2 . Pertanto, possono essere estese alle quadriche molte delle definizioni date
per le coniche nel 2.

Tramite la matrice associata a Q, possibile scrivere in forma matriciale le equazioni


(*) e (**) di Q :

(*)

(1

+ Definizione 12.17. Data una quadrica Q di [ 3 di equazione (*), si dice supporto


proprio (o immagine propria) di Q l'insieme Ip(Q) dei punti dello spazio [ 3 le cui
coordinate - rispetto ad R - verificano una (e quindi tutte) le equazioni di Q :
Ip(Q) = {P =n (x, y, z) I a 11 x 2 + a22Y 2 + a33z 2 + 2a12XY + 2a13xz + 2a23yz +
+ 2ao 1x + 2ao2Y + 2ao3z + aoo =O}.

(**)

(xo

Si noti che, come per le coniche, l'immagine Ip(Q) non in generale sufficiente ad
individuare la quadrica Q.
Se si suppone di ampliare proiettivamente lo spazio euclideo E3 , denotando con
[xo, x 1, x 2, x 3] una quaterna di coordinate cartesiane omogenee dei suoi punti (propri
ed impropri) rispetto al riferimento cartesiano R, allora la equazione (*) origina, in
coordinate omogenee, la equazione omogenea della quadrica Q, che si pu scrivere
sinteticamente come:
aijXiXj

0.

i,j=O

+Definizione 12.18. Data una quadrica Q di [ di equazione omogenea(**), si dice


supporto improprio (o immagine impropria) di Q l'insieme I 00 ( Q) dei punti impropri
dell'ampliamento proiettivo di [ 3 le cui coordinate cartesiane omogenee - rispetto ad
R - verificano una (e quindi tutte) le equazioni omogenee di Q :
2
2
2
Ioo(Q) = {Poo =n [O, X1,x2,x3] I a11(x1) + a22(x2) + a33(x3) +
+ 2a12X1X2 + 2a13X1X3 + 2a23X2X3 =O}.

Si dice poi supporto (o immagine) di Q l'insieme


I(Q)

X1

z)

X2

A ~o
x,)

t(u) A (u)

(o, pi sinteticamente,

A(~1) ~O

(o, pi sinteticamente,

t(x)A-(x)

O);

o) .

La proposizione seguente ci permette di sapere, in perfetta analogia a quanto visto


per le coniche, come cambia la .matrice associata ad una quadrica (e quindi, anche
la sua equazione e la sua equazione omogenea) al variare del sistema di riferimento
fissato .
Proposizione 12.24. Sia Q una quadrica di [ 3 avente, rispetto al riferimento
cartesiano R, matrice associata A E S4(JR.). Se R' un altro riferimento cartesiano
su [ 3 , e

(~;) (:~d :~ d:~) (~) + (~~)


=

2.::::

z'

e~

b3

con

E =

(:~e~ e~:~ e~:~) E 03(lR.),

sono le equazioni del cambiamento di riferimento da R ad R', allora la quadrica Q


ha, rispetto ad R', matrice associata A' tale che

o o
A= tEA' E,

d
d

e~

e~
e~
e~

e~)
e~
e~

Dimostrazione. Si procede in modo perfettamente analogo a quanto fatto per dimostrare la Proposizione 12. 7
D

= Ip(Q) Uioo(Q).
~

Nel seguito, con abuso di linguaggio e per semplicit di notazioni, identificheremo


spesso la conica con il suo supporto.

Osservazione 12.12. Con le notazioni della Proposizione 12.24 e in totale analogia


con l'Osservazione 12.7, dalla ortogonalit di E segue det A = det A'. Si ricordi
tuttavia che anche la matrice A' associata a Q rispetto ad R' risulta definita a meno
di un coefficiente di proporzionalit non nullo.

+ Definizione 12.19. Data una quadrica Q di E3 di equazione (*) (o di e uazione


omogenea (**)), si dice matrice associata a Q (o discriminante di Q) rispetto al

7Si noti che anche la matrice associata a Q, come l'equazione e l'equazione omogenea, risulta
definita a meno di un coefficiente di proporzionalit. non nullo.

250

12 . ELEMENTI DI TEORIA DELLE CONICHE E DELLE QUADRICHE

.,. Osservazione 12.13. Anche per le quadriche, come per le coniche, possono essere
fatte le considerazioni riportate nella Osservazione 12.8, semplicemente sostituendo
~ 3 con ~4 . Pertanto, l'ambiente pi opportuno per definire le quadriche appare essere
l'ampliamento proiettivo dello spazio euclideo e, in tale contesto, una quadrica risulta
individuata da una classe di proporzionalit di forme quadratiche.
Dalla Proposizione 12.24 si deduce la seguente proposizione, la cui dimostrazione
perfettamente analoga a quella della Proposizione 12.8.
Proposizione 12.25. Tutti i discriminanti di una stessa quadrica Q hanno lo
stesso rango.

Per rango e( Q) di Q si intender il rango di un suo qualsiasi discriminante.

+Definizione 12.20. Una quadrica Q di t: 3 si dice non specializzata o non degenere


se e( Q) = 4. In caso contrario, si dice che Q una quadrica specializzata o degenere
di E3. Le quadriche di rango 1 o 2 sono anche dette riducibili.
Quindi, se A un discriminante di Q, si ha che Q degenere se e solo se det A = O.
.,. Osservazione 12.14. Non difficile verificare che noti sottoinsiemi dello spazio
euclideo (in particolare: piani e unioni di due piani) risultano essere il supporto di
opportune quadriche riducibili:
se 7r un piano di E3 avente equazione omogenea ax 1 + bx 2 + cx3 + dx 0 = O
rispetto ad un fissato riferimento cartesiano R, allora
(ax1 + bx2 + cx3 + dxo) 2 =O
la equazione di una quadrica riducibile Q di E3, il cui supporto I( Q)
costituito da tutti e soli i punti del piano 7r (che si dice "contato due volte");
se 7r e 7r 1 sono due piani distinti di E3 aventi rispettivamente equazioni omogenee a' X1 + b' X2 + c' x3 + d' xo = O e a" x1 + b" x2 + c" X3 + d" xo = O rispetto
al riferimento cartesiano R, allora

(a'x1

+ b'x2 + c'x3 + d'xo)

(a"x1

+ b"x2 + c"x3 + d"xo)

=O

la equazione di una quadrica riducibile Q di E3, il cui supporto I( Q)


costituito da tutti e soli i punti dei piani 7r e 7r 1
In realt tali sottoinsiemi, uniti alle singole rette di E3, esauriscono tutti i possibili
supporti di una quadrica riducibile dello spazio euclideo. infatti possibile dimostrare
che, se Q una quadrica riducibile di E3, allora verificata una (ed una sola) delle
seguenti affermazioni:
esiste un piano (proprio o improprio) 7r di E3 tale che I( Q) = 7rj
esistono due piani distinti 7r e 7r 1 di E3 (di cui uno eventualmente coincidente
con il piano improprio), tali che I( Q) = 7r U 7r 1 ;
esiste una retta (propria o impropria) re E3 tale che I(Q) = r.
Nel primo caso si ha e(Q) = 1, mentre nel secondo e nel terzo caso si ha e(Q) = 2.
Se invece Q una quadrica di E3 avente rango 3, allora verificata una (ed una sola)
delle seguenti affermazioni:

5. LE QUADRICHE DELLO SPAZIO EUCLIDEO

251

I( Q) una unione di rette, dette generatrici di Q, passanti per un punto V


(proprio o improprio) detto vertice di Q;
esiste un punto (proprio o improprio) V E E3, detto vertice di Q, tale che
I(Q) = {V}.
Le quadriche degeneri di E3 aventi rango 3 sono dette coni (risp. cilindri) se il vertice
proprio (risp. improprio). Si ricordi, in questo contesto, la genesi storica del termine
"coniche" attribuito alle curve di un piano euclideo che risultano dall'intersezione di
tale piano con un cono (4 del Capitolo 10, Figura 10.5).
Le quadriche si suddividono innanzitutto in reali, se I(Q) i- 0, o vuote (o immaginarie), se I(Q) = 0. Si osservi che una quadrica degenere sempre reale.
Come per le coniche di E 2, per distinguere le quadriche reali da quelle immaginarie
si pu osservare che Q reale se e solo se un suo qualunque discriminante A non
definito (Definizione B.4) ed applicare quindi il Criterio di Sylvester (Proposizione
B.9). In alternativa, si pu attendere la Proposizione 12.35.
Esaminiamo ora le intersezioni di I( Q) con rette e piani di E3.
Proposizione 12.26. Se Q una quadrica di E3 ed r una retta (propria o
impropria) di E3 non contenuta nel supporto di Q, allora l'intersezione dir con Q
costituita da uno dei seguenti sottoinsiemi di E3 :
- due punti distinti;
- un solo punto;
- l'insieme vuoto.

Dimostrazione. Se r una retta propria, si pu supporre che r sia l'asse x di un


riferimento cartesiano R, ovvero la retta rappresentata dalle equazioni omogenee x 2 =
Oe X3 = O. Se A un discriminante di Q rispetto ad R, allora i punti di intersezione di
r con Q hanno coordinate cartesiane omogenee [xo, x 1, O, O] che verificano l'equazione
di secondo grado:

(#)
Poich r non contenuta in Q, 1'equazione ( #) non pu essere identicamente soddisfatta (cio i coefficienti ao 0 , a 01 , a 11 non possono essere tutti nulli): dunque, supponendo
di ricavare una incognita in funzione dell'altra, l'equazione (#) ammette due, una o
= (ao 1) 2 - aoo a 11 sia rispettivamente positivo,
zero soluzioni reali a seconda che
nullo o negativo. Un analogo ragionamento prova l'enunciato nel caso in cui r sia una
retta impropria, scegliendo il riferimento cartesiano R in modo che r sia rappresentata
dalle equazioni omogenee xo = O e X3 = O.

-i

+Definizione 12.21.

Sia Q una quadrica di E3 ed r una retta di E3. Si dice che:


(a) r tangente a Q se l'intersezione di r con Q costituita da un solo punto
oppure se r contenuta nel supporto di Q;
(b) r secante Q se l'intersezione dir con Q costituita da due punti distinti;
(c) r esterna a Q se l'intersezione dir con Q vuota.

.252

12. ELEMENTI DI TEORIA DELLE CONICHE E DELLE QUADRICHE

Osservazione 12.15. Data una quadrica Q di &3 , l'intersezione del supporto di Q


con un qualsiasi piano (proprio o improprio) 7r di &3 il supporto di una conica di 7r,
che sar indicata con Q n 7r. In particolare, il supporto improprio I 00 (Q) supporto
della conica Q 00 = Q n 7r00 , intersezione di Q con il piano improprio 7r 00 di &3 ; Q 00
sar detta anche conica impropria o conica all'infinito di Q.
Se 7r un piano proprio, la propriet pu essere facilmente verificata scegliendo il
riferimento
in modo che l'equazione di 7r sia X3 = O; se infatti A un qualunque
discriminante di Q rispetto ad n, il supporto di Q n 7r costituito dai punti di &3
le cui coordinate cartesiane omogenee [x 0 , x 1, x 2 , O] soddisfano l'equazione di secondo
grado omogenea di pagina 225:

au (x1) +a22(x2) 2+2a12x1x2+2ao1xox1 +2ao2xox2+aoo(xo) 2 =O.

(**)

253

5. LE QUADRICHE DELLO SPAZIO EUCLIDEO

solo se la quaterna (y0 , y1, y2, y3) soddisfa la condizione

(~~)

p(

~).

oon p

Tale condizione, fissato p =f. O, costituisce un sistema lineare normale e ammette


dunque una ed una sola soluzione (non nulla); inoltre, al variare di p =f. O, si ottengono
come soluzioni quaterne proporzionali.
L'Osservazione 12.17 consente di dare la seguente:

+Definizione 12.23. Sia Q una quadrica non degenere di &

Se invece 7r il piano improprio 7r00 , avente equazione xo =O rispetto ad un qualunque


riferimento cartesiano di & 3 , un analogo ragionamento prova che il supporto improprio
Ioo ( Q) supporto della conica impropria di Q, il cui discriminante costituito dal
minore complementare M 00 dell'elemento a00 nella matrice A.

+Definizione 12.22.

Sia Q una quadrica non degenere di & 3 e

7r

, avente A come matrice


associata rispetto al riferimento cartesiano n. Se P =R [yo, yi, y2, y3] un punto
(proprio od improprio) di &3 , si dice piano polare 7r p di P rispetto alla quadrica il
piano (proprio o improprio) di equazione omogenea

un piano di & 3 . Si

dice che:
(a)
(b)
(c)

7r
7r
7r

tangente a Q se Q n 7r una conica degenere;


secante Q se Q n 7r una conica non degenere reale;
esterno a Q se Q n 7r una conica (non degenere) vuota.

Osservazione 12.16. Se il piano 7r tangente a Q, allora la conica (degenere)


intersezione Q n 7r ha rango 2 : il suo supporto pertanto costituito da un solo punto
o dalla unione di due rette distinte.
Infatti. con le notazioni dell'Osservazione 12.15, un discriminante di Qn7r un minore
di ordine tre del discriminante A di Q. Poich Q non degenere, si ha l?(A) = 4; d'altra
parte, se M un minore di ordine n - 1 in una matrice A di ordine n, si ha

Per l'Osservazione 12.17, l'applicazione 7r che a P associa 7rp una biiezione tra i
punti del completamento proiettivo P 3 dello spazio euclideo e i suoi piani. In altri
termini, per ogni piano 7r (proprio o improprio) di &3 , esiste uno ed un solo punto P
(proprio od improprio), il cui piano polare sia 7r. Tale punto detto polo di 7r.
Si osservi che P E 7rp se e solo se P E I(Q).
Esempio 12.14. Consideriamo, nello spazio euclideo &3 , dotato di un riferimento
cartesiano n, la quadrica avente equazione:
Q1 :

t?(M) 2:: l?(A) - 2.


Dunque la conica Q n 7r ha rango 2.
Osservazione 12.17. Si ricordi che, se A E GL4(IR), il sistema lineare normale
A (y) = (O) ammette come soluzione solo la quaterna nulla. Pertanto, se Q
una quadrica non degenere di &3 , A un suo discriminante rispetto ad n e P =R
[yo, Yi, Y2, y3] un punto (proprio od improprio) di & 3 , l'uguaglianza

Un discriminante di Q1 , rispetto ad

n,

o o
1 o
o -8
o 4

~);

-2

poich det A 1 = 8 =f. O, la quadrica Q 1 non degenere. Rispetto a Q 1 , il piano polare


del punto p =.R [1, 1, 0, 1] ha, relativamente ad 1?,, equazione omogenea

(xo
costituisce un'equazione lineare omogenea in cui i coefficienti delle incognite x 0 , x 1 , x 2 ,
X3 non sono tutti nulli e rappresenta quindi un piano di &3 . Inoltre, il generico piano
di equazione ax 1 + bx 2 + cx 3 + dx 0 = O coincide con il piano di .equazione (%) se e

x 2 - 8y 2 + 8yz - 2z 2 + 2z = O

o o
1 o
o -8
o 4

JJ m~o,

cio

Se 7r il piano avente, rispetto ad n, equazione omogenea X3 = O, le coordinate omogenee del suo polo P', rispetto alla quadrica Q 1 , possono essere ottenute mediante il

254

12. ELEMENTI DI TEORIA DELLE CONICHE E DELLE QUADRICHE

(E) (~ ~ ~8 ~ (~~) (~)


= p

1 O

y3

-2

y3

e scegliendo, come valore non nullo di p, p = 1, si ottiene come soluzione del sistema
lineare normale (usando ad esempio le formule di Leibniz-Cramer) :

Yo

= 1,

Y1

= O,

Y2

= O,

Il polo di 7r dunque il punto P' =n [1, O, O, O].


Si noti che si ha P <f. 7rp, mentre P' E 1fp1; infatti,

Y3

= O.

(Q

E 7rp

[y0 , y 1 , y 2 , y 3 ]

<=> t(z) A (y) = O)

e Q =n
e

[zo, z1, z2,

(P E

Osservazione 12.19. Si noti che, se P non appartiene al supporto I(Q), allora il


piano polare 7r p di P rispetto a Q interseca I( Q) nei punti di contatto tra la quadrica
e le (eventuali) rette tangenti alla quadrica passanti per P.

7rQ

+ z)-

A (>.y

<=> t(y) A (z) = O).

+ z) =

Le quadriche reali possono essere suddivise in base alla seguente

+ Definizione 12.24.

Un punto P E I(Q) detto:

iperbolico se il supporto della conica Q n 7rp formato da due rette distinte


la cui intersezione P;
ellittico se il supporto della conica Q n 7rp costituito dal solo punto P.

Lemma 12.28. Se una quadrica non degenere Q di [ 3 ha almeno un punto ellittico


(risp. iperbolico), allora tutti i punti di Q sono di tipo ellittico (risp. iperbolico).

z3], allora si ha che:

La Legge di reciprocit segue quindi dalla simmetria della matrice A.


Supponiamo ora che P E I( Q); la retta r per P e per un secondo punto P' =/:- P risulta
tangente alla quadrica in P se e solo se P l'unico punto di intersezione trar e I( Q).
Se P =n [yo, y1, Y2, y3] e P' =n [zo, z1, z2, z3], allora tutti e soli i punti della retta r
hanno, rispetto ad R, coordinate cartesiane omogenee [>.y0 + zo, Y1 + z1, y2 +
z2, y3 + z3], al variare dei parametri reali (non entrambi nulli) >., (Proposizione
12.6); i punti di intersezione tra r e I( Q) corrispondono dunque alle soluzioni della
equazione di secondo grado
tp,y

12.18. Il piano polare 7rp di un punto P del supportoI(Q) l'unico


piano tangente a Q passante per P. Infatti, per la Proposizione 12.27, il supporto
della conica intersezione Qn7rp costituito dal solo punto Po da un'unione di rette:
dunque Q n 7rp degenere e 7rp un piano tangente a Q (Definizione 12.22(a)). Se .
poi 7r 1 un piano tangente a Q passante per P, allora la conica intersezione Q n 7r 1
costituita da un solo punto o dall'unione di due rette r ed s (Osservazione 12.16).
Sia dunque P' un punto di 7r 1 diverso da P: se P' E r U s la retta P P' contenuta
in I(Q), altrimenti PP' interseca I(Q) nel solo punto P, ed dunque , in ogni caso,
tangente a Q in P. Quindi 7r 1 = 7rp (Proposizione 12.27).

P <f. I(Q 1 ), mentre P' E I(Qi).

Proposizione 12.27. Sia Q una quadrica non degenere dello spazio euclideo, e
siano P, Q due punti di [ 3 . Si ha che:
Q E 7rp se e solo se P E 7rQ (Legge di reciprocit)
Se P un punto del supporto I(Q), allora il piano polare 7rp di P rispetto
a Q costituito da tutti e soli i punti P' di t: 3 tali che la retta per P e P'
tangente a Q in P.
Dimostrazione. Se P =n

255

~Osservazione

procedimento descritto nell'Osservazione 12.17. Posto infatti

Ai .

5. LE QUADRICHE DELLO SPAZIO EUCLIDEO

O,

che equivale a

>. 2 \y)A(y)+2>.t(z)A(y)+ 2 t(z)A(z) =O.


La ipotesi P E I( Q) assicura che il coefficiente di >. 2 sempre nullo. Se l'equazione
ha anche gli altri due coefficienti nulli, allora soddisfatta per ogni coppia (>., ),
e dunque r contenuta in I(Q); in caso contrario, l'equazione ammette una sola
soluzione (corrispondente alla coppia (>., ) = (1, O), ovvero al punto di tangenza P)
se e soltanto se anche il coefficiente di >. si annulla. Ci implica che r tangente alla
quadrica se e soltanto se
t(z)A(y) =O,
cio se e soltanto se il punto P' appartiene al piano polare 7rp di P.

Dimostrazione. Supponiamo che Q ammetta un punto P di tipo ellittico ed un punto

Q di tipo iperbolico. Da ci si ricava che I(Q) n7rp = {P}, mentre I(Q) n7rQ = rUs,
essendo r ed s due rette distinte, aventi Q quale intersezione.
Poich Q <f. 7rp, ne consegue che (rus)n7rp = (rn7fp )U(sn7rp) costituito da almeno
due punti. Pertanto I( Q) n 7r p non pu ridursi al solo punto P, contro l'ipotesi che
P sia di tipo ellittico.

Come conseguenza del Lemma 12.28, le quadriche reali risultano suddivise in iperboliche o doppiamente rigate (in cui ogni punto iperbolico) ed in ellittiche o non
rigate (in cui ogni punto ellittico).
Proveremo in seguito (Proposizione 12.36) che il segno del determinante di qualunque
matrice associata alla quadrica Q permette di distinguere direttamente a quale di
queste due classi appartenga Q.
Una diversa classificazione delle quadriche non degeneri di t: 3 si effettua - come per
le coniche - in base al loro comportamento rispetto al piano improprio 7r 00 di E3 .

+ Definizione 12.25.

Una quadrica non degenere Q di [ 3 si dice:

(a) paraboloide se 7r 00 tangente a Q, ovvero se la conica impropria Q 00 una


conica degenere (del piano improprio);
(b) ellissoide se 7r 00 esterno a Q, ovvero se la conica impropria Q 00 una
conica non degenere ma vuota (del piano improprio) ;

256

12.

ELEMENTI DI TEORIA DELLE CONICHE E DELLE QUADRICHE

(c) iperboloide se 7r00 secante Q, ovvero se la conica impropria Q00 una conica
non degenere e non vuota (del piano improprio). 8
La seguente proposizione fornisce le condizioni algebriche su A 00 (il complemento
algebrico dell'elemento a 00 nella matrice A) per distinguere paraboloidi, ellissoidi ed
iperboloidi.

Proposizione 12.29. Sia Q una quadrica non degenere di E3 avente, rispetto al


riferimento cartesiano R, matrice associata A E S 4 (JR) {con det A i- O} . Si ha che:
(a) Q un paraboloide se e soltanto se Aoo =O;
(b) Q un ellissoide se e soltanto se Aoo diverso da zero e concorde con a 33 ,
.
( a22 a23) h a d et erminante
.
.
ed i.l suo minore
posi.tivo;
a23 a33
(c) Q un iperboloide se e soltanto se Aoo i- O, ma non verifica contemporaneamente le ulteriori due condizioni richieste al punto {b).

Dimostrazione. Basta osservare che M 00 il discriminant e della conica impropria


Q n 7roo, e ricordare le condizioni che caratterizzano le matrici delle coniche degeneri
(cio il fatto di avere determinante nullo, in base alla Definizione 12. 7) e quelle delle
coniche vuote (si veda la Proposizione 12.18) .

257

5. LE QUADRICHE DELLO SPAZIO EUCLIDEO

poich det A 2 = -15


det Moo

> O,

a33

i=

O, la quadrica Q2 non degenere . In particolare, essendo


22
2 > O e det ( a
=
> O, la quadrica Q2
a23

:~:)

I~

;1

risulta essere un ellissoide.


Un discriminante di Q 3, rispetto ad R,

1
-2

-2
1

poich det A 3 = 24 i- O, la quadrica Q 3 non degenere. In particolare, essendo


det M 00 = -3 < O e a 33 = 1 > O, la quadrica Q3 risulta essere un iperboloide.
Un discriminante di Q 4 , rispetto ad R,

o o
1
4

16

o o
poich det A 4 = O, la quadrica Q 4 una quadrica degenere (o specializzata) .

+Definizione 12.26.
Esempio 12.15. Consideriamo, nel lo spazio euclideo E3 , dotato di un riferimento
cartesiano R , le quadriche aventi le seguenti equazioni:
2
Q : x - 8y 2 + 8yz - 2z 2 + 2z = O

Sia Q una quadrica non degenere di E3 .


Si dice piano diametrale di Q ogni piano proprio che sia piano polare di un punto
improprio di E3 .
Si dice centro di Q il polo del piano improprio 7r00 .

+ 2y 2 + 2yz + 2z 2 - 6y - 6z + 1 =O
2
2
2
x + y + z - 4xy + 6z + 1 = O
2
2
x + 16y + 4z 2 + 8xy + 4z + 2 =O

Q2 : x
Q3 :
Q4

Come gi verificato nell'Esempio 12.14, la quadrica Q 1 non degenere (perch detA 1


8 i- O). In particolare, essendo

Aoo = det Moo

o
o

-8
4

4
-2

A2

Dimostrazione. Si procede in modo perfettamente analogo a quanto fatto per dimostrare la Proposizione 12.12.

-3
-3

-3

o
o

2
1

e
o

Proposizione 12.30. Sia Q una quadrica non degen ere di E3 avente, rispetto al
riferimento cartesiano R , matrice associata A E S4(JR). Il centro di Q il punto C
avente come quaterna di coordinate omogenee la quaterna dei complementi algebrici
della prima riga di A:

o,

la quadrica Q 1 risulta essere un paraboloide.


Un discriminante di Q 2, rispetto ad R,

Come ovvia conseguenza della Proposizione' 12.27 (Legge di reciprocit), si ha che


tutti i piani diametrali contengono il centro di Q.

~l
1
2

'

Si noti che i paraboloidi e gli iperboloidi sono sempre quadriche reali, e si suddividono nelle
due sottoclassi "ellittici" ed "iperbolici", mentre gli ellissoidi possono essere reali (se I( Q) f 0) o
immaginari (se I(Q) = 0).

Si osservi che, come conseguenza delle Proposizioni 12.29 e 12.30, si ha che:


se Q un paraboloide, il suo centro
direzione del vettore

e il punto improprio individuato dalla

v =;J (Ao1, Ao2, Ao3),


ed i suoi piani diametrali sono tutti paralleli a v ;

258

12. ELEMENTI DI TEORIA DELLE C ONICHE E DELLE QUADRICHE

se Q un iperboloide o un ellissoide, il suo centro il punto proprio di


coordinate cartesiane

C =n

(Ao1,
Ao2, Ao3 ) .
Aoo Aoo Aoo

Le quadriche aventi centro proprio (cio iperboloidi ed ellissoidi) sono usualmente


dette quadriche a centro.

Esempio 12.16. Nel caso del paraboloide Q1 considerato nell'Esempio 12.15, il centro
risulta avere coordinate omogenee C 1 =n [O , O, 4, 8], cio il punto improprio individuato
dalla direzione del vettore
V

=1dO, 1, 2) .

Nel caso dell'ellissoide Q2 considerato nell'Esempio 12.15, il centro risulta avere coordinate
omogenee C 2 =n [3 , O, 3, 3], cio il punto proprio di coordinate cartesiane

C2 = n (O, 1, 1).
Nel caso dell'iperboloide Q3 considerato nell'Esempio 12.15, il centro risulta avere coordinate omogenee C 3 = n [-3, O, O, 9], cio il punto proprio di coordinate cartesiane

C3 =n (O, O, -3).

+Definizione 12.27. Sia Q una quadrica non degenere di [ 3 . Si dice piano principale
di Q ogni piano diametrale 7r p 00 di Q che sia ortogonale alla direzione individuata dal
suo polo P00 .
Si dice asse di Q ogni retta di [ 3 che sia intersezione di due piani principali di Q.9
Si dice vertice di Q ogni punto di intersezione del supporto proprio Ip ( Q) con un asse
di Q.
Si noti che i piani principali di Q, essendo particolari piani diametrali, contengono
sempre il centro di Q; di conseguenza, anche gli assi di Q contengono il centro di Q.
La seguent e proposizione fornisce il metodo operativo per trovare i piani principali (e
quindi gli assi e i vertici) di una quadrica.
Proposizione 12.31. Sia Q una quadrica non degenere di [ 3 avente, rispetto
al riferimento cartesiano R , matrice associata A E S 4 (!R) ; sia Mao il minore complementare dell 'elemento a00 in A. I piani principali di Q sono i piani polari dei
punti impropri di [ 3 individuati dalle direzioni degli autovettori di M 0 o, relativi ad
autovalori non nulli.
9Poich due piani principali 7rp
e 7rp2 00 non possono essere paralleli (dovendo essere rispet1 00
tivamente ortogonali a i due p unt i impropri distinti P1 00 e P2 00 ), gli assi di una quadrica sono rette
proprie di E 3 .

5. LE QUADRICHE DELLO SPAZIO EUCLIDEO

259

Dimostrazione. Si procede in modo perfettamente analogo a quanto fatto per dimostrare la Proposizione 12.14.

o
Si noti che, poich Mao E S3(!R), essa ammette sempre t re autovalori, eventualmente
coincidenti, con somma delle molteplicit geometriche uguale a tre (Teorema 7.14).
Inoltre, dalla Legge di reciprocit segue facilmente che il piano tangente ad una
quadrica Q in un suo vertice V ortogonale all'asse contenente V: infatti, detto
r = 7rp1 00 n 7rp2 00 l'asse contenente V (con 7rp1 00 e 7r p 200 piani principali per Q) , la
Legge di reciprocit assicura che P 100 , P2 00 E nv , e quindi che il piano polare di V
(ovvero il piano tangente in V a Q) contiene nella sua giacitura le direzioni dei punti
impropri P 100 e P2 00 (che, per definizione di piano principale, sono ortogonali alla
direzione dell'asse).
Come conseguenza delle Proposizioni 12.29 e 12.31, si ottiene poi il seguente risultato,
relativo alla esistenza di piani principali e di assi per i vari tipi di quadriche non
degeneri.
Proposizione 12.32. Sia Q una quadrica non degenere di [ 3 .
Se Q una quadrica a centro, esistono sempre almeno tre assi (risp. tre
piani principali} di Q, a due a due ortogonali, che si intersecano nel centro
di Q;
se Q un paraboloide, esso ammette almeno due piani principali tra loro
ortogonali, un solo asse ed un solo vertice.

Dimostrazione. Per la Proposizione 12.31, ogni classe di proporzionalit di autovettori


della matrice Mao E 3(JR), relativi ad un autovalore non nullo, individua un piano
principale della quadrica Q.

Nel caso che Q sia una quadrica a centro, la matrice M 00 non pu ammett ere
l'autovalore nullo (essendo det Mao i- O) .
Se Mao ha una terna di autovalori distinti (non nulli), allora esistono esattamente tre
punti impropri P100, P200 e ?300 i cui piani polari 7r p 100 , 7r p 200 e 7r p 300 sono gli unici
piani principali di Q. Inoltre, scelta arbitariamente una coppia di tali punti impropri,
ad esempio P1 00 e P2 00 , l'intersezione dei rispettivi piani polari 7r p 1 00 e 7r p 2 00 un
asse a di Q : il piano polare del suo punto improprio A 00 , per la Legge di reciprocit,
contiene P1 00 e P2 00 (aventi ciascuno direzione ortogonale ad A 00 ) e quindi, essendo
un piano proprio ortogonale alla direzione del suo polo, coincide con il terzo piano
principale 7r p 3 00 Ci prova che i tre piani principali sono a due a due ortogonali e che
la quadrica Q ha esattamente tre assi, a due a due ortogonali.
Supponiamo invece che Mao abbia due autovalori distinti 1 e 2 , con 1 di molteplicit due. Se P 100 e P2 00 sono i punti impropri individuati da una coppia di autovettori
indipendenti relativi a i, e 7rp100 e 7rp200 sono i loro piani polari (principali), allora
ogni altro autovettore relativo a 1 determina un piano polare (principale) appartenente al fascio di piani di asse a= 7rp1 00 nnp200 (Definizione 11.4 e Proposizione 11.7) .
Inoltre, il piano polare del suo punto improprio A 00 , per la Legge di reciprocit, contiene P 100 e P2 00 e quindi, essendo un piano proprio ortogonale alla direzione del suo
polo, coincide con l'unico piano principale 7rp300 individuato dagli autovettori (tra

260

12. ELEMENTI DI TEORIA DELLE CONICHE E DELLE QUADRICHE

loro proporzionali) relativi a .X 2 . Scegliendo una coppia 7r 1 , 7r 11 di piani (principali)


ortogonali nel fascio di asse a, i piani 7f 1 , 1f 11 e 7f p 300 costituiscono una terna di piani
principali di Q a due a due ortogonali, le cui intersezioni forniscono una terna di assi
di Q, a due a due ortogonali.
Se infine Moo ha un unico autovalore di molteplicit tre, allora gli autovettori di M 00
ad esso associati individuano tutti i punti impropri di E3 : tutti i piani diametrali
risultano quindi essere principali e tutte le rette per il centro sono assi di Q.
Nel caso che Q sia un paraboloide, la matrice Moo (avendo det M 00 =O) ammette
sicuramente l'autovalore nullo, con molteplicit uno (perch, se tale molteplicit fosse
maggiore di uno, la matrice A non potrebbe essere regolare).
Se Moo ammette due autovalori non nulli distinti, allora esistono esattamente due
punti impropri P1 00 e P2 00 i cui piani polari 7fp100 e 1fp200 sono gli unici piani principali
di Q. Inoltre, il centro improprio C00 di Q appartiene al piano 7fp100 (risp. 1fp200 ), per
cui ortogonale alla direzione ortogonale P 100 (risp. P 200 ). Detta P00 la direzione
ortogonale a C00 su 7f p, 00 , il suo piano polare 7f p 00 , oltre a contenere C00 , contiene
P1 00 (per la Legge di reciprocit) ed dunque ortogonale al suo polo. P00 coincide
quindi con P2 00 e i due piani principali sono ortogonali: la loro intersezione l'unico
asse del paraboloide.
Se invece Moo ammette un unico autovalore non nullo di molteplicit due, allora gli
autovettori di Moo ad esso associati individuano un fascio di piani principali, il cui
asse l'unico asse di Q.
In ogni caso, quindi, un paraboloide ha un solo asse e almeno una coppia di piani
principali tra loro ortogonali. Infine, poich l'asse una retta propria contenente il
centro (improprio) di Q, esso non pu essere tangente a Q (apparterrebbe, in tal caso,
al piano improprio); pertanto, l'asse interseca il supporto I(Q) in un ulteriore punto
proprio V, che risulta essere l'unico vertice del paraboloide.

5. LE QUADRICHE DELLO SPAZIO EUCLIDEO

Esempio 12.17. Nel caso del paraboloide Q1 considerato nell'Esempio 12.15, gli
autovalori non nulli della matrice Moo sono 5.1 = -10 e 5.2 = 1, essendo

autovalori di molteplicit maggiore di uno. In particolare, la presenza di un autovalore


di Moo di molteplicit due (risp. tre) implica l'esistenza di una retta r, detta asse
di rotazione per Q (risp. di un punto e, coincidente con il centro della quadrica 10 ),
con la propriet che tutti i piani contenenti r (risp. C) sono piani principali per Q;
in questo caso la quadrica Q si dice quadrica di rotazione, perch ogni rotazione 11
attorno all'asse di rotazione (risp. attorno al centro) trasforma I(Q) in s.

t-1

det (
Gli autovettori relativi a

(T

5.1 =

~4)

= t(t - l)(t + 10).

t+8
-4 t+2

-10 sono i vettori (l, m, n) tali che

o
-2
-4

gli autovettori relativi a

5. 2 = 1 sono

invece i vettori (l, m, n) tali che

m=O
{ n=O.

owero

I poli dei piani principali di Q1 sono dunque i punti impropri P1 00 =n [O, O, -2, 1] e
=n [O, 1, O, O]; i piani principali di Q1 sono allora i piani 7fp100 e 1fp200 di equazione:

P 200

7f P 100

20y - lOz + 1 = 0

1fp200

L'(unico) asse del paraboloide Q1 dunque la retta r

20y - lOz
X= 0,

X=

= 7fp

100

0.

n 7fp200

di equazione

+1= O

ed il vertice (unico) di Q1 il punto V= r ( Ip(Q1), di coordinate cartesiane

(O, - 2~0' l~O) .

V =n

Esempio 12.18. Nel caso dell'ellissoide Q2 considerato nell'Esempio 12.15, gli autovalori
della matrice M 00 sono .X 1 = 3 e .X 2 = .X3 = 1, che si ottengono risolvendo la equazione
caratteristica
t-1
o

det (

~1 )

t-2
-1

= (t - 3)(t - 1) 2 =

o.

t-2

Gli autovettori relativi all'autovalore 1 sono i vettori (l, m, n) tali che

o
owero

-1
10In questo caso particolare (se il supporto di Q non vuoto) la quadrica Q risulta essere una
sfera: si veda anche la successiva Proposizione 12.39.
11
Si dice rotazione attorno ad una retta r, detta asse di rotazione (risp. attorno ad un punto C,
detto centro di rotazione), una isometria diretta dello spazio euclideo E 3 che lascia fissi tutti e soli i
punti dir (risp. che lascia fisso il solo punto C). Tali isometrie costituiscono l'analogo in dimensione
tre della rotazione attorno ad un punto del piano euclideo E 2 (Esempio 9.15).

l =o
{ m+2n =O;

owero

o
..,. Osservazione 12.20. Dalla dimostrazione della Proposizione 12.32 segue che una
quadrica a centro (risp. un paraboloide) Q ammette pi di tre (risp. pi di due)
piani principali se e soltanto se, in ogni matrice A associata a Q, il minore Moo ha

261

gli autovettori relativi all'autovalore

l =o
{ m-n =O;

sono invece i vettori (l, m, n) tali che

o
-1
-1

ovvero

m+n =O.

262

12. ELEMENTI DI TEORIA DELLE CONICHE E DELLE QUADRICHE

Sono dunque poli di piani principali di Q2 il punto improprio P 100 =-n [O, O, 1, l] e tutti i
punti impropri del tipo P00 =-n [O , l, m, -m], al variare di l, m E JR, con (l, m) =I= (O, O) ;
sono quindi piani principali di Q 2 il piano 7fp100 di equazione:
7fP100 :

e tutti i piani

7fp00

owero tutti i piani del fascio di piani di asse

r. {xy-z=O
=O

(asse di rotazione per Q2)

Esempio 12.19. Nel caso dell'iperboloide Q 3 considerato nell'Esempio 12.15, gli autovalori della matrice Moo sono >. 1 = 1, >. 2 = 3 e >. 3 = - 1, che si ottengono risolvendo la
equazione caratteristica

t-1

det (

2
t- 1

) = (t - l)(t + l)(t - 3) = o.

t-1

Gli autovettori relativi all'autovalore

>. 1 sono i vettori (l , m, n) tali che


ovvero

gli autovettori relativi all'autovalore

l =o
{ m=O;

Dimostrazione. Sia A= (iiij ) E S 4 (JR) il discriminante di Q rispetto ad

l +m =O
{ n=O;

ovvero

l -m =O
{ n =O.

I poli dei piani principali di Q3 sono dunque i punti impropri P 100 =-n [O, O, O, 1], P200 =-n
[O, 1, - 1, O] e P300 =-n [O, 1, 1, O]; i piani principali di Q3 sono allora i piani 7fp100 , 7fp200
e 7fp300 di equazione:
Z

+3= O

7f P200 :

X -

=Q

Gli assi di Q3 sono, evidentemente, le tre rette r =


t = 7fp2oo n 7fp3 oo di equazioni :
r:

{ z+3=0
x-y=O

7fp100

s: {z+ 3 =O

x+y=O

7f P 300 :

n 7fp200 ,
t:

X+ y = 0.
s

= 7fp100 n 7fp300

{ ::

~.

R.

(i) Se Q una quadrica a centro , i piani coordinati YZ, XZ, XY di R (aventi


rispettivamente equazione x 1 =O, x2 =O, X3 = O rispetto ad R) sono piani principali
della quadrica, e quindi devono coincidere con i piani polari delle loro direzione ortogonali P;, =-n_ [O, 1, O, O], PJ:, =-n_ [O, O, 1, O], P!, =-n_ [O, O, O, 1], aventi rispettivamente
equazione iio1xo + ii11x1 + ii12X2 + ii13X3 = O, iio2xo + ii12x1 + ii22X2 + ii23X3 = O,
iio3Xo + ii13X1 + ii23x2 + ii33X3 = O rispetto ad R. Ci implica che la matrice A di
tipo diagonale.

gli autovettori relativi all'autovalore >. 3 sono infine i vettori (l , m, n) tali che

Proposizione 12.33. Sia Q una quadrica non degenere di [ 3.


(i) Se Q una quadrica a centro, sia R il riferimento cartesiano avente origine
O coincidente con il centro di Q, ed assi coordinati X, Y e Z coincidenti
con una terna di assi, tra loro ortogonali, di Q. Allora, la matrice associata
a Q rispetto ad R risulta di tipo diagonale.
(ii) Se Q un paraboloide, sia R il riferimento cartesiano avente origine O
coincidente con il vertice V di Q, piano coordinato XY coincidente con il
piano tangente nel vertice a Q, e piani coordinati XZ e YZ coincidenti con
due piani principali, tra loro ortogonali, di Q. A llora, la matrice associata a
Q rispetto ad R risulta di tipo "semi-diagonale".

>. 2 sono i vettori (l, m, n) tali che


ovvero

1fp, 00

6. Riduzione a forma canonica delle quadriche

Le propriet del centro, degli assi e dei vertici, ottenute nel paragrafo precedente,
permettono, nei vari tipi di quadriche non degeneri, di potere scegliere sempre un
riferimento cartesiano rispetto al quale l'equazione della quadrica risulta particolarmente semplice. Infatti, la proposizione seguente afferma che, fissato opportunamente
il riferimento, la matrice associata o di tipo diagonale o di tipo "semi-diagonale"
(ovvero , una matrice D' = (d~.j ) E 5 4 in cui gli unici elementi non nulli sono d~ 1 , d~ 2
e d~ 3 = d; 0 ) .

l, m E JR, (l, m) =/= (O, O)

lx+m(y -z) =O,

263

Nel presente paragrafo, Q denoter sempre una quadrica non degenere dello spazio
euclideo [ 3 , dotato di un fissato riferimento cartesiano R = (O , B) .

y+z-2=0

di equazione:

7f p 00 :

6. RIDUZIONE A FORMA CANONICA DELLE QUADRICHE

(ii) Se Q un paraboloide, i piani coordinati YZ e XZ di R (aventi rispettivamente


equazione x 1 =O e x 2 =O rispetto ad R) sono piani principali della quadrica, e quindi
devono coincidere con i piani polari delle loro direzione ortogonali
=-n_ [O, 1, O, O] e
PJ:, =-n_ [O, O, 1, O], aventi rispettivament e equazione iio1 xo + ii11x1 + ii12X2 + ii13X3 = O
e iio2xo + ii12X1 + ii22X2 + ii23X3 = O rispetto ad R, mentre il piano coordinato XY
di R (avente equazione X3 = O rispetto ad R) deve coincidere con il piano polare del
vertice V =-n_ [1, O, O, O], avente equazione iiooxo + iio1x1 + iio2x2 + iio3X3 = O. Pertanto
si ha:

P;,

o
o

A=

ii~3

ii11

o
o

o
o

ii22

12. ELEMENTI DI TEORIA DELLE CONICHE E DELLE QUADRICHE

264

Infine, poich il centro del paraboloide il punto improprio dell'asse Z, P! =R


[O, o, o, 1], da Aoo = au . ii22 . a33 = o e Ao3 = -au . ii22 . ao3 =I- o segue a33 = O; ci
prova che la matrice A di tipo semi-diagonale.

6. RIDUZIONE A FORMA CANONICA DELLE QUADRICHE

(a 2 ) Se Q un paraboloide e det A > O, allora esiste un riferimento cartesiano


su E3 rispetto al quale Q assume equazione
x2

o
La proposizione seguente fornisce il metodo operativo per ottenere, a partire da
una qualunque matrice associata alla quadrica non degenere Q, una matrice di tipo
diagonale o semi-diagonale associata a Q.
Proposizione 12.34. Sia Q una quadrica non degenere di E3 e sia A un suo
discriminante, rispetto al riferimento cartesiano R.

=
(

x2

d'

x2

a2

o
o

Come conseguenza delle Proposizioni 12.33 e 12.34, si ottengono le cosiddette equazioni canoniche delle quadriche non degeneri di E3 :
Proposizione 12.35. Sia Q una quadrica non degenere di [ 3 e sia A una sua
matrice associata, rispetto al riferimento cartesiano R.
Se Q un paraboloide e det A < O, allora esiste un riferimento cartesiano
su E3 rispetto al quale Q assume equazione
y2

a~ b;

con a,b,c E JR+,

z2

a ~ b;

con a, b, c E JR+,

y2

z2

+ -b2 + 2c = 1

con a, b, c E JR+,

a ~ b ~ c;

(c 2 ) Se Q un ellissoide e det A > O, allora esiste un riferimento cartesiano su


[ 3

rispetto al quale Q assume equazione


x2

y2

z2

-;;} + b2 +-;?

= -1

a~ b ~c.

con a,b,c E JR+,

o
1

x2

y2

-;;} + b2 - -;? =

x2

Dimostrazione. Si procede, in modo perfettamente analogo a quanto fatto per dimostrare la analoga Proposizione 12.17, utilizzando le Proposizioni 12.24 e 12.33 e
l'Osservazione 12.12 (in sostituzione delle Proposizioni 12.7 e 12.16 e dell'Osservazione
12.7).

Z =a2- +b2
-

z2

(b 2 ) Se Q un iperboloide e det A > O, allora esiste un riferimento cartesiano


su E3 rispetto al quale Q assume equazione .

dove 1, 2 E JR sono i due autovalori non nulli (eventualmente coincidenti}


del minore Mao di A ed' E JR - {O} si ricava imponendo det D' = det A.

(a1)

y2

-;;} + b2 - -;? = -1

o o
o o

(~

con a,b E JR+;

(c 1 ) Se Q un ellissoide e det A< O, allora esiste un riferimento cartesiano su


[ 3 rispetto al quale Q assume equazione

dove 1, 2, .3 E JR sono i tre autovalori (non necessariamente distinti} del


minore Moo di A ed E JR - {O} si ricava imponendo det D = det A.
(ii) Se Q un paraboloide, allora una matrice di tipo ."semi-diagonale" associata
a Q

D' =

y2

= -a2 - -b2

(b 1 ) Se Q un iperboloide e det A < O, allora esiste un riferimento cartesiano


su [ 3 rispetto al quale Q assume equazione

(i) Se Q una quadrica a centro, allora una matrice di tipo diagonale associata
a Q
d

265

con a , b E JR+, a~ b;

Dimostrazione. Nel caso del paraboloide, innanzitutto si osservi (tramite la matrice


semi-diagonale D' associata) che >. 1 , 2 sono concordi (risp. discordi) se e solo se
det A< O (risp. det A> O).
Si noti inoltre che, moltiplicando per (-2d')- 1 , la equazione di Q indotta dalla matrice
semi-diagonale D' (rispetto ad R) assume la forma:

Z=~-X2

~.y2_

-2d'
+ -2d'
Ci prova che, scambiando eventualmente tra loro l'asse X e l'asse Y e cambiando
eventualmente orientazione all'asse Z del riferimento R, la equazione di Q rispetto
ad R assume esattamente la forma del caso (a1) se 1, 2 sono concordi (ovvero se
det A< O), e la forma del caso (a2) se >. 1 , 2 sono discordi (ovvero se det A> O).
Nel caso delle quadriche a centro, innanzitutto si osservi (applicando alla matrice
diagonale D associata il criterio contenuto nella Proposizione 12.29) che gli autovalori
i, >. 2 , >. 3 di Moo sono tutti dello stesso segno (risp. sono non tutti dello stesso segno)
se e solo se Q un ellissoide (risp. un iperboloide).

Si noti inoltre che, moltiplicando per (d)- 1

~~2 ~ >.3 ,

la equazione di Q indotta

dalla matrice diagonale D (rispetto ad R) assume la forma:


(>.1)

>.2 >.3 . x2

det A

+ (>.2) 2 >.1 >.3


det A

. y2

+ (3) 2 >.1 >.2


det A

. z2

= -1.

266

12. ELEMENTI DI TEORIA DELLE CONICHE E DELLE QUADRICHE

Ci prova che, scambiando eventualmente tra loro gli assi del riferimento R:
se Q un iperboloide (ovvero se ,\ 1 , ,\ 2 e ,\ 3 non hanno tutti lo stesso segno)
e det A <O, la equazione di Q rispetto ad R assume esattamente la forma
del caso (bi);
se Q un iperboloide (ovvero se .Xi, ,\ 2 e ,\3 non hanno tutti lo stesso segno)
e det A > O, la equazione di Q rispetto ad R assume esattamente la forma
del caso (b2);
se Q un ellissoide (ovvero se .Xi, ,\2 e ,\ 3 hanno tutti lo stesso segno) e
det A < O, la equazione di Q rispetto ad R assume esattamente la forma
del caso (ci);
se Q un ellissoide (ovvero se .Xi, ,\ 2 e ,\3 hanno tutti lo stesso segno) e
det A > O, la equazione di Q rispetto ad S assume esattamente la forma
del caso (c2), che corrisponde chiaramente ad una quadrica a supporto vuoto.

6. RIDUZIONE A FORMA CANONICA DELLE QUADRICHE

267

Lo schema riportato in Figura 12.5 riassume il metodo di classificazione, a partire


da una qualunque matrice A associata alla quadrica Q, mentre le Figure 12.6, 12.7,
12.8, 12.9 e 12.10 forniscono una rappresentazione del supporto (non vuoto) di tali
quadriche, rispetto al riferimento in cui esse assumono equazione canonica.

Aoo=O

detA<O

o
Le propriet delle equazioni canoniche permettono di provare la seguente

Proposizione 12.36. Sia Q una quadrica non degenere di &3 e sia A un suo
discriminante, relativo al riferimento cartesiano R.
Se det A < O, allora Q una quadrica reale di tipo ellittico;
se det A > O, allora Q o una quadrica immaginaria o una quadrica reale
di tipo iperbolico .
Dimostrazione. Se det A < O, allora Q ha equazione canonica di tipo (ai), (bi) o
(ci) (si veda la Proposizione 12.35). Nel caso (ai), l'intersezione di I(Q) con il piano
Z = - 1 vuota. Nel caso (bi), l'intersezione di I(Q) con il piano Z =O vuota. Nel
caso (ci), l'intersezione di I(Q) con il piano Z = 2c vuota. Pertanto, in tutti e tre
i casi, I(Q) non contiene rette e, di conseguenza, tutti i suoi punti sono ellittici.
Se invece detA >O, allora Q ha equazione canonica di tipo (a 2), (b 2) o (c 2) (si veda
la Proposizione 12.35). Nel caso (c2), come gi rilevato, I(Q) = 0. Nel caso (a 2), il
punto P =n [1, O, O, O] iperbolico, come facile verificare considerando I(Q) n 7rp.
Analogamente, nel caso (b 2), il punto Q =n [O, a, O, e] iperbolico. Il Lemma 12.28
assicura quindi che, in entrambi i casi, tutti i punti i punti di Q sono iperbolici.

o
Quale corollario delle Proposizioni 12.35 e 12.36, si ha il seguente:

Teorema 12.37. (Classificazione delle quadriche non degeneri di &3 ) Sia


Q una quadrica non degenere di & 3 . Allora Q appartiene ad una ed una sola delle
seguenti classi:
(ai) paraboloidi ellittici (o non rigati);
(a2) paraboloidi iperbolici (o doppiamente rigati o a sella) ;
(bi) iperboloidi ellittici (o non rigati o a due fald e);
(b2) iperboloidi iperbolici (o doppiamente rigati o ad una falda);
(ci) ellissoidi reali;
(c2) ellissoidi immaginari (o vuoti).

paraboloide
ellittico

det A < O

det A < O

paraboloide
iperbolico

ellissoide
reale

ellissoide
immaginario

iperboloide iperboloide
ellittico
iperbolico

Figura 12.5
(Algoritmo di classificazione per le quadriche non degeneri di &3 )

Esempio 12.20. In base alla Proposizione 12.35 - o all'algoritmo di classificazione


riassunto in Figura 12.5 -, il paraboloide Qi considerato nell'Esempio 12.15 a punti
iperbolici (essendo det A= 8 >O). Per la Proposizione 12.34 (caso (ii)), una matrice
di tipo semi-diagonale associata a Qi

D'

o
-10
=

(:

d'

con det D' = 10d' 2 = det A= 8, da cui segue d' =


di Qi
2

-10X 2 +Y +

~Z=O,

d')

oo o
o 1 o ,
o o o

owero

Jg.

Allora, una equazione canonica

x2
y2
Z
-.
- 2./5- -4./5
25

-5-

268

12. ELEME NTI DI TEORIA DELLE CONICHE E DELLE QUADRICHE

6. RIDUZIONE A FORMA CANONICA DELLE QUADRICHE

269

~z

'

...

- - - - - - -:-' - - - - -'

y
Paraboloide ellittico

Figura 12.6

Iperboloide ellittico

Figura 12.8

~z
'

-------'
'
'

'

'' '

Paraboloide iperbolico

'

-------:-&---y
- - - + - - - - - -).- - - - - - t - - - - ,'

Figura 12.7

Esempio 12.21. In base alla Proposizione 12.35 - o all'algoritmo di classificazione


riassunto in Figura 12.5 -, l'ellissoide Q2 considerato nell'Esempio 12.15 non vuoto
(essendo det A = - 15 < O) .
Per la Proposizione 12.34 (caso (i)) , una matrice di tipo diagonale associata a Q 2

D=

(n H).
o o o

con det D
di Q2

= 3d = det
x

A= -15, da cui segue d

+ Y + 3z
2

5=

o,

Figura 12.9

= -5.
x2

Iperboloide iperbolico

owero

Allora , una equazione canonica


y2

z2

-5+ -5+ - =
1.
Q
3

Esempio 12.22. In base alla Proposizione 12.35 - o all'algoritmo di classificazione


riassunto in Figura 12.5 -, l' iperboloide Q3 considerato nell'Esempio 12.15 a punti
iperbolici (essendo det A = 24 > O) .

270

12. ELEMENTI DI TEORIA DELLE CONICHE E DELLE QUADRICHE

Ellissoide reale

Figura 12.10

Per la Proposizione 12.34 (caso (i)), una matrice di tipo diagonale associata a Q3

(~

271

se Q un iperboloide iperbolico, du e assi di Q contengono du e vertici ciascuno, mentre l'altro asse non interseca I (Q);
se Q un ellissoide reale, ogni asse di Q contiene due vertici.
o

6. RIDUZIONE A FORMA CANONICA DELLE QUADRICHE

uI)

con det D = -3d = det A = 24, da cui segue d = -8.


Allora, una equazione canonica di Q3
x2
y2
z2
ovvero - + - - - = l .
x 2 + 3y2 - 3z 2 - s = o,
8
.
8
3

Inoltre, dalle equazioni canoniche delle quadriche non degeneri possibile visualizzare facilmente la eventuale presenza di assi di rotazione (ovvero, di autovalori di
molteplicit maggiore di uno per il minore Moo di qualunque matrice associata):
un paraboloide ellittico risulta di rotazione attorno al suo (unico) asse se e
soltanto se, nella sua equazione canonica, si ha a = b;
un paraboloide iperbolico non pu mai essere di rotazione;
un iperboloide ellittico risulta di rotazione attorno al suo asse contenente i
vertici se e soltanto se, nella sua equazione canonica, si ha a = b;
un iperboloide iperbolico risulta di rotazione attorno al suo asse non contenente vertici se e soltanto se, nella sua equazione canonica, si ha a =
b
'
un ellissoide (reale o immaginario) risulta di rotazione attorno ad un suo
asse se e soltanto se, nella sua equazione canonica, si ha o a = b, o b = c.
Si noti infine che la equazione canonica di un ellissoide reale Q di E3 ha i coefficienti
di X 2 ' di Y 2 e di Z 2 coincidenti (e quindi, il suo supporto costituito da tutti e soli i
punti equidistanti dal centro di Q) se e solo se, in qualunque matrice A associata a Q,
il minore M 00 ammette tre autovalori coincidenti; ci permette di ottenere la seguente
caratterizzazione delle sfere 13 all'interno delle quadriche dello spazio euclideo.
Proposizione 12.39. Una quadrica Q di E3 una sfera se e soltanto se,
qualunque matrice associata A, si ha
det A < O

Moo

~ (H

con

>.

E JR. -

in

una

{O}.
o

Le equazioni canoniche delle quadriche non degeneri e non vuote permettono di ricavare facilmente alcune propriet del supporto che, essendo indipendenti dal riferimento scelto, possono essere formulate in termini generali.
Proposizione 12.38. Sia Q una quadrica non degenere di E3 . Allora, ogni piano
principale di Q piano di simmetria12 per il supporto proprio Ip ( Q).
Inoltre:
se Q una quadrica a centro, il centro C centro di simmetria per il supporto
proprio Ip (Q);
se Q un iperboloide ellittico, un asse di Q contiene due vertici, mentre gli
altri due assi non intersecano I( Q) ;
12Ci significa che p er ogni piano principale 7r di Q e per ogni punto P E Ip(Q) , anche
P ' E Ip(Q), ove P ' = s7r(P) indica il simmetrico d i P rispetto a l piano 7r (Definizione 9.21).

La sfera risulta quindi l'unica quadrica non vuota di rotazione attorno al suo centro.

13 Come noto, si definisce sfem di centro Ce raggio r

= {P E

t:

> O l' insieme

d(P, C) = r}.

Se si sceglie in t: 3 un riferimento cartesiano avent e origine coincidente con C, a llora l'equazione di


2 diventa, ovviamente:
2 ; x2

+ y2 + z2

= r2.

APPENDICE A

Equazioni algebriche

1. Radici di un polinomio

Sia lK una campo e sia JK[t] l'anello dei polinomi nella indeterminata t, a coefficienti
in lK ( 6 del Capitolo 2).
Teorema A.I. (Algoritmo euclideo della divisione) Dati J(t), g(t) E JK[t],
con g(t) -=I- O, esiste una ed una sola coppia (q(t), r(t)) E JK[t] x JK[t] tale che:

(i) J(t) = g(t) q(t) + r(t);


(ii) gr(r(t)) < gr(g(t)) .

Dimostrazione. Supponiamo J(t) = amtm+ +ait+a0 , g(t) = bntn+ +bit+bo,


con gr(f(t)) = m, gr(g(t)) = n ~O.
Esistenza. Se m < n (in particolare, se f (t) = O), basta porre q(t) = O, r(t) = f (t).
Supponiamo allora m ~ n ~ O e dimostriamo l'esistenza della coppia (q(t), r(t))
applicando il Principio d'induzione ( 1 del Capitolo 1) sul grado mdi f(t).
Se m =O, allora f (t) = ao e g(t) = bo -=I- O, basta allora porre q(t) = a0 b0i, r(t) = O.
Se m = 1, allora f(t) = ait + ao . Se g~t) = b0 -=I- O (risp. g(t) = bit+ b0 , con
bi -=I- O) basta scegliere q(t) = aibi)it + aobi)i, r(t) =O (risp. q(t) = aib!i r(t) =
ao - aibob!i) .
Supponiamo ora provata l'esistenza della coppia (q(t), r(t)) per tutti i gradi k < m.
Il coefficiente di tm nel polinomio

p(t)

J(t) - (amtm-n)(b;;-i g(t))

am - amb;:;ibn =O; quindi gr(p(t)) < m. Per l'ipotesi induttiva, si ha dunque:

p(t)
Posto q(t)

g(t) s(t) + r(t),

con gr(r(t))

< n.

= s(t) + amb;:;itm-n, si ha allora:


J (t) = p(t) + (amb;;-itm-n)g(t) =
=

+ r(t) + (amb;;-itm-n)g(t) =
= g(t)(s(t) + amb;;-itm-n) + r(t) =
g(t) q(t) + r(t),
con gr(r(t)) < n,
g(t) s(t)

come richiesto.
Unicit. Supponiamo

f(t) = g(t) q(t)

+ r(t) = g(t) q'(t) + r'(t),

A. EQUAZIONI ALGEBRICHE

274

con gr(r'(t) - r(t)) < gr(g(t)).

Per la Proposizione 2.3 (c), ci implica q(t) - q'(t) = O.


Quindi q(t) = q'(t), r(t) = r'(t).

Con le notazioni del precedente Teorema, i polinomi q(t) ed r(t) sono rispettivamente
detti quoziente e resto della divisione di f(t) per g(t).
Esempio A.1. Il seguente schema :
3t4 - 2t 3
-(3t 4
Il

t2 + t - 3

3t3 + 6t 2 )

t2

3t 2

4t + 3 = (t - 1) 2 (t 2 + 2t + 3) E IR[t]

= antn +

+ a1t + a0

p(a) = anan + + a1a + ao =O.

Il
-6t - t - 3
-(- 6t 2 + 6t - 12)

La scrittura
(A.l)

-7t+9
2

illustra l'algoritmo euclideo per la determinazione del quoziente q(t) = 3t + t - 6 e del


2
resto r(t) = -7t + 9 della divisione di f (t) = 3t4 - 2t 3 - t 2 + t - 3 per g(t) = t - t + 2.
Si .noti la completa analogia con l'algoritmo euclideo per il calcolo del quoziente e del
resto della divisione in N tra due numeri naturali .

+ Definizione A.1. Se f(t) , g(t) E JK[t], con g(t) =/:-O, si dice che f(t) divisibile
per g(t) se il resto della divisione di f(t) per g(t) il polinomio nullo O.
Si dice anche, in tal caso, che f (t) un multiplo di g(t) o che g(t) un divisore di
f (t).
Ad esempio, i polinomi t - 1, (t -1) 2 , t 2 + 2t + 3, (t - l)(t 2 + 2t + 3) E IR[t] sono tutti
divisori del polinomio t 4 - 4t + 3 E IR[t]. Si ha infatti:
-

t4

+Definizione A.3. Si dice radice o zero del polinomio p(t)


ogni elemento a E JK, tale che

t4

Ad esempio, il polinomio

t 3 - 7t 2 + t - 3
-(t 3 - t 2 + 2t)

Il

Si osservi che i polinomi di primo grado sono tutti irriducibili.

non irriducibile.
Invece, come si prover in seguito (Corollario A.6), t 2 + 2t + 3 E IR[t] un polinomio di
secondo grado irriducibile (su JR).

t+ 2

+t -

275

+ Definizione A.2. Un polinomio f (t) E JK[t] di grado n ?: 1 si dice irriducibile (su


JK) se privo di divisori non banali.
In altre parole, f (t) E JK[t], con gr(f (t)) ?: 1, irriducibile se f (t) = g 1 ( t) g2 ( t)
implica gr(g 1 (t)) =O oppure gr(g 2 (t)) =O.

con gr(r(t)), gr(r'(t)) < gr(g(t)). Si ha allora:

g(t)(q(t) - q'(t)) = r'(t) - r(t),

l. RADICI DI UN POLINOMIO

4t + 3 = (t - l)(t - l)(t 2 + 2t + 3).

.,. Osservazione A.1. Ogni polinomio f(t) E JK[t] divisibile per se stesso e per ogni
polinomio di grado zero (cio per ogni elemento non nullo di JK); inoltre, se f(t)
divisibile per g(t) =/:- O, allora, per ogni a E JK* = JK- {O}, f(t) divisibile per a g(t).
Per tale motivo, per ogni a E JK*, i polinomi a, a f (t) E JK[t] sono detti divisori banali
di f (t) .

antn++a1t+ao=O

viene detta equazione algebrica associata a p(t); il grado ed i coefficienti di p(t) sono
anche detti grado e coefficienti dell'equazione algebrica associata.
Si usa anche dire che a E lK una radice di p(t) se e solo se, sostituita alla indeterminata t, "soddisfa" l'equazione (A.l) .
.,. Osservazione A.2. Ogni polinomio di grado O non ammette radici, mentre ogni
elemento di lK radice del polinomio nullo.
Ogni polinomio di primo grado p(t) = a 1t + a0 E JK[t] ammette come unica radice
a = -a! 1 ao. Quest'ultimo risultato, di immediata verifica, una riformulazione
dell'Osservazione 6.6, una volta rilevato che le equazioni algebriche di primo grado
coincidono con le equazioni lineari in un'unica incognita (Definizione 6.1).
Proposizione A.2. (Teorema di Ruffini 1) Un elemento a E lK radice del
polinomio p(t) E JK[t] se e solo se p(t) divisibile per (t - a).

Dimostrazione. Per il Teorema A.l, esiste una ed una sola coppia (q(t), r(t))

JK[t] x

JK[t] tale che:

p(t) = (t - a)q(t) + r(t),


con gr(r(t)) < 1.
Pertanto, il polinomio r(t) identificabile con un elemento r E lK (Osservazione 2.3);
si pu quindi scrivere:
p(t) = (t - a)q(t) + r .
Supponiamo ora che a sia una radice di p(t). Si ha allora
O= p(a) = (a - a)q(a)

+ r =O q(a) + r = r

1 Paolo Ruffini: matematico e medico italiano (Valentano di Roma, 1765 - Modena, 1822).

A. EQUAZIONI ALGEBRICHE

276

e quindi p(t) = (t - a)q(t). Ci prova che p(t) divisibile per (t - a).


Viceversa, se p(t) divisibile per (t - a), si ha r =O e quindi p(a) = (a - a)q(a)
O q(a) =O.

=
D

Si osservi che dal Teorema di Ruffini segue subito che un polinomio irriducibile di
grado n > 1 non ammette radici.

+ Definizione

A.4. Un elemento a E lK si dice radice di molteplicit s E N del


polinomio p(t) E JK[t] se
p(t) = (t - a)

q(t),

Ad esempio, l'unit 1 di JR. radice del polinomio p(t)

=1

4. 1+3

= 1-

= t4

4+ 3

4t + 3 E JR.[t]; infatti si ha:

=o.

D'altra parte, il risultato conseguenza diretta del Teorema di Ruffini, avendosi , come
gi rilevato:
p(t) = (t - 1) 2 (t 2 + 2t + 3).
Poich, posto q(t) = t 2 + 2t + 3 E JR.[t], si ha :
q(l)

Dimostrazione. Applichiamo il Principio d'induzione sul grado n di p(t) .


Se n = 1, il risultato evidente.
Supponiamo il Teorema dimostrato per tutti i polinomi di grado < n. Poich lK
algebricamente chiuso, p(t) ammette almeno una radice a E lK e quindi, per il
Teorema di Ruffini, si ha:
p(t)

(t - a) q(t),

con gr(q(t))

=n-

1.

Poich, per l'ipotesi induttiva, la somma delle molteplicit delle radici di q(t) n - 1,
si ha allora:
<T

= 1+

(n - 1) = n.
D

Si osservi che 1 tenuto conto del Teorema di Ruffini, a radice di molteplicit s di p(t)
se e solo se p (t) divisibile per (t - a) 8 , ma non per (t - 0) 5 + 1.

p(l)

277

con q(a) =f O.

Se s = 1, 2, 3, si dice rispettivamente che a radice semplice, doppia, tripla di p(t);


se s > 1, si parla, genericamente, di radice multipla.

2. EQUAZIONI ALGEBRICHE A COEFFICIENTI REALI O COMPLESSI

= 1+2+3 = 6 =t o,

tale uguaglianza prova inoltre che 1 radice doppia del polinomio p(t).

..,. Osservazione A.3. Se <T denota la somma delle molteplicit delle radici di un
polinomio p(t) di grado n 2: O, si ha <T ::::; n.
Infatti in caso contrario, per il Teorema di Ruffini, p(t) sarebbe prodotto di almeno
<T > n polinomi di primo grado e quindi avrebbe grado maggiore di n.

+Definizione A.5.

Un campo si dice algebricamente chiuso se ogni polinomio p(t) E


JK[t] di grado n >O ammette almeno una radice.
..,. Osservazione A.4. Dal Teorema di Ruffini segue subito che gli unici polinomi
irriducibili su un campo algebricamente chiuso sono i polinomi di primo grado.

Teorema A.3. Sia lK algebricamente chiuso. Se p(t) E JK[t] ha grado n


la somma <T delle molteplicit delle radici di p(t) n.
Pertanto, p(t) prodotto di n polinomi di primo grado.

> O, allora

2. Equazioni algebriche a coefficienti reali o complessi

Nel presente paragrafo, riguardante i polinomi a coefficienti nel campo JR. dei numeri
reali o nel campo C dei numeri complessi (Esempi 2.3, 2.3 bis, 2.8), JR. sar sempre
identificato con il sottocampo i= {z =a+ ib E e I b =O} di c.
Si ricordi (Esempio 5.4) che l'applicazione coniugio, che associa ad ogni numero complesso z = a+ ib il suo coniugato z = a - ib, un isomorfismo del campo C in s e si
osservi che JR. (o, pi propriamente, i) il sottocampo di C costituito dagli elementi
z autoconiugati, cio tali che z = z.
..,. Osservazione A.5. Sia p(t) = at 2 + bt + c un polinomio di secondo grado a
coefficienti in JR. e sia D. = b2 - 4ac il suo discriminante. noto che:
-b VE
(i) se D.> O, allora p(t) ammette le due radici reali distinte - - - 2a
.
b
se
D.=
O,
allora
p(t)
ammette
la
radice
reale
;
(ii)
2a
(iii) se D. < O, allora p(t) non ammette radici reali; tuttavia, pensato p(t) come
polinomio a coefficienti in C, esso ammette le due radici complesse coniugate
-biyCK
2a
Il caso (iii) prova che il campo JR. dei numeri reali non algebricamente chiuso.

possibile dimostrare invece (si veda, ad esempio: S. Mac Lane, G. Birkhoff, Algebra,
Mursia, Milano 1975) il seguente importante risultato:
Proposizione A.4. (Teorema fondamentale dell'algebra) Il campo C dei
numeri complessi algebricamente chiuso2 .
Valgono quindi, per il campo C, l'Osservazione A.4 ed il Teorema A.3 .
Teorema A.5. Se z E C radice del polinomio p(t) E JR.[t]
coniugato z E C di z radice di p( t).

C[t], allora anche il

2Pi precisamente, IC il pi piccolo campo algebricamente chiuso contenente R quale


sottocampo. Si usa esprimere tale propriet dicendo che IC la chiusura algebrica di R.

A . EQUAZIONI ALGEBRICHE

278

Dimostrazione. Essendo z radice di p(t) , si ha p(z) = O e quindi anche p(z) = O.


Posto
p(t) = antn + + a1t + ao,
per ogni i E N U {O}, si ha ai E JR e dunque ai = ai. Dal momento che il coniugio
un isomorfismo del campo e in s, si ha allora:

2. EQUAZIONI ALGEBRICHE A COEFFICIENTI REALI O COMPLESSI

279

coppia di coefficienti consecutivi (ai, ai+i) si chiamer permanenza (risp. variazione)


se i due coefficienti hanno lo stesso segno (risp. segno opposto) .
Teorema A. 7. (Teorema di Harriot 3-Cartesio) fl numero di permanenze (risp.
variazioni) del polinomio p(t) E JR[t] supera di un numero pari, positivo o nullo la
somma delle molteplicit delle radici negative (risp. positive) di p(t).

O= p(z ) = anzn + + a1z + ao = ZinZn + + Zi1:Z +Zio=


Ci prova che anche

an:Zn + + a1z + ao = p(z).


radice di p(t) .

Ad esempio, il pol inomio

Corollario A.6. Gli unici polinomi irriducibili di JR[t] sono i polinomi di primo
grado e i polinomi di secondo grado aventi discriminante negativo.
Pertanto, se p(t) E JR[t] ha grado n > O, allora:
(a) p(t) prodotto di polinomi di primo grado e/o polinomi di secondo grado
aventi discriminante negativo;
(b) se n dispari, p(t) ammette almeno una radice reale.
Dimostrazione. Se f (t) E JR[t] irriducibile e ha grado n > 1, allora f (t) non ammette
radici reali.
Per il Teorema fondamentale dell'algebra, f(t) ammette almeno una radice complessa
z = a + ib, con b -f. O, e quindi, per il Teorema A.5, anche la radice z = a - ib.
P ertanto, f (t) divisibile per il polinomio di secondo grado
g(t) = (t - z )(t - z ) = (t - a - ib)(t - a+ ib) =

t 2 - 2at + (a 2 + b2 ) E JR[t],
avente discriminante~= -4b 2 < O.
Si ha quindi, essendo f (t) irriducibile:

f (t)

= c g(t),

con c E R

Ci prova la prima parte dell'enunciato, di cui le affermazioni (a) (b) sono immediata
conseguenza.

Ad esempio, poich il discriminante del polinomio q(t) = t 2 +2t+3 E JR[t] ~= -8 <O,


dal Corollario A.6 segue che q(t) irriducibile (su JR). Invece, pensato q(t) come polinomio
a coefficienti in C, si ottiene, per l'Osservazione A.5 (iii ), che q(t) ammette le radici
complesse coniugate -1 i.,,/2.
Si ha pertanto che il polinomio q(t) "scomponibile" in C[t] nel seguente prodotto di
polinomi di primo grado:

q(t) = (t + 1 - iv'2) (t + 1 + iv'2).

Dato un polinomio p(t) E JR[t], p(t) = a 0 + a 1t + + antn, con ao i- O, si assegni ad


ogni eventuale coefficiente nullo un segno + o - in modo arbitrario ma fissato. Ogni

p(t) = 3J2 - 3t - J2t 2 + t 3 E JR[t],

avendo successione dei coefficienti (3.,,/2, - 3, -.,,/2, 1), ha 2 variazioni ed una permanenza;
quindi, avr sicuramente una radice negativa e zero o due radici positive.
Per il polinomio
q(t ) = -6 - t2 + t 4 E JR[t],
la successione di coefficienti pu essere considerata (-6, +0, -1, +0, + 1) (avendo assegnato arbitrariamente segno + ad entrambi i coefficienti nulli), che presenta tre variazioni
ed una permanenza; quindi, q(t) ammette una radice negativa e una o tre radici positive.
Si noti che, per quanto riguarda il polinomio q(t), una diversa assegnazione dei segni ai
coefficienti nulli avrebbe cambiato il conteggio. Ad esempio, considerando la successione
(-6, -0, -1, +0, + 1), otterremmo tre permanenze e una variazione, facendoci prevedere
una rad ice positiva ed una o tre radici negative. Dal confronto con la deduzione precedente possiamo ricavare che sicuramente q(t) ammette esattamente una radice positiva
ed una radice negativa, mentre le altre due (contate una volta come negative ed una volta
come positive) sono in realt complesse coniugate.

.,.. Osservazione A.6. Il problema della determinazione di procedimenti generali per


trovare tutte le radici di un qualsiasi polinomio di grado n a coefficienti in JR (o in
C), facendo uso unicamente delle operazioni elementari e della estrazione di radice
(noto come problema della risolubilit per radicali di una equazione algebrica), ha
influenzato, per molti secoli, lo sviluppo delle ricerche di "algebra".
Mentre la formula risolutiva per le equazioni algebriche di secondo grado sicuramente
nota fin dal I secolo a .C. (Erone di Alessandria), solo intorno al 1500 sono state
trovate formule generali di risoluzione "per radicali" di equazioni algebriche di grado
tre (formule di Tartaglia-Cardano4) e quattro (formule di Ferrari5 ).
Il problema fu poi completamente risolto, sia pure in senso negativo, nella prima met
del secolo scorso, grazie all'opera di Ruffini, Abel e Galois 6 , che provarono l'impossibilit di determinare procedimenti generali di risoluzione "per radicali" delle equazioni
algebriche di grado ;:=: 5 (a coefficienti in JR o in C).
Il problema della effettiva ricerca delle radici di un polinomio di grado n si presenta
quindi, in generale, di non semplice soluzione.
3 Thomas Harriot: astronomo, etnografo e matematico inglese (Oxford, 1560-1621).
4 Gerolamo Cardano: matematico, medico e filosofo ita liano (Pavia, 1501 - Roma, 1576) .
5 Lodovico Ferrari: matematico italiano (Bologna, 1522-1565).
6 Evariste Calais: matematico francese (Boug-La-Reine, 1811 - Parigi, 1832).

A. EQUAZIONI ALGEBRICHE

280

Il seguente risultato permette di determinare le eventuali radici razionali di un polinomio a coefficienti interi.
Teorema A.8. Sia f(t) E Z[t], f(t) = a 0 + a 1t + + antn. Le eventuali radici
razionali di f (t) sono della forma ~, dove p un intero divisore di ao e q un intero
divisore di an.

APPENDICE B

Forme bilineari e quadratiche

Ad esempio, se

f(t) = 15 - 2t - 61t2 + 8t 3 + 4t
le eventuali radici razionali di f (t) appartengono alla lista :

1 1
3 3
5 5
15 15
l, 2, 4, 3, 2, 4, 5, 2, 4 , l 5, 2, 4.

1. Matrici simmetriche

Una verifica diretta permette di affermare che, tra questi "candidati", sono radici + ~,
-~. +3 e -5; essendo tante quanto il grado di f(t), queste sono dunque tutte (e sole)
le radici di f (t).
Se invece

Nel presente paragrafo, yn indicher sempre uno spazio vettoriale euclideo di dimensione n; il simbolo Sn(IR) denoter invece l'insieme delle matrici simmetriche reali sul
campo JR dei numeri reali.

g(t) = 6 - 9t - 8t2 + 3t 3 + 2t4 ,


le eventuali radici razionali di g(t) appartengono alla lista :
1

1, 2, 2, 3, 2, 6.
Una verifica diretta permette di affermare che, tra questi "candidati", sono radici solo+~
e -2; tramite il Teorema di Ruffini (Proposizione A.2) si ottiene poi
1
2

g(t) = (t- 2)(t + 2)(2t

da cui si ricavano le ulteriori radici (irrazionali reali):

6),

J3.

Teorema B.1. Sia A E Sn(IR) una matrice simmetrica reale e sia T: yn -+ yn


l'operatore lineare 1 associato ad A rispetto ad una base ordinata ortonormale l3 di
yn. Allora, T ammette una base spettrale ortonormale.
... Osservazione B.1. Il Teorema B.l equivalente al Teorema 7.14 di diagonalizzazione delle matrici simmetriche per similitudine, mediante una matrice ortogonale.
Infatti i3 una base spettrale per T se e solo se MB(T) =A diagonale (Osservazione
7.3). Pertanto i3 una base spettrale ortonormale se e solo se esiste una matrice
ortogonale E E On(IR), cambiamento di base da l3 a B, tale che

E- 1 AE = tEAE =A.
Dimostrazione del Teorema B.1 .
P asso I - Siano >. 1 , ... , h gli "autovalori complessi" di A (o di T), ovvero le radici
(complesse) del polinomio caratteristico ~A(t) = ~r(t) = t In - A. Mostriamo
innanzitutto che gli autovalori >. 1 , ... , h sono reali.
P er ogni i = 1, ... , h, se ui un autovettore non nullo relativo all'autovalore i e
(ui) la colonna delle sue componenti rispetto alla base ortonormale fissata !3, vale
ovviamente la relazione: (1) A(ui) = i(ui)
Applicando il coniugio 2 ad entrambi i membri della relazione (1) (ed osservando che
A= A, poich A E Sn(IR)), si ottiene : (2) A(ui) = ~i(ui)
Moltiplicando a sinistra la (1) per t(ui) e la (2) per (ui) , si ottengono poi le relazioni:
1Si noti che se un operatore T : y n -+ y n ammette come matrice associata, rispetto ad
una fissata base (ordinata) ortonormale, una matrice simmetrica A, allor a ogni matrice associata
a T rispetto ad una base ortonormale risulta simmetrica: infatti, se A' = E- 1 AE = t EAE, con
E E On(R) ed A E Sn(R), allora tA' = t(tEAE) = tEtAE = tEAE =A'. G li operatori associati
- rispetto a basi ortonormali - a matrici simmetriche vengono usualmente detti operatori simmetrici,
e sono caratterizzati dalla seguente propriet:

< T(u), v >=<

u, T(v) >,

'v'u , v E y n.

2a denota il complesso coniugato del numero complesso a, mentre A indica la matrice coniugata
di A, ovvero la matrice avente per elementi i coniugati degli elementi di A.

B. FORME BILINEARI E QUADRATICHE

282

(l')

t(ui)A(ui)

i t(ui)(ui);

(2')

t(ui)A(ui) =>:i t(ui)(ui)

Trasponendo (1') si ottiene la relazione (1")


t(ui)A(ui) = i t_f ui)(ui)i infine,
sottraendo membro a membro le relazioni (1") e (2'), si ottiene (.Xi -.Xi) t(ui)_(ui) =O.
Poich t(ui)(ui) sicuramente non nullo (essendo Ui ~O), ne consegue i = i, ovvero
i E JR.
Passo II - Mostriamo ora, per induzione sulla dimensione n dello spazio vettoriale
yn (ovvero sull'ordine della matrice A), che T ammette una base spettrale ortonormale. Se n = 1, il risultato banalmente vero. Supponiamo quindi che il Teorema
sia vero per ogni spazio vettoriale euclideo di dimensione k - 1 e dimostriamolo per
ogni spazio vettoriale di dimensione k (2 ::; k ::; n) . A tale scopo, sia 1 un autovalore (reale) di T ed u 1 un autovettore non nullo di U >." Si completi ora u1
ad una base B' = (ui, g 2 , ... , gk) di Vk; il procedimento di Gram-Schmidt (Proposizione 8.5) applicato a B' produce una base ortonormale B' = (e1, f2, .. . , fk), in cui
e 1 = ~! ancora un autovettore di U >. 1 . Il sottospazio J_ { ei} = L( f2, ... , fk) ha
11 11
dimensione k - l; inoltre, la matrice associata all'operatore T, ristretto a tale sottospazio, ancora una matrice simmetrica. Per l'ipotesi induttiva, esiste quindi una
base spettrale ortonormale (e 2 , . . . , ek) di J_ { e 1 } (relativa alla restrizione di T). La
k-pla (e 1 , e 2 , . . . , ek) dunque una base spettrale ortonormale di yk (relativa allo
operatore T).

3. CONGRUENZA DI MATRICI SIMMETRICHE

Proposizione B.2. Una applicazione q : V -t JR una forma quadratica se e solo


se:
(i) Vv E V, V.X E JR, q(.Xv) = .X 2 . q(v);
(ii) l'applicazione <P definita ponendo, \fu, v E V,
<P(u, v) = }(q(u + v) - q(u) - q(v))
una forma bilineare (simmetrica).

Dimostrazione. Se q soddisfa le condizioni (i) e (ii), allora <P(v, v) = }(q(v + v) q(v) - q(v)) = }(q(2v) - 2q(v)) = }(4q(v) - 2q(v)) = q(v). Quindi q una forma
quadratica.
Viceversa, se q una forma quadratica, allora q(.Xv) = cp(.Xv, .Xv) = .X 2 cp(v, v) =
.X 2 q(v); inoltre, <P(u, v) = }(cp(u + v, u + v) - cp(u, u) - cp(v, v))
}(cp(u, v) +
cp(v, u)) = cp 8 (u, v). La proposizione cos dimostrata.

o
La forma bilineare simmetrica <P e la forma quadratica q si diranno associate. Diremo
anche che <P la forma polare di q.
Sia ora B = (ei, ... , en) una base di vn. Data una forma quadratica q : yn -t JR
(e la sua forma polare <P: yn x yn -t JR), indicheremo con QB(q) (o con QB(<P)) la
matrice simmetrica A = ( aij) E Sn (JR) in cui
aij

2. Forme bilineari, quadratiche e matrici simmetriche associate

Una applicazione cp: V x V -t JR detta forma bilineare su V


se, Vu, v, w E V, V.X E JR,
cp(u

+ v, w) = cp(u, w) + cp(v, w);

cp(w, u

+ v)

= cp(w, u)

<P(u, v) = t(y)A(x) = t(x)-{i(y);

cp(.Xv, w) = cp(v, .Xw) =

cp(v, w).

Una forma bilineare cp detta simmetrica se, Vv, w E V,

Ad esempio, se n

=2

e QB(q)

<P(u, v) = (x1

+ cp(w, v);
cp(v, w)

q(u)

= <P(ei,ej);

A anche detta matrice di Grarti della forma quadratica q o della forma bilineare </J.
Si osservi che se u, v E yn e se (x), (y) indicano rispettivamente le colonne delle
componenti di u e v rispetto alla base B, allora si ha:

Nel seguito, V (risp. vn) indicher uno spazio vettoriale (risp. uno spazio vettoriale
di dimensione n) sul campo JR dei numeri reali. 3

+Definizione B.1.

283

(x1

Gn'

allora :

G n(~~) =
GDG~) = xi+

x2)

x2)

q(u) = t(x)A(x).

X1Y1

+ 2x2y1 + 2x1y2 + 3x2y2;

4x1x2

+ 3x~.

cp(w, v).

Si osservi che ad ogni forma bilineare cp si pu associare una forma bilineare simmetrica
cp 8 , ponendo, Vu, v E V, cp 8 (u, v) = Hcp(u, v) + cp(v, u)).
3. Congruenza di matrici simmetriche

+ Definizione B.2.

Una applicazione q : V -t JR detta forma quadratic;a su V se


esiste una forma bilineare simmetrica cp : V x V -t JR tale che, Vv E V, si abbia:
q(v) = cp(v, v).

+ Definizione B.3.

Due matrici simmetriche A, A' E Sn(JR) sono dette congruenti


se esiste una matrice regolare E E GLn(JR) tale che

A'= tEAE.
3La maggior parte delle considerazioni valgono anche in un qualunque campo IK di caratteristica
=fa 2 (si veda la Definizione 2.6).

Si noti che la congruenza una relazione di equivalenza su Sn(JR).

B. FORME BILINEARI E QUADRATICHE

284

4. FORME CANONICHE

285

Proposizione B.3. A, A' E Sn(JR) sono congruenti se e solo se esistono una forma
quadratica q: vn -t JR e due basi B, B' di vn, tali che A= Q5(q), A'= Q51(q).

4. Forme canoniche

Dimostrazione. Sia q: vn -t JR una forma quadratica e siano B, B' due basi ordinate
di vn, tali che A= Q5(q), A'= Q51(q). Per ogni V E vn, indicate con (x) e (x') le
colonne delle componenti di v rispetto a B e B', si ha:

Data una matrice simmetrica A E Sn(JR), si dice indice (di positivit) a+(A) di A
la somma delle molteplicit algebriche degli autovalori positivi di A. Si dice invece
sigla o indice di negativit a_ (A) di A la somma delle molteplicit algebriche degli
autovalori negativi di A. Evidentemente, a+(A) + a_(A) = e(A).
La coppia a(A) = (a+(A), a_(A)) detta segnatura di A . 4

q(v)

= t(x) A (x) = t(x') A' (x').

Se E E GLn(JR) la matrice del cambiamento di base da Ba B' (Definizione 5.7), si


ha inoltre:
(x') = E (x) .
Si ottiene quindi
q(v) = t(x'). A'. (x') = t(E (x)) A' (E (x)) = t(x)

Teorema B.6. Se A E Sn(JR) ha segnatura (p, q), allora A congruente alla


matrice diagonale

e E A E) (x);

ci dimostra che A' = t E A E, cio che A e A' sono congruenti.


Il viceversa si prova in modo analogo, invertendo il procedimento.

Dp,q=diag(+l, . .. ,+l,-1, ... ,-l, 0, ... ,0 ).


p volte
q volte
n-p-q volte

Proposizione B.4. Matrici congruenti hanno lo stesso rango.


Dimostrazione. E' sufficiente osservare che, se F E GLn(JR), allora
= e(F A)= e(A), per ogni matrice A E Mn(JR).

e(A F)

Dimostrazione. Per il Teorema B.1, esiste una matrice ortogonale E E On(JR) tale
che t E A E = A diagonale, e A ha sulla diagonale gli autovalori di A, ciascuno
contato con la sua molteplicit (algebrica e geometrica). La matrice A sar quindi
del tipo diag(>.i, ... , p, p+I, . . . , p+q, O, ... , O), con i > O, 1 :S i :S p, e j < O,
p

+ 1 :S j :S p + q.

La matrice F = diag(

La Proposizione B.4 consente di definire rango e(q) di una forma quadratica q il rango
di una qualsiasi matrice simmetrica associata a q.
Una base B di vn detta diagonalizzante per la forma quadratica q : vn -t JR se la
matrice Q5(q) diagonale.
Una matrice simmetrica A E Sn(JR) detta diagonalizzabile per congruenza se
congruente ad una matrice diagonale.
Evidentemente, q ammette una base diagonalizzante se e solo se A= Q5(q) diagonalizzabile per congruenza.
Teorema B.5. Ogni matrice simmetrica A E Sn(JR) diagonalizzabile per congruenza.
Dimostrazione. Per il Teorema B.l, per ogni matrice simmetrica A E Sn(JR) esiste
una matrice ortogonale E E On(JR) tale che E- 1 A E = t E A E diagonale.
Pertanto, lo stesso teorema dimostra contemporaneamente che A diagonalizzabile
per congruenza.

b,
... , vrb
1, ... , 1) regolare e si ha
l>-1 I
l>-,,+o I

tFAF = diag(+l, ... ,+l,-1, ... ,-1, 0, ... ,0 ).


p volte
q volte
n-p-q volte

o
Vale inoltre il seguente importante risultato:
Teorema B. 7. (Principio d'inerzia di Sylvester5 ) Due matrici simmetriche
A, BE Sn(JR) sono congruenti se e solo se hanno la stessa segnatura.
Dimostrazione. Supponiamo che A ed A' siano congruenti; allora, per la Proposizione
B.4, A ed A' hanno lo stesso rango (!.
Sia ora (p, q) (risp. (p', q')) la segnatura di A (risp. di A'), con p + q = p' + q' = (!.
Sia poi Dp,q (risp. Dp' ,q') la forma diagonale di A (risp. di A') individuata nel
Teorema B.6; poich A ed A' sono congruenti, anche Dp,q e Dp' ,q' sono congruenti.
Esiste pertanto una forma quadratica q e due basi ordinate B = (e 1 , .. . , en) e B' =
(e~, ... ,e~) di vn tali che Dp,q = Q5(q), Dp' ,q' = Q81(q) .
Per ogni V E vn, posto V =.5 (x 1 , .. . ,xn), V =.51 (y 1 , ... ,yn), si ha allora:

q(v)
..,. Osservazione B.2. Se vn uno spazio vettoriale euclideo, lo stesso Teorema B.l
assicura che q ammette una base diagonalizzante ortonormale. Infatti, se B una base
ortonormale di vn ed A= Q8 (q), il Teorema B.1 assicura l'esistenza di una matrice
ortogonale E, per cui t E A. E = A diagonale. La base f3 tale che Q13(q) =A la
base ortonormale diagonalizzante cercata.

L
i=l

(xi)2 - L (xP+J)2
j=l

4Si noti che la segnatura della matrice A E Sn(IR) pu essere calcolata direttamente dal polinomio caratteristico LlA(t) mediante il Teorema A.7 di Harriot-Cartesio, in virt del fatto che tutte
le radici di LlA(t) sono reali (si veda la dimostrazione del Teorema B.l, Passo I).
5 James Jos eph Sylvester: matematico inglese (Londra, 1814-1897) .

B. FORME BILINEARI E QUADRATICHE

286

Supponendo p 2: p'' si considerino i sottospazi U P = L( e1' ... 'ep) e wn-p' =


= L( e~, +l' . . . 'e~) di vn. Se V E UP n wn-p'' allora:

O~

(xi)2

= q(v) =

i=l

-2::: (yP'+k)

<O,

5. FORME E MATRICI DEFINITE

287

Vale inoltre il seguente


Lemma B.8. Una matrice simmetrica A E Sn(JR) definita positiva se e solo se
esiste una matrice regolare F E GLn(JR), tale che

A= tFF.

k=l

e quindi x 1 = = xP = O.
D'altra parte, da v E U P segue xP+l = = xn =O. Si ha pertanto v =O e dunque
UP n w n-p' ={O}.
Per la relazione di Grassmann, ricordando che si supposto p 2: p', si ha:

Dimostrazione. A definita positiva se e solo se esiste F E GLn(JR), tale che


A = t F In F = t F F.
D

n ~ n + (p - p') = p + (n - p') = dim(UP E9 w n-p') ~ n


e quindi p = p'.
Ci prova che A ed A' hanno la stessa segnatura.
Viceversa, se A ed A' hanno la stessa segnatura (p, q), allora A ed A' hanno la medesima forma diagonale Dp,q e pertanto sono tra loro congruenti.
D

Il seguente risultato fornisce un utile algoritmo per verificare se una matrice (e,
dunque, una forma quadratica) definita positiva o negativa.

Proposizione B.9. (Criterio di Sylvester) Sia A E Sn(JR) una matrice simmetrica reale e, per ogni k E Nn, sia Mk il minore di A formato dalle prime k righe
e dalle prime k colonn e.7
(a) A definita positiva se e solo se,

't:/k E Nn,

5. Forme e matrici definite

det Mk

> O;

(b) A definita negativa se e solo se,

Definizione B.4. Una forma quadratica q


e/; : yn X yn -t JR sono dette:

y n -t JR

e la sua forma polare


det Mk

{ <O

>0

se k dispari
se k pari

definite positive se, 't:/v E yn ,


q(v) = c/;(v , v) 2: O e

((q(v) = cf>(v, v) = O)

<:-=>

(v =O)); 6

definite negative se, 't:/v E y n,


q(v) = cf>(v , v) ~O

((q(v) = cf>(v, v) =O)

<:-=>

(v = O)).

Inoltre, q e e/; sono dette non definite se non sono n definite positive n definite
negative.
Una matrice simmetrica A E Sn(JR) detta definita positiva (risp. negativa) se
associata ad una forma quadratica q definita positiva (risp. negativa), relativamente
ad una base B di vn.
Risulta evidente che q definita positiva (risp. negativa) se e solo se la sua segnatura
(n, O) (risp. (O, n)). Quindi, una matrice simmetrica A E Sn(JR) definita positiva
(risp. negativa) se e solo se A congruente alla matrice identica In (risp. alla matrice
-In)
6 Per definizione, il concetto di forma bilineare simmetrica definita positiva coincide con quello
di prodotto scalare (si veda la Definizione 8.1).

Dimostrazione. (a) Sia q : yn -t JR la forma quadratica associata ad A, relativamente


alla base B = (e 1 , ... , en) di y n. Se A, e quindi q, definita positiva, allora definita
positiva anche la forma quadratica q', restrizione di q al sottospazio L(e 1 , ... ,ek) La
matrice associata a q', relativamente alla base B = (e 1 , ... ,ek), Mk. Pertanto, per
il Lemma B.8, 3F E GLk(JR), tale che Mk = t F F. Ne consegue che det Mk =
det(lF F) = det(tF) det F = (det F) 2 >O.
Supponiamo, viceversa, che 't:/k E Nn, det Mk > O. Un calcolo diretto prova che, in
tal caso, A congruente alla matrice diagonale

Il Principio d'inerzia di Sylvester (Teorema B.7) implica allora che a(A) = (n, O), cio
che A definita positiva. Ci conclude la prova di (a).
(b) Basta osservare che A definita negativa se e solo se -A definita positiva, e
ricordare (a).
D

711 criterio rimane valido anche sostituendo a l minore Mk> 'v'k E Nn, il minore
ultime k righe e dalle ultime k colonne di A.

Nh

formato dalle

B. FORME BILINEARI E QUADRATICHE

288

Esempio B.1. La matrice A

si ha :

det M1

5 >O,

det M2

51 311
1

( ~ !3 ~1)

14

>o,

det A

>o.

Indice analitico

La matrice A'

det M{

-5 <O,

- 1

det

E S 3 (JR.) invece definita negativa, in quanto si ha :

-1

M~ = 1~5

! 31= 14 >O,

det

M~

det A'

-9 <O.

Infine, la matrice A"

(~ ~ ~1)
o

-1

M~'

E S 3 (JR.) non n definita positiva n definita

-1

negativa, in quanto si ha :

det M{'

= -5 <O,

det

1~5 ~I

-16 <O,

det M~'

det A"

21

>o.

a lgebra di Boole, 30

Algoritmo euclideo della divisione, 273


anello, 23
- commutativo, 23
- unitario, 23
angolo
- tra due piani, 207
- tra due rette, 169
- tra due vettori, 136
- tra un piano e una retta, 208
applicazione, 12
- biiettiva, 13
- identica, 14
- iniettiva, 13
- invertibile, 14
- lineare, 81
- suriettiva, 13
asintoto di una conica, 234
asse
- di una conica, 235
- di una quadrica, 258
automorfismo, 81
autospazio, 117
autovalore, 117
autovettore, 117
baricentro, 175
base, 72
- naturale di J[(n, 76
- ordinata, 75
- ortogonale, 137
- ortonormale, 137
- spettrale, 127
biiezione, 13
cambiamento di base, 97
campo, 23
caratteristica di un anello (o di un campo), 24
cardinalit di un insieme, 18
centro
- di una conica, 233

- di una quadrica, 257


chiusura lineare, 66
circonferenza, 191
classe di equivalenza, 15
classe resto, 17
codominio, 12
coefficiente di Fourier, 146
coefficienti direttori di una retta, 165
combinazione lineare
- di n-ple, 28
- di vettori, 66
- di matrici , 35
complemento a lgebrico, 55
complemento ortogonale, 142
componenti di un vettore, 76
composizione, 14
conica
- degenere, 227
- non degenere, 227
- non specializzata, 227
- specializzata, 227
connettivi logici, 7
controimmagine, 13
coordinate
- cartesiane, 157
- omogenee, 219
coppia, 11
- conformabile, 36
- in inversione, 45
Criterio di Sylvester, 287
determinante di Gram, 145
determinante di una matrice quadrata, 48
diagonale
- principale, 38
- secondaria, 38
diametro di una conica, 233
differenza tra insiemi, 10
dimensione
- di uno spazio euclideo, 155
- di uno spazio vettoriale, 73

290

discriminante
- di una conica, 225
- di una quadrica, 248
distanza euclidea, 170
divisibilit di polinomi, 274
dominio, 12
elementi speciali, 42
ellisse, 192
ellissoide, 255
- immaginario, 266
- reale, 266
endomorfismo, 81
equazione algebrica, 275
Equazione dimensionale per le trasformazioni
lineari, 85
equazione frazionaria di una retta, 182
equazioni cartesiane
- dei sottospazi euclidei, 163
- dei sottospazi vettoriali, 112
equazioni parametriche
- dei sottospazi euclidei, 164
- dei sottospazi vettoriali, 114
fascio
- di coniche, 244
- di piani, 209
- di rette, 186
forma
- bilineare, 282
- bilineare simmetrica, 282
- quadratica, 282
- definita negativa, 286
- definita positiva, 286
Formula di Liebniz - Cramer, 105
funzione, 12
fuoco
- di una ellisse, 192
- di una iperbole, 193
- di una parabola, 193
giacitura di uno spazio euclideo, 160
grado di un polinomio, 29
gruppo, 22
- abeliano (o commutativo), 22
- additivo, 22
- lineare, 40
- moltiplicativo, 22
gruppoide, 21
identit, 14
immagine, 12
- di una trasformazione lineare, 83
- inversa, 13
indice
- di colonna, 33

INDICE ANALITICO

- di riga, 33
indice di una matrice simmetrica, 285
insieme
- complementare, 10
- delle parti, 9
- finito, 18
- numerabile, 18
- quoziente, 16
- soggiacente, 22
insiemi
- disgiunti, 10
- equipotenti, 18
intersezione di insiem i, 10
iperbole, 193
- equilatera, 235
iperboloide, 256
- ellittico, 266
- iperbolico, 266
iperpiano improprio, 219
isometria, 177
isomorfismo
- di gruppi (o anelli o campi), 26
- di insiemi, 13
- di spazi vettoriali, 81

Legge di annullamento del prodotto, 25


Legge di reciprocit, 232
Leggi di De Morgan, 11
mappa, 12
matrice, 33
- definita negativa, 286
- associata a una trasformazione lineare, 88
- completamente ridotta, 42
- definita positiva, 286
- delle componenti, 88
- diagonale, 38
- diagonalizzabile
per similitudine, 128
- identica, 38
- ortogonale, 40
- prodotto, 34
- quadrata, 33
- triangolare alta, 39
- triangolare bassa, 39
- regolare, 40
- ridotta (a gradini), 41
- semi-diagonale, 263
- somma, 34
- trasposta, 34
- simmetrica, 34
matrice di Gram, 145
matrici
- simili, 120
- simmetriche congruenti, 283
Metodo di Gauss, 54

INDICE ANALITICO

minore, 55
- orlato, 96
- complementare, 55
molteplicit
- a lgebrica di un autovalore, 125
- di una radice, 276
- geometrica di un autovalore, 125
monomio, 28
n-pla
- delle componenti di un vettore, 76
- linearmente dipendente, 69
- linearmente indipendente, 69
norma euclidea, 132
nucleo di una trasformazione lineare, 83
numero cardinale, 18
- transfinito, 18
omomorfismo
- di anelli, 26
- di gruppi, 26
operatore lineare, 81
operazione binaria, 19
- interna, 19
parabola, 193
paraboloide, 255
- ellittico, 266
- iperbolico, 266
partizione, 16
permutazione, 13, 44
piano diametrale di una quadrica, 257
piano polare, 253
piano principale di una quadrica, 258
pivot, 42
polinomio, 28
- caratteristico, 123, 125
- irriducibile, 275
- nullo, 29
potenza del continuo, 18
Principio d'induzione, 8
Principio d'inerzia di Sylvester, 285
prodotto
- cartesiano, 11
- di applicazioni, 14
- di uno scalare per un vettore, 61
- misto, 152
- naturale di n-ple , 36
- righe per colonne, 36
- scalare, 131
- vettoriale, 151
proiezione ortogonale, 146
punti
- affinemente indipendenti, 160
- impropri, 219
- propri, 219

291

punto medio, 174


quadrica, 247
- degenere, 250
- di rotazione, 260
- doppiamente rigata, 255
- ellittica, 255
- iperbolica, 255
- non degenere, 250
- non rigata, 255
- non specializzata, 250
- riducibile, 250
- specializzata, 250
radice
- di un polinomio, 275
- multipla, 276
rango, 42
- di una quadrica, 250
- di una con ica, 227
- di una matrice, 94
relazione, 12, 15
- di equivalenza, 15
- inversa, 12
- riflessiva, 15
- simmetrica, 15
- transitiva, 15
Relazione di Grassmann, 78
retta polare, 231
ricoprimento, 16
riferimento cartesiano, 157
rotazione, 179
scalare, 61
scambio di indici, 45
segnatura di una matrice simmetrica, 285
segno di una permutazione, 45
sfera, 271
sigla di una matrice simmetrica, 285
Simboli di Kronecker, 38
simboli logici, 7
simmetria
- centra le, 175
- ortogonale, 176
simplesso, 172
sistema
- lineare, 99
- minimo, 107
- normale (o di Cramer), 105
- omogeneo, 103
- unione, 101
sistema di generatori, 67
sistemi lineari
- equivalenti, 102
somma
- di sottoinsiemi, 77

INDICE ANALITICO

292

- di vettori, 61
- diretta, 78
sostegno di uno spazio vettoriale, 61
sostituzione, 13, 44
sottoanello, 26
sottocampo, 26
sottogruppo, 26
sottoinsieme
- linearmente chiuso, 65
- linearmente dipendente, 69
- linearmente indipendente, 69
sottomatrice, 55
sottospazi euclidei, 160
- ortogonali, 167
- paralleli, 161
- sghembi, 161
sottospazi vettoriali, 65
- indipendenti, 78
spazi vettoriali
- isomorfi, 81
spazio
- delle soluzioni, 101
- euclideo, 155
- somma (o congiungente), 77
- vettoriale, 61
- finitamente generato, 67
- vettoriale euclideo, 131
- vettoriale euclideo orientato, 150
stella
- di piani, 211
- di rette, 211
struttura algebrica, 21
supporto
- improprio, 225
- proprio, 225

Sviluppo di Laplace, 56
Teorema del completamento a una base, 75
Teorema di Binet, 52
Teorema di Cramer, 105
Teorema di Harriot-Cartesio, 279
Teorema di Kronecker, 96
Teorema di Laplace, 54
Teorema di Rouch - Capelli, 103
Teorema di RuHni, 275
Teorema fondamentale dell'algebra, 277
Teorema fondamentale delle trasformazioni lineari, 84
Teorema spettrale, 128
trasformato, 12
trasformazione
- lineare, 81
- standard, 81
- ortogonale, 141
trasformazioni elementari, 42
traslazione, 104, 179
trasposizione, 45
unione di insiemi, 10
versore, 132
vertice
- di una conica, 235
- di una quadrica, 258
vettore, 61
- applicato, 62
vettori
- ortogonali, 135
volume di un simplesso, 172
zero di un polinomio, 275

Finito di stampare
nel Settembre 201 O
dalla L.E.G.O SpA
Stabilimento di Lavis (TN)

You might also like