You are on page 1of 80

'

Elementi

di

Calcolo Tensoriale
su
&

Spazi Vettoriali
Sergio Benenti
20 giugno 2012

Indice
Palinsesto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1 Spazi vettoriali puri

iii
1

1.1 Richiami e notazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.2 Forme lineari e spazi duali . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.3 Forme bilineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.4 Forme bilineari simmetriche . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.5 Forme quadratiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.6 Endomorfismi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12


1.7 Determinante e traccia di un endomorfismo . . . . . . . . . . . . . . . . . . 14
1.8 Polinomio caratteristico di un endomorfismo . . . . . . . . . . . . . . . . . . 16
1.9 Autovalori e autovettori di un endomorfismo . . . . . . . . . . . . . . . . . . 18
1.10 Il teorema di Hamilton-Cayley . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.11 Tensori

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

1.12 Somma tensoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24


1.13 Prodotto tensoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.14 Basi tensoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.15 Contrazione o saturazione di due indici . . . . . . . . . . . . . . . . . . . . . 28
1.16 Tensori antisimmetrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.17 Antisimmetrizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.18 Prodotto esterno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.19 Algebra esterna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.20 Il simbolo di Levi-Civita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2 Spazi vettoriali con struttura

39

2.1 Spazi vettoriali euclidei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39


2.2 Endomorfismi in spazi euclidei . . . . . . . . . . . . . . . . . . . . . . . . . 44
i

ii
2.3 Endomorfismi ortogonali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.3.1

Rappresentazione mediante simmetrie . . . . . . . . . . . . . . . . . 52

2.3.2

Decomposizione simmetrica delle isometrie . . . . . . . . . . . . . . 53

2.3.3

Rappresentazione esponenziale . . . . . . . . . . . . . . . . . . . . . 53

2.3.4

Rappresentazione di Cayley . . . . . . . . . . . . . . . . . . . . . . . 54

2.3.5

Rappresentazione quaternionale . . . . . . . . . . . . . . . . . . . . . 55

2.4 Lo spazio vettoriale euclideo tridimensionale . . . . . . . . . . . . . . . . . . 56


2.4.1

La forma volume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

2.4.2

Aggiunzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

2.4.3

Prodotto vettoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

2.4.4

Endomorfismi assiali . . . . . . . . . . . . . . . . . . . . . . . . . . . 64

2.4.5

Rotazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

2.5 Spazi vettoriali iperbolici . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

iii

Palinsesto
Argomenti trattati in questa dispensa.

Puri, senza strutture addizionali

euclidea

Su spazi vettoriali

pseudo-euclidea, iperbolica

Con struttura

simplettica

altre

puri

euclidei (1)

Su spazi affini
Calcolo

semi-euclidei (2)

tensoriale

pseudo-euclidei (3)

Pure

con connessione

riemanniana (4)

Su variet`
a differenziabili

Con struttura pseudo-riemanniana (5)

simplettica (6)

altre
Applicazioni:
(1) Meccanica razionale.
(2) Spazio-tempo newtoniano.
(3) Spazio-tempo di Minkowski: relativit`
a ristretta.
(4) Meccanica lagrangiana.
(5) Relativit`
a generale.
(6) Meccanica hamiltoniana.

Capitolo 1

Spazi vettoriali puri


1.1

Richiami e notazioni

Un insieme E `e uno spazio vettoriale o spazio lineare sopra un corpo commutativo K


se:
1. `e definita unoperazione binaria interna su E, + : E E E, detta somma, soddisfacente agli assiomi di gruppo commutativo:

u + v = v + u,
u, v E,

(u + v) + w = u + (v + w),
u, v, w E,

0 E | u + 0 = u, u E,

u E, v E | u + v = 0.

2. `e definita unoperazione K E E, detta prodotto per uno scalare, tale da


soddisfare alle seguenti condizioni:

a (u + v) = a u + a v,
a K, u E, v E,

(a + b)u = a u + b u,
a, b K, u E,

(ab) u = a(b u),


a, b K, u E,

1 u = u,
1 = unit`
a in K, u E.

Gli elementi di E si dicono vettori, gli elementi di K scalari. Denotiamo i vettori, salvo
lelemento neutro 0 E (zero o vettore nullo), con lettere grassetto (quasi sempre
minuscole). Con lo stesso simbolo 0 denotiamo anche lo zero del campo K. Per ogni
vettore u si ha 0u = 0. Si denota con u il vettore opposto a u, cio`e il vettore per
cui u + (u) = 0. Scriviamo v u al posto di v + (u). Il vettore nullo e lopposto di
un qualunque vettore sono unici (perche unici sono, in un qualunque gruppo, lelemento
neutro e il reciproco di un qualunque elemento).
1

Capitolo 1. Spazi vettoriali puri

Tra gli spazi vettoriali sopra un assegnato campo K ritroviamo il campo stesso e tutte le
sue potenze cartesiane Kn , cio`e linsieme delle n-ple di elementi del campo.
Un sottoinsieme S E `e un sottospazio se le propriet`
a (i) e (ii) valide in E valgono
anche per tutti gli elementi di S. Se K e L sono due sottospazi, denotiamo con K + L
la loro somma, cio`e linsieme dei vettori di E costituito da tutte le possibili somme di
elementi di K e di L. La somma K + L e lintersezione K L di due sottospazi vettoriali
sono a loro volta dei sottospazi. Denotiamo con E F la somma diretta di due spazi
vettoriali (sul medesimo corpo K): `e il prodotto cartesiano E F dotato della naturale
struttura di spazio vettoriale definita dalle operazioni (u, w) + (u0 , w0 ) = (u + u0 , w + w 0 )
e a(u, w) = (au, aw). Denoteremo anche con u w un generico elemento di E F . Si
dice anche che uno spazio vettoriale E `e la somma diretta di due suoi sottospazi K e
L se E = K + L e se K L = {0}. In tal caso ogni vettore `e la somma di due vettori
univocamente determinati di K e L. E risulta pertanto identificabile con K L.
Una scrittura del tipo

a v 2 + a v 2 + . . . + a vk =

k
X

ai vi

i=1

prende il nome di combinazione lineare dei vettori v i con coefficienti ai K. Due o


pi`
u vettori si dicono indipendenti se la sola combinazione lineare che fornisce il vettore
nullo `e quella a coefficienti tutti nulli:
k
X

ai vi = 0

ai = 0.

i=1

Uno spazio vettoriale `e detto a dimensione finita se ammette una base costituita da
un numero finito n di vettori, cio`e un insieme di n vettori indipendenti che generano
tutto E tramite tutte le loro possibili combinazioni lineari. Il numero n coincide col
massimo numero di vettori indipendenti in un qualunque insieme di vettori. Esso prende
il nome di dimensione dello spazio. Scriveremo En oppure dim(E) = n per indicare che
la dimensione dello spazio vettoriale E `e n. Una generica base di E sar`
a denotata con
(e1 , e2 , . . . , en ) o brevemente con (ei ), dove lindice i sar`
a inteso variare da 1 a n. La
scrittura
n
X
1
2
n
v = v e2 + v e2 + . . . + v en =
v i ei
i=1

`e la rappresentazione di un generico vettore v E secondo la base (ei ). I coefficienti


di questa combinazione lineare sono le componenti del vettore v. Le componenti di un
vettore, fissata la base, sono univocamente determinate. Si noti la diversa posizione degli
indici riservata alle componenti (v i ), in alto anziche in basso. Si conviene tuttavia di
omettere il simbolo di sommatoria per indici ripetuti in alto e in basso (convenzione di
Einstein). Allora la rappresentazione precedente si scrive pi`
u semplicemente
v = v i ei .

1.1. Richiami e notazioni

Si noti che non ha importanza la scelta dellindice, purche la lettera usata appartenga
ad un insieme precedentemente convenuto (per esempio, lettere latine minuscole, lettere
greche, lettere latine maiuscole dopo la I, e cos` via). Se per esempio conveniamo che le
lettere latine minuscole a partire dalla h varino da 1 a n, la precedente scrittura `e del tutto
equivalente alle seguenti:
v = v h eh ,

v = v j ej ,

v = v k ek ,

...

La diversa collocazione degli indici e la sommatoria sottintesa per indici ripetuti in alto
e in basso sono convenzioni tipiche del calcolo tensoriale, i cui primi elementi saranno
illustrati in questo capitolo. Il formalismo che ne deriva `e agevole e sintetico.
Le formule riguardanti il calcolo vettoriale o tensoriale sono in genere di tre tipi. Una formula `e di tipo intrinseco o assoluto se essa coinvolge vettori o tensori ed operazioni definite
su questi senza lintervento di basi. Ad una formula di tipo intrinseco corrisponde sempre
una formula con indici o in componenti, conseguente alla scelta di una base generica. Vi
sono infine formule, con indici, valide soltanto per una base particolare o per una classe
particolare di basi. Per sottolineare questa circostanza useremo sovente unuguaglianza

con asterisco: =.
Per quel che riguarda il concetto di dimensione `e opportuno ricordare che per due sottospazi di uno spazio vettoriale E vale la formula di Grassmann (Hermann G
unther
Grassmann, 1809-1877)
dim(K + L) + dim(K L) = dim(K) + dim(L).
Unapplicazione A : E F da uno spazio vettoriale E ad uno spazio vettoriale F si dice
lineare se
A(a u + b v) = a A(u) + b A(v)

(u, v E, a, b K).

Si dice anche che A `e un omomorfismo lineare. Denoteremo in genere gli omomorfismi


lineari con lettere maiuscole in grassetto. Denoteremo con
Hom(E; F )
o semplicemente con
L(E; F )
linsieme delle applicazioni lineari da E a F . Questinsieme ha una naturale struttura di
spazio vettoriale, con la somma A + B e il prodotto a A per un elemento a K definiti
da
(A + B)(v) = A(v) + B(v),
(a A)(v) = a A(v).
Pi`
u in generale, se (E1 , E2 , . . ., Ep, F ) sono spazi vettoriali, unapplicazione
A : E1 E2 . . . Ep F

Capitolo 1. Spazi vettoriali puri

`e detta p-lineare (genericamente multilineare) se `e lineare su ogni argomento. Ad


esempio lapplicazione R2 R : (x, y) 7 xy `e bilineare (linsieme dei numeri reali R ha
unovvia struttura di spazio vettoriale su se stesso, di dimensione 1). Denoteremo con
L(E1, E2 , . . . , Ep; F )
linsieme delle applicazioni multilineari da E1 E2 . . . Ep a F . Anchesso `e dotato di
una struttura naturale di spazio vettoriale.
In queste lezioni ci limiteremo a considerare solo spazi vettoriali reali (cio`e sul campo dei
reali, K = R) e a dimensione finita.
Eesamineremo i seguenti spazi di applicazioni:
L(E; F ) = Hom(E, F )
L(E; R) = E

applicazioni lineari
spazio duale di E

L(E; E) = End(E)

endomorfismi lineari su E

L(E, E; R) = T2 (E)

forme bilineari su E

L(E , . . . , E , E, . . ., E ; R) = Tqp (E)


| {z } | {z }
p volte

1.2

tensori di tipo (p, q).

q volte

Forme lineari e spazi duali

Unapplicazione lineare : E R da uno spazio vettorale E allo spazio R dei numeri


reali `e detta forma lineare su E o covettore. Lo spazio L(E; R) delle forme lineari `e
pi`
u semplicemente denotato con E ed `e chiamato spazio duale di E.
Al posto di (v) useremo il simbolo
hv, i
per denotare il valore del covettore sul vettore v. Diremo che hv, i `e la valutazione
di su v o, viceversa, di v su . Ponendo F = R in quanto si `e detto nel paragrafo
precedente, si vede in particolare che
dim(E ) = dim(E).
Esiste unisomorfismo canonico : E E tra lo spazio biduale E = L(E ; R) e lo
spazio E stesso, definito dalluguaglianza
h, (v)i = hv, i.

(1.1)

Gli elementi di E saranno di seguito sempre identificati con i vettori di E.


Ad ogni sottospazio K E associamo un sottospazio K E , detto polare di K,
costituito da tutti i covettori che annullano tutti gli elementi di K:
K = { E | hu, i = 0, u K}.

(1.2)

1.2. Forme lineari e spazi duali

Sussistono le seguenti propriet`


a, qualunque siano i sottospazi K e L di E:

dim(K) + dim(K ) = dim(E),

K = K,

K L L K,

(K + L) = K L ,


K + L = (K L) .

(1.3)

La loro dimostrazione `e lasciata come esercizio. Si noti che la seconda di queste uguaglianze
sottintende lintervento dellisomorfismo canonico tra lo spazio e il suo biduale e che inoltre,
in virt`
u di questo isomorfismo, le ultime due uguaglianze (1.3) esprimono la medesima
propriet`
a.
Ad ogni base (ei ) di E corrisponde un base duale in E , che denotiamo con (i ), definita
implicitamente dalluguaglianza:
hej , i i = ji

(1.4)

dove ji `e il simbolo di Kronecker (Leopold Kronecker, 1823-1851):


ji

se

i=j

se

i 6= j

Per ogni v E e E valgono le relazioni:


v = v i ei

v i = hv, i i

(1.5)

= i i

i = hei , i

(1.6)

hv, i = i v i

(1.7)

La loro dimostrazione `e lasciata come esercizio. Si osservi la diversa posizione degli indici
delle componenti di un covettore (in basso, anziche in alto come per le componenti dei
vettori) e la simmetria formale di queste uguaglianze. Lequivalenza (1.5) mostra che
le componenti di un vettore sono ottenute valutando sul vettore gli elementi della base
duale. Analogamente la (1.6) mostra che le componenti di un covettore coincidono con le
valutazioni di questo sugli elementi della base di E. Infine la (1.7) mostra che la valutazione
tra un vettore ed un covettore `e data dalla somma dei prodotti delle componenti omologhe.
Osservazione 1.2.1 Rappresentazione geometrica dei covettori. Ad ogni covettore
E si possono far corrispondere due sottoinsiemi di E:
A0 = {x E |hx, i = 0},

A1 = {x E |hx, i = 1}.

Capitolo 1. Spazi vettoriali puri

A0 `e un sottospazio di codimensione 1, A1 `e un suo laterale. La conoscenza di questi due


sottoinsiemi (in effetti basterebbe la conoscenza del secondo) determina completamente .
Infatti, dato un vettore v E, o `e v A0 , e allora poniamo hv, i = 0, oppure `e v = x
con x A1 , e allora poniamo hv, i = . Si osservi che, denotate con (xi ) le componenti
di un generico vettore x, i due sottoinsiemi A0 e A1 sono rispettivamente definiti dalle
equazioni
i xi = 0,
i xi = 1.
Si tratta di una coppia di iperpiani paralleli, il primo passante per lorigine.


Rappresentazione geometrica dei


covettori.

1.3

Forme bilineari

Una forma bilineare su di uno spazio vettoriale E `e unapplicazione bilineare di E E


in R. Lo spazio delle forme bilineari1 `e denotato con L(E, E; R).
Assegnata una base (ei ) di E, i numeri
ij = (ei , ej )

(1.8)

si chiamano componenti della forma bilineare secondo la base. Per ogni coppia di vettori
di E si ha:
(u, v) = ij ui v j

(1.9)

Le componenti [ij ] formano una matrice quadrata n n. Conveniamo che il primo indice
sia indice di riga, il secondo di colonna. Si chiama rango della forma il rango della
matrice [ij ].2
1

In accordo con quanto detto allinizio di questo capitolo.


Naturalmente, affinche questa definizione abbia senso, occorre dimostrare che il rango della matrice
delle componenti non dipende dalla scelta della base di E.
2

1.3. Forme bilineari

Una forma bilineare si dice regolare o non degenere se vale la condizione


(u, v) = 0, v E

u=0

(1.10)

v = 0.

(1.11)

oppure la condizione equivalente


(u, v) = 0, u E
Entrambe sono equivalenti alla condizione
det[ij ] 6= 0.

(1.12)

Dunque una forma bilineare `e regolare se e solo se ha rango massimo (= n).


Che la (1.12) sia equivalente alla (1.10) segue dal fatto che, in componenti, limplicazione
(1.11) si scrive:
ij ui v j = 0, (v i ) Rn = ui = 0.

Questa si semplifica in

ij ui = 0

ui = 0,

ed esprime la circostanza che il sistema lineare omogeneo (di n equazioni in n incognite)


ij ui = 0 ammette solo la soluzione nulla.
Definizione 1.3.1 La trasposta di una forma bilineare `e la forma bilineare T
definita da
T (u, v) = (v, u)

(1.13)

Si ha ovviamente TT = .
Definizione 1.3.2 Una forma bilineare si dice simmetrica (rispettivamente, antisimmetrica) se
T =
(risp. T = ),
(1.14)

cio`e se

(u, v) = (v, u),

(risp. (u, v) = (v, u)).

(1.15)

Questa condizione si esprime, qualunque sia la base scelta, nella simmetria (risp. nella
antisimmetria) della matrice delle componenti (basta porre (u, v) = (ei , ej ) nella (1.13)):
ij = ji ,

(risp. ij = ji ).

(1.16)

Una forma bilineare `e decomponibile nella somma della sua parte simmetrica S e
della sua parte antisimmetrica A . Vale cio`e luguaglianza
= S + A
posto
S = 12 ( + T ),

A = 12 ( T )

(1.17)

Capitolo 1. Spazi vettoriali puri

Osservazione 1.3.1 Un esempio elementare ma importante di forma bilineare `e dato dal prodotto tensoriale di due forme lineari , E . Esso `e definito
dalluguaglianza
( ) (u, v) = hu, ihv, i

(1.18)

Se (i ) `e la base duale di una base (ei ) di E allora gli n2 prodotti i j formano una base
di L(E, E; R). Cos` una qualunque forma bilineare pu`
o esprimersi come combinazione
lineare di questi:3
= ij i j

(1.19)

dove le ij sono proprio le componenti definite dalla (1.8).

1.4

Forme bilineari simmetriche

Sia una forma bilineare simmetrica. Due vettori si dicono coniugati (o anche ortogonali) rispetto a se (u, v) = 0. In particolare un vettore si dice isotropo se `e coniugato
con se stesso, (u, u) = 0, unitario se invece (u, u) = 1.

Due sono i concetti fondamentali associati ad una forma bilineare simmetrica: quello di
base canonica e quello di segnatura.

Una base (ei ) di E si dice canonica (sempre rispetto a ) se tutti i suoi vettori sono
unitari o isotropi e fra loro coniugati, cio`e se, dopo un eventuale riordinamento della base,
la matrice della componenti assume la forma:

1p
0
0

(1.20)
[ij ] =
0 1q 0

0
0
0
dove 1p e 1q denotano le matrici unitarie di ordine p e q rispettivamente. In una base
canonica si ha quindi (si confronti con la (1.9):
(u, v) =

p
X
a=1

u v

p+q
X

ub v b .

(1.21)

b=p+1

Si dimostra4 che esistono basi canoniche e inoltre che in ogni base canonica la matrice
delle componenti `e sempre del tipo (1.20), vale a dire che gli interi p e q sono invarianti
rispetto alla scelta di basi canoniche. Questa notevole propriet`
a `e nota come teorema
di Sylvester o legge di inerzia delle forme quadratiche (James Joseph Sylvester,
1814-1897). Alla coppia di interi non negativi (p, q) si d`
a il nome di segnatura della
forma bilineare simmetrica .
3
4

Sul prodotto torneremo pi`


u avanti.
La dimostrazione `e in appendice al paragrafo.

1.5. Forme quadratiche

Si osserva dalla (1.20) che la somma p + q `e uguale al rango di .


Per calcolare la segnatura di una forma bilineare simmetrica basterebbe determinare
una base canonica (o almeno una base di vettori fra loro ortogonali) (ei ) e valutare quindi
i segni dei numeri (ei , ei ), la qual cosa pu`
o rivelarsi in pratica piuttosto difficoltosa. Si
pu`
o allora fare ricorso ad un metodo assai rapido, illustrato nel seguente teorema:5
Teorema 1.4.1 Sia [ij ] la matrice delle componenti di una forma bilineare simmetrica
relativa ad una base qualsiasi. Si consideri una qualunque successione di sottomatrici
quadrate principali, di ordine crescente da 1 a n, ciascuna contenuta nella successiva:
M1 ,

M2 ,

...

, Mn = [ij ].

Allora lintero q della segnatura (p, q) `e uguale al numero delle variazioni di segno della
successione di numeri
1,

M1 ,

det M2 ,

...

det Mn = det[ij ],

dalla quale siano stati eliminati gli eventuali zeri.


Calcolato lintero q, lintero p viene poi calcolato conoscendo il rango r della matrice:
p = r q. Si noti bene che questo metodo per il calcolo della segnatura lascia piena libert`
a
di scelta della base e delle sottomatrici della successione.

1.5

Forme quadratiche

Data unapplicazione : E R, si dice sua polarizzazione lapplicazione


: E E R
definita da
(u, v) =

1
2

h
i
(u + v) (u) (v)

(1.22)

Una forma quadratica su di uno spazio vettoriale E `e unapplicazione : E R la cui


polarizzazione `e una forma bilineare (ovviamente simmetrica).
Pertanto, per la sua stessa definizione, ad una forma quadratica corrisponde una forma
bilineare simmetrica. Viceversa, se `e una forma bilineare simmetrica allora lapplicazione
: E R definita da
(u) = (u, u) = ij ui uj

(1.23)

Una dimostrazione si trova in F.G. Tricomi, Lezioni di Analisi Matematica I (CEDAM, Padova).

10

Capitolo 1. Spazi vettoriali puri

`e una forma quadratica tale che = . Infatti:


(u, v) =
=
=

1
2
1
2
1
2

(u + v) (u) (v)

(u + v, u + v) (u, u) (v, v)

(u, u) + (v, v) + 2 (u, v) (u, u) (v, v)

= (u, v).

Vi `e dunque una corrispondenza biunivoca fra forme quadratiche e forme bilineari simmetriche. Stante questa corrispondenza tutte le definizioni e le propriet`
a stabilite per le
forme bilineari si trasferiscono alle forme quadratiche, e viceversa.
Esempio 1.5.1 Consideriamo E = R2 e la funzione
: R2 R : (x, y) 7 x y.
Calcoliamone la polarizzazione seguendo la definizione (1.22) con u = (x1 , y1 ) e v =
(x2 , y2 ):
h
i
((x1 , y1 ), (x2 , y2 )) = 12 (x1 + x2 )(y1 + y2 ) x1 y1 x2 y2
=

1
2
1
2

(x1 y1 + x1 y2 + x2 y1 + x2 y2 x1 y1 x2 y2 )
(x1 y2 + x2 y1 ) .

Se si fissa il vettore v = (x2 , y2 ), questultima espressione `e un binomio lineare in (x1 , y1 );


similmente, se si fissa il vettore u = (x1 , y1 ), essa `e lineare in (x2 , y2 ). Pertanto la mappa
: R2 R2 R : ((x1 , y1 ), (x2 , y2 )) 7

1
2

(x1 y2 + x2 y1 )

`e bilineare e quindi : R2 R : (x, y) 7 x y `e una forma quadratica.


Definizione 1.5.1 Una forma quadratica si dice semi-definita positiva (rispettivamente, semi-definita negativa) se
(u) 0

(risp. (u) 0)

u E.

In particolare si dice definita positiva (risp. definita negativa) se essa si annulla solo
sul vettore nullo, cio`e se oltre alla condizione precedente vale limplicazione
(u) = 0

u = 0.

Si dice non definita o indefinita in tutti gli altri casi.


In una base canonica si ha (si veda la (1.21))
(u) =

p
p+q
X
X
(ua )2
(ub )2 .
a=1

b=p+1

(1.24)

11

1.5. Forme quadratiche

Di qui si osserva che: (a) una forma quadratica `e semidefinita positiva se q = 0; (b) `e
definita positiva se p = n. Analogamente per il caso negativo.
Per una forma bilineare simmetrica semi-definita positiva (o negativa) vale la disuguaglianza di Schwarz (Hermann Schwarz, 1843-1921)
(u, v)

2

(u)(v),

u, v E

(1.25)

Se in particolare `e definita positiva (o negativa), allora si ha luguaglianza se e solo se


u e v sono dipendenti.
***
Dimostrazione dellesistenza di basi canoniche. Basta dimostrare lesistenza di basi ortogonali, per cui cio`e (ei , ej ) = 0 per i 6= j. Se = 0 ogni base `e ortogonale. Supponiamo
6= 0 e procediamo per induzione sullintero n = dim(E). Per n = 1 ogni vettore non nullo e E `e una base ortogonale per qualunque forma bilineare simmetrica su E. Sia allora
n > 1 e si supponga che ogni forma bilineare simmetrica su di uno spazio di dimensione
< n ammetta una base ortogonale. Posto che 6= 0, esiste almeno un vettore u E per
cui (u, u) = (u) 6= 0. Si consideri allora il sottospazio U = {v E | (u, v) = 0} dei
vettori ortogonali a u. Siccome u
/ U , abbiamo m = dim(U ) n 1. Per la restrizione
a U U di esiste allora una base ortogonale (e1 , . . . , em ). Daltra parte, posto per ogni
vE
(u, v)
,
vn =
(u, u)
si vede che (u, v v n u) = 0. Dunque v v n u U e quindi
n

v =v u+

m
X

v i ei .

i=1

Ci`
o mostra che i vettori indipendenti (e1 , . . . , em , u) formano una base ortogonale di E (e
quindi anche che m = n 1). 2
***
Dimostrazione del Teorema di Sylvester. Siano (ei ) e (ei0 ) due basi canoniche per la forma
bilineare simmetrica . Per la (1.24) si ha, per ogni u E, luguaglianza
(u) =

p
X
a=1

a 2

(u )

p+q
X

b=p+1

b 2

(u ) =

p
X

a0 =1

a0 2

(u )

0 +q 0
pX

(ub )2 .

(1.26)

b0 =p0 +1

Si ha certamente p0 + q 0 = p + q = rank(). Occorre dimostrare che p0 = p. Si supponga


0
per assurdo p0 > p (e quindi q 0 < q). Considerata la relazione lineare ei = Eii ei0 tra le
due basi, si scriva il sistema lineare omogeneo
p+q
X

b=p+1

Ebb xb = 0,

b0 = p0 + 1, . . . , p0 + q 0 .

(1.27)

12

Capitolo 1. Spazi vettoriali puri

Si tratta di q 0 equazioni nelle q incognite (xp+1 , . . . , xp+q ). Siccome q 0 < q, questo sistema
ammette certamente una soluzione non nulla (up+1 , . . . , up+q ). Sia u E il vettore che
ha tutte le altre componenti nulle: u1 = . . . = up = up+q+1 = . . . = un = 0. Per la prima
parte della (1.26) si ha sicuramente (u) < 0. Con una tale scelta si ha daltra parte
0

ub = Eib ui =

p+q
X

Ebb ub = 0

b=p+1

perche (up+1 , . . . , up+q ) `e una soluzione del sistema (1.27). Dalla seconda della (1.26) segue
allora (u) 0: assurdo. Per simmetria lipotesi p0 < p conduce pure ad un assurdo.
Dunque p0 = p. 2
Dimostrazione della disuguaglianza di Schwarz. Fissati i vettori u e v, qualunque sia
x R, si ha (u + x v) 0 perche `e semidefinita positiva. Questa disuguaglianza si
traduce in
T (x) x2 (v) + 2 x (u, v) + (u) 0,
(1.28)
2
dove (v) 0. Se (v) > 0, il discriminante = (u, v) (u)(v) del trinomio
T (x) non pu`
o essere positivo, altrimenti T (x) avrebbe due radici reali e distinte e la (1.28)
sarebbe violata. Da 0 segue la disuguaglianza (1.25). Se (v) = 0, perche la (1.28) sia
sempre soddisfatta deve essere necessariamente (u, v) = 0. La (1.25) `e allora soddisfatta
come uguaglianza. Se u `e proporzionale a v (in particolare nullo), si verifica subito che
vale luguaglianza nella (1.25). Viceversa, se vale luguaglianza risulta = 0 e pertanto
il trinomio T (x) ammette una radice doppia x0 tale che (u + x0 v) = 0. Se `e definita
positiva deve necessariamente essere u + x0 v = 0. 2
Osservazione 1.5.1 Le considerazioni qui svolte sulle forme quadratiche trovano applicazione nella teoria dei massimi e minimi di una funzione a pi`
u variabili e nella classificazione delle coniche, quadriche e iperquadriche.

1.6

Endomorfismi lineari

Denotiamo con End(E) lo spazio delle applicazioni lineari L(E; E) di uno spazio vettoriale
E in se stesso, cio`e lo spazio degli endomorfismi lineari di E. Denotiamo semplicemente
con BA la composizione di due endomorfismi B A. Loperazione di composizione degli
endomorfismi conferisce allo spazio End(E) la struttura di algebra associativa con unit`
a;
lunit`
a `e lapplicazione identica di E in se stesso, che denotiamo con idE o con 1E o
semplicemente con 1. Denotiamo con 0 : E E lapplicazione che manda tutti i vettori
di E nello zero.
Gli endomorfismi invertibili sono detti automorfismi o trasformazioni lineari di E.
Formano un gruppo che denotiamo con Aut(E). Si denota con A1 linverso di un
automorfismo A.
Scelta una base (ei ) dello spazio E, ad ogni endomorfismo A End(E) risulta associata
una matrice quadrata [Aji ]nn , detta matrice delle componenti di A nella base (ei )

13

1.6. Endomorfismi lineari

e definita dalluguaglianza
A(ei ) = Aji ej

(1.29)

Di conseguenza, luguaglianza v = A(u) si traduce, in componenti, nelluguaglianza


v j = Aji ui

(1.30)

Infatti, posto che u = ui ei e v = v i ei , per la linearit`


a di A e per la definizione (1.29),
si ha successivamente:
A(u) = A(ui ei ) = ui A(ei ) = ui Aji ej
da cui segue che ui Aji coincide con la componente v j di v.
Osservazione 1.6.1 La matrice delle componenti dellidentit`
a 1 `e, qualunque sia la
base scelta, la matrice unitaria. Vale a dire:
(1)ij = ji .
Osservazione 1.6.2 Applicando ad entrambi i membri della definizione (1.29) un covettore k della base duale di (ei ) si trova luguaglianza
Aki = hA(ei ), k i

(1.31)

che fornisce le componenti di A in maniera esplicita.6


Osservazione 1.6.3 La matrice delle componenti di un prodotto di endomorfismi `e il
prodotto delle due rispettive matrici:
(AB)ji = Ajk Bik

(1.32)

Si ha infatti, applicando la (1.31) e la (1.29):


j

(AB)i

= hA(B(ei )), j i = hA(Bik ek ), j i


= Bik hA(ek ), j i = Bik Ajk .

Si noti che se si conviene che lindice in basso sia indice di colonna, il prodotto matriciale
nella (1.32) `e righe per colonne: righe della prima matrice (Bik ) per le colonne della seconda
o che la scrittura Ajk Bik a secondo membro della (1.32) `e
matrice (Ajk ). Si noti bene per`
j
del tutto equivalente a Bik Ak .
6

La (1.29) le fornisce in maniera implicita.

14

Capitolo 1. Spazi vettoriali puri

Osservazione 1.6.4 Gli automorfismi sono caratterizzati dalla risolubilit`


a del sistema
lineare (1.30) rispetto alle (uj ), quindi dalla condizione
det[Aij ] 6= 0.
La matrice delle componenti di A1 `e linversa della matrice [Aij ].
***
Commutatore di due endomorfismi. Le due operazioni binarie interne fondamentali nello spazio degli endomorfismi End(E), consentono di definire una terza operazione binaria interna, il commutatore. Il commutatore di due endomorfismi A e B `e
lendomorfismo
[A, B] = AB BA.
(1.33)
Si ha [A, B] = 0 se e solo se i due endomorfismi commutano. Il commutatore [, ] gode
delle seguenti propriet`
a:

[A, B] = [B, A] ,

[aA + bB, C] = a [A, C] + b [B, C] ,


(1.34)

[A, [B, C]] + [B, [C, A]] + [C, [A, B]] = 0.

Le prime due, di verifica immediata, mostrano che il commutatore `e antisimmetrico e bilineare. La terza, la cui verifica richiede un semplice calcolo, prende il nome di identit`
a
di Jacobi (Carl Gustav Jacob Jacobi, 1804-1851). Uno spazio vettoriale dotato di unoperazione binaria interna soddisfacente a queste tre propriet`
a prende il nome di algebra
di Lie (Marius Sophus Lie, 1842-1899). Dunque End(E) `e un algebra di Lie. Vedremo
nel corso di queste lezioni altri esempi di algebre di Lie.

Nelle (1.34) la prima propriet`


a, cio`e la propriet`
a anticommutativa, pu`
o essere sostituita
da
[A, A] = 0.
(1.35)
`e infatti ovvio che la (1.34)1 implica la (1.35). Viceversa, se vale la (1.35) si ha successivamente:
0 = [A + B, A + B] = [A, A] + [B, B] + [A, B] + [B, A]
= [A, B] + [B, A] .
Di qui la (1.34)1.

1.7

Determinante e traccia di un endomorfismo

Sebbene la matrice delle componenti di un endomorfismo cambi al cambiare della base


fanno eccezione lendomorfismo nullo e quello identico vi sono delle grandezze ad essa

15

1.7. Determinante e traccia di un endomorfismo

associate che invece non risentono di questo cambiamento. Queste grandezze si chiamano
invarianti dellendomorfismo: pur essendo calcolate attraverso le componenti, non dipendono dalla scelta della base e sono quindi intrinsecamente legate allendomorfismo. Il
seguente teorema mette in evidenza i primi due invarianti fondamentali.7
Teorema 1.7.1 Il determinante det[Aij ] e la traccia Aii (cio`e la somma degli elementi della diagonale principale) della matrice delle componenti di un endomorfismo non
dipendono dalla scelta della base.

Dimostrazione. Siano (ei ) e (ei0 ) due basi di E. Sussistono i legami8


0

ei = Eii ei0

ei0 = Eii0 ei

(1.36)

dove (Eii ) e (Eii0 ) sono matrici regolari una inversa dellaltra, cio`e tali che
0

Eii Eij0 = ij ,

Eii0 Eij = ij0 .

(1.37)

Siano (Aji ) e (Aji0 ) le matrici delle componenti di un endomorfismo A rispetto alle due
basi date. Secondo la definizione (1.29) abbiamo
j

A(ei ) = Ai ej ,

j0

A(ei0 ) = Ai0 ej 0 .

Facendo intervenire le relazioni (1.36) si ha successivamente:


 0 
0
0
0
0
0
Aji ej = A(ei ) = A Eii ei0 = Eii A (ei0 ) = Eii Aji0 ej 0 = Eii Aji0 Ejj0 ej

Si ottiene quindi luguaglianza

Aji = Eii Aji0 Ejj0


0

(1.38)

che esprime la legge di trasformazione delle componenti di un endomorfismo al


variare della base. La (1.38), essendo presenti a secondo membro le sommatorie sugli
0
j
j0
indici ripetuti i0 e j 0 , mostra che la matrice [Ai ] `e il prodotto delle tre matrici [Eii ], [Ai0 ]
e [Ejj0 ]. Siccome il determinante del prodotto di matrici `e uguale ai prodotti dei rispettivi
determinanti, risulta
0
0
det[Aji ] = det[Eii ] det[Aji0 ] det[Ejj0 ]
Ma

det[Eii ] det[Ejj0 ] = 1
0

7
8

Presto ne definiremo altri.


0
Se (i ) e (i ) sono le corrispondenti basi duali, allora sussistono i legami
0

i = Eii i

i = Eii0 i

16

Capitolo 1. Spazi vettoriali puri

perche le due matrici coinvolte sono luna inversa dellaltra. Segue


0

det[Aji ] = det[Aji0 ]
e la prima tesi del teorema `e dimostrata. Ritorno ora alla (1.38) e vi pongo j = i
sottintendendo al solito la somma sullindice ripetuto i:
0

Aii = Eii Aji0 Eji0 .


0

A primo membro ho la traccia della matrice [Aji ]. A secondo membro tengo ancora conto
della sommatoria su i e osservo che
0

Eii Eji0 = ji 0
essendo le due matrici coinvolte una inversa dellaltra. Ottengo dunque, per la propriet`
a
di ,
0
j0 0
Aii = Ai0 ji 0 = Aii0 .
Anche la seconda parte della tesi `e dimostrata. 2
Dopo questo teorema `e lecito introdurre la seguente definizione:
Definizione 1.7.1 Il determinante e la traccia di un endomorfismo A End(E)
sono i numeri
det A = det[Aij ],
trA = Aii ,
dove [Aij ] `e la matrice delle componenti di A rispetto ad una qualunque base di E.
Osservazione 1.7.1 Si dimostra che per la traccia ed il determinante di un endomorfismo valgono le seguenti propriet`
a:

tr(A + B) = tr(A) + tr(B),

tr(a A) = a tr(A),

tr(AB) = tr(BA),

tr(1) = n,
(1.39)

det(AB) = det(A) det(B),

det(a A) = an det(A),

det(1) = 1.

1.8

Polinomio caratteristico di un endomorfismo

Introduciamo ora un altro concetto fondamentale nella teoria degli endomorfismi lineari,
che come prima cosa ci consentir`
a di definire ulteriori invarianti.

17

1.8. Polinomio caratteristico di un endomorfismo

Definizione 1.8.1 Dicesi polinomio caratteristico di un endomorfismo A End(E)


il polinomio di grado n = dim(E) nellindeterminata x definito da:
P (A, x) = (1)n det(A x 1).

(1.40)

Essendo definito da un determinante, il polinomio caratteristico `e un invariante, non


dipende cio`e dalla scelta della base. Si ha pertanto, comunque si scelga la base
P (A, x) = (1)n det(Aij x ji )

n
= (1) det

A11 x
A12

A21

...

An1

A22 x . . .

An2

..
.

..
.

A1n

A2n

..

..
.

. . . Ann x

(1.41)

Il segnante (1)n che interviene in questa definizione ha il compito di rendere uguale


a 1 il coefficiente di xn . Infatti, guardando il determinante nella formula precedente si
vede che la potenza massima (n-esima) di x viene fuori dall prodotto degli elementi della
diagonale principale, e risulta essere (x)n cio`e (1)n xn . Moltiplicando quindi il suddetto
determinante per (1)n , come indicato nella (1.41), il coefficiente di xn si riduce a 1, come
asserito.
Ci`
o detto, `e conveniente scrivere per esteso il polinomio caratteristico nella forma seguente:
P (A, x) =

Pn

k=0 (1)

k I (A) xnk
k

(1.42)

= xn I1 (A) xn1 + I2 (A) xn2 . . . + (1)n In (A).


Siccome questo polinomio `e invariante, sono invarianti tutti i suoi n coefficienti Ik (A)
(k = 1, . . ., n). Essi prendono il nome di invarianti principali di A.
Osservo subito che per x = 0 dalla (1.41) ottengo P (A, 0) = (1)n det A, e dalla (1.42)
P (A, 0) = (1)n In (A). Quindi, sempre grazie all presenza del segnate, trovo che
In (A) = det A

(1.43)

cio`e che ln-esimo invariante principale di A `e proprio uguale al determinante di A.


Per quel riguarda gli altri invarianti, sviluppando il determinante nella (1.41) si arriva
a dimostrare il teorema seguente:
Teorema 1.8.1 Linvariante principale Ik (A) `e dato dalla somma dei minori principali
di ordine k della matrice [Aij ].

18

Capitolo 1. Spazi vettoriali puri

Ricordiamo che un minore principale `e il determinante di una sottomatrice quadrata principale e che una sottomatrice quadrata si dice principale se la sua diagonale
principale `e formata da elementi della diagonale principale della matrice che la contiene.
Applicando questo teorema per k = n si ritrova In (A) = det A, mentre per k = 1 si trova
I1 (A) = trA

(1.44)

Dunque tra gli invarianti principali ritroviamo non solo il determinante ma anche la traccia.

1.9

Autovalori e autovettori di un endomorfismo

Un sottospazio S E si dice invariante rispetto ad un endomorfismo A se A(S) S.


Un vettore v E non nullo si dice autovettore di A se esiste un numero reale tale da
aversi
A(v) = v.
(1.45)
Un autovettore genera un sottospazio di autovettori (se si include lo zero), di dimensione
1 e invariante, che prende il nome di autodirezione.
Lequazione (1.45) pu`
o anche scriversi
(A 1)(v) = 0.

(1.46)

Scelta comunque una base di E, la (1.46) si traduce in un sistema di n equazioni lineari


omogenee nelle incognite (v i), componenti dellautovettore v:
(Aji ij ) v i = 0.

(1.47)

Tale sistema ammette soluzioni non banali se e solo se annulla il determinante della
matrice dei coefficienti, cio`e, vista la definizione (1.40), se e solo se `e radice del polinomio
caratteristico di A. Le radici del polinomio caratteristico, cio`e le soluzioni dellequazione
caratteristica, algebrica di grado n,
P (A, x) = 0,
prendono il nome di autovalori di A. Il loro insieme {1 , 2, . . . , n} prende il nome di
spettro di A.
Gli autovalori sono invarianti, nel senso sopra detto. Vista la forma (1.41) con cui si scrive
il polinomio caratteristico, dai noti teoremi sulle radici delle equazioni algebriche segue
che linvariante principale Ik (A) `e la somma di tutti i possibili prodotti di k autovalori.
Risulta in particolare:
I1 (A) = tr A = 1 + 2 + . . . + n ,
(1.48)
In (A) = det A = 1 2 . . . n .

19

1.9. Autovalori e autovettori di un endomorfismo

Chiamiamo molteplicit`
a algebrica di un autovalore , e la denotiamo con ma(), la sua
molteplicit`
a come radice del polinomio caratteristico.
Gli autovalori possono essere reali o complessi.
Consideriamo il caso reale.
Ad ogni autovalore reale corrisponde un sottospazio K E di autovettori ad esso
associati, soluzioni cio`e dellequazione (1.45). Chiamiamo molteplicit`
a geometrica di
la dimensione del sottospazio invariante associato K , e la denotiamo con mg(). Si
dimostra (la dimostrazione `e in appendice al paragrafo) che `e sempre
ma() mg()

(1.49)

Tuttavia, per alcuni tipi di endomorfismi vale sempre luguaglianza, per esempio per gli
endomorfismi simmetrici in spazi strettamente euclidei, che esamineremo pi`
u avanti. Osserviamo che sottospazi invarianti K1 e K2 corrispondenti ad autovalori distinti hanno
intersezione nulla:
1 6= 2

K1 K2 = 0

(1.50)

***
Dimostrazione della disuguaglianza (1.49). Sia un autovalore reale di un endomorfismo
A. Lequazione caratteristica di A pu`
o ovviamente anche scriversi
h
i
det (A 1) (x ) 1 = 0,

cio`e

(x )n I1 (A 1)(x )n1 + . . . + (1)n In (A 1) = 0, [


facendo intervenire gli invarianti principali dellendomorfismo A 1. Osserviamo ora che
lo spazio invariante K degli autovettori associati a `e il nucleo di questo endomorfismo,
e quindi
mg() = n rank(A 1) = n r.
Il rango r dellendomorfismo (A 1) coincide con il rango della matrice (Aji ij ),
comunque si scelga la base. Segue che gli invarianti
In (A 1), . . . , Ir+1 (A 1),
sono tutti nulli perche somma di minori principali di ordine maggiore di r della matrice
[Aji ij ]. Pertanto lequazione caratteristica si riduce in effetti allequazione
(x )n I1 (A 1)(x )n1 + . . . + (1)r Ir (A 1)(x )nr = 0.
Di qui si vede che `e una radice di ordine n r almeno, perche, pur essendo per ipotesi i
minori di ordine r non tutti nulli, non si pu`
o escludere che la somma di quelli principali,

20

Capitolo 1. Spazi vettoriali puri

vale a dire linvariante Ir (A 1), non si annulli. Dunque: ma() n r. Questa dimostrazione vale anche nel caso in cui `e complesso, perche anche in questo caso
mg() = n r dove r `e il rango della matrice (Aji ij ). 2
***
Se `e un autovalore complesso allora gli autovettori associati sono complessi: il sistema
(1.46) fornisce soluzioni complesse v i = ui + i w i.
Si `e cos` condotti a considerare la complessificazione dello spazio E, cio`e lo spazio C(E)
delle combinazioni v = u + i w, con u, w E, per le quali si definiscono le due operazioni
di somma e di prodotto per un numero complesso in maniera formalmente analoga a quella
della somma e del prodotto di numeri complessi.
Poiche lequazione caratteristica ha coefficienti reali, ad ogni autovalore complesso =
= a ib avente la stessa molteplicit`
a + ib corrisponde un autovalore coniugato
a. Si
osserva inoltre che se v = u + i w `e autovettore associato a , allora il vettore coniugato
e che ogni altro vettore complesso ottenuto
= u i w `e autovettore associato a ,
v
moltiplicando v per un numero complesso qualunque `e ancora autovettore associato a .
Osservazione 1.9.1 Se v = u + i w `e un autovettore associato ad un autovalore strettamente complesso = a + ib (cio`e tale che b 6= 0), allora i vettori reali componenti (u, w)
sono indipendenti. In caso contrario infatti, da una relazione del tipo u = cw seguirebbe
v = (c + i)w e quindi dalla (1.45), dividendo per c + i, A(w) = w con solo elemento complesso: assurdo. Decomposta allora la (1.45) nella sua parte reale e immaginaria,
risulta
A(u) = au bw,
A(w) = aw + bu.
(1.51)
Di qui si osserva che il sottospazio generato dai vettori indipendenti (u, w) `e invariante
in A. Sia questo sottospazio (bidimensionale) e si 0 il sottospazio invariante corrispondente ad un secondo vettore complesso v0 = u0 + iw0 sempre associato a . Non pu`
o
che essere = 0 oppure 0 = 0. Infatti, se un vettore non nullo x appartenesse
allintersezione, con opportuna moltiplicazione degli autovettori per un numero complesso,
ci si pu`
o ricondurre al caso in cui u = u0 = x. Dalla prima delle (1.51) seguirebbe
A(x) = ax bw,

A(x) = aw + bx,

da cui b(w w 0 ) = 0, quindi w = w0 . Ci`


o significa che v = v0 e quindi che = 0 .

Da queste propriet`
a si deduce che ogni autovalore complesso individua un sottospazio
invariante K che `e somma diretta di sottospazi invarianti bidimensionali. La sua dimensione `e quindi pari e inoltre K = K . In questo caso per molteplicit`
a geometrica di
sintende la met`
a della dimensione di K . Vale ancora la disuguaglianza (??), mentre la
(1.50) va sostituita dalla pi`
u generale
2
1 6= 2 , 1 6=

K1 K2 = 0

(1.52)

21

1.10. Il teorema di Hamilton-Cayley

1.10

Il teorema di Hamilton-Cayley

Dato un endomorfismo A, se ne possono considerare le potenze:


A0 = 1,

A1 = A,

A2 = A A,

...

Ak = A
. . . A},
| A{z

...

k volte

Quindi ad ogni polinomio di grado k

Pk (x) = a0 xk + a1 xk1 + . . . + ak
si pu`
o associare lendomorfismo
Pk (A) = a0 Ak + a1 Ak1 + . . . + ak 1.
Un polinomio Pk (x) si dice annichilante di A se Pk (A) si annulla identicamente.
Sussiste a questo proposito il notevole teorema di Hamilton-Cayley (William Rowan
Hamilton, 1805-1865; Arthur Cayley, 1821-1895):
Teorema 1.10.1 Il polinomio caratteristico di un endomorfismo `e annichilante:
An I1 (A) An1 + I2 (A) An2 . . . + (1)n In (A) 1 = 0.
Una prima importante conseguenza di questo teorema `e che la potenza n-sima di un
endomorfismo risulta essere una combinazione lineare delle precedenti, inclusa A0 = 1.
Cos` dicasi delle potenze An+1 e successive. Pertanto: tutte le potenze di un endomorfismo
A formano un sottospazio di End(E) al pi`
u di dimensione n, generato dallidentit`
a1 e
dalle prime n 1 potenze di A.9
***
Dimostrazione del teorema di Hamilton-Cayley. Basiamo la dimostrazione sullosservazione seguente. Se sussite unuguaglianza del tipo
C(x) (A x 1) = Pk (x) 1

(1.53)

dove Pk (x) `e un polinomio di grado k e dove C(x) `e un polinomio di grado k 1 in x a


coefficienti in End(E), cio`e del tipo
C(x) = xk1 C 1 + xk2 C 2 + . . . + x C k1 + C k ,
allora Pk (A) = 0 cio`e Pk (x) `e annichilante di A. Infatti, esplicitata questa uguaglianza


xk1 C 1 + xn2 C 2 + . . . + x C n1 + C n A x 1
9


= a0 xk + a1 xk1 + . . . + ak 1

Al pi`
u, perche non `e escluso che lidentit`
a 1 e le prime n 1 potenze di A siano linearmente dipendenti.

22

Capitolo 1. Spazi vettoriali puri

ed uguagliati i coefficienti delle varie potenze di x, si trova che

C 1 = a0 1,

C A C 2 = a2 1,

C k1 A C k = ak1 1,

C k A = ak 1.

Moltiplicando a destra rispettivamente per Ak , Ak1 , . . . , A le prime k di queste uguaglianze, e sommando poi membro a membro si trova 0 = Pk (A), come asserito. Ci`
o posto,
si tiene conto del fatto, dimostrato pi`
u avanti ( 1.19), che per ogni endomorfismo B esiste
e lendomorfismo complementare, per cui
sempre un endomorfismo B,

e B = det(B) 1.
B

Se ora si prende lendomorfismo B = A x 1, con indeterminata x, per la definizione di


polinomio caratteristico luguaglianza precedente diventa
e (A x 1) = P (A, x) 1.
(1)n B

e perche lendomorfismo
Questa `e del tipo (1.53), con k = n e C(x) = (1)n B,
e
complementare B ha come componenti dei determinanti di ordine n 1 della matrice
[Bji ] = [Aij x ji ], ed `e quindi un polinomio di grado n 1 in x. Pertanto P (A, A) = 0. 2

1.11

Tensori

La nozione di tensore ha avuto origine dalla teoria dellelasticit`


a. Si `e successivamente
sviluppata nellambito dellalgebra lineare e della geometria differenziale, trovando notevoli
applicazioni in vari rami della fisica-matematica.
Per arrivare a comprendere questa nozione partiamo da questa osservazione: abbiamo gi`
a
esaminato la nozione di forma bilineare e di endomorfismo su di uno spazio vettoriale E.
Assegnata una base di E le componenti di una forma bilineare e di un endomomorfismo
formano due matrici quadrate n n, dove n = dim E:
[ij ]

e [Aji ].

Quindi lanalisi e lapplicazione di queste due nozioni deve ricorrere al calcolo delle matrici
(quadrate). Questo `e una circostanza che le accomuna, pur essendo due nozioni ben distinte. Ma, come vedremo, un altro fatto le accomuna: le forme bilineari e gli endomorfismi
possono essere visti come tensori.
Una generale definizione di tensore `e la seguente:

23

1.11. Tensori

Definizione 1.11.1 Un tensore di tipo (p, q) sopra uno spazio vettoriale E `e unapplicazione multilineare del prodotto
(E )p E q = |E E {z
. . . E} |E E
{z. . . E}
p volte

q volte

in R. Un tensore di tipo (0, 0) `e per definizione un numero reale. Denotiamo con Tqp(E)
lo spazio tensoriale di tipo (p, q) su E, cio`e lo spazio
Tqp (E) = L(E , E , . . . , E , E, E, . . ., E ; R),
|
{z
} |
{z
}
p volte

q volte

ponendo inoltre, per (p, q) = (0, 0),

T00 (E) = R.

Vediamo che cosa `e lo spazio Tq (E) per i primi valori della coppia di interi (p, q) non
entambi nulli. Innanzitutto:
T01 (E) = L(E ; R) = E = E,
T10 (E) = L(E; R) = E ,
T20 (E) = L(E, E; R) (forme bilineari su E),

(1.54)

T02 (E) = L(E , E ; R) (forme bilineari su E ).


Poi:
T11 (E) = L(E , E; R) = End(E)

(1.55)

Questultima uguaglianza segue dallesistenza di un isomorfismo canonico tra lo spazio


L(E , E; R) e lo spazio degli endomorfismi su E, definito dalluguaglianza
A(, v) = hA(v), i,

E , v E.

(1.56)

A sinistra A `e interpretato come elemento di L(E , E; R), a destra come endomorfismo


lineare. In componenti abbiamo:
A(, v) = Aji j v i .
Definizione 1.11.2 Sia (ei ) una base di E e (i ) la sua duale in E . Diciamo
componenti di un tensore K Tqp (E) secondo la base (ei ) gli np+q numeri
i ...i

Kj11...jpq = K(i1 , . . . , ip , ej1 , . . . ejq )

(1.57)

24

Capitolo 1. Spazi vettoriali puri

Per esempio, le componenti di untensore K T21 (E) sono gli n3 numeri10


i
Kjh
= K(i , ej , eh ).

(1.58)

Si osservi la corrispondenza nella posizione degli indici a primo e a secondo membro di


queste uguaglianze.
Le componenti servono, innanzitutto, a calcolare il valore del tensore sui vettori e covettori.
Prendendo ad esempio il caso precedente, risulta:
i
K(, u, v) = Kjh
i uj v h .

(1.59)

Inoltre, al variare della base secondo le formule (1.36) e in analogia alla (1.38), le componenti di un tensore di tipo (1,2) variano secondo la legge
i
Kji0 h0 = Eii Ejj0 Ehh0 Kjh
.
0

(1.60)

Questa formula si deduce direttamente dalla definizione (1.58) scritta per la base accentata, tenendo conto quindi delle relazioni fra le basi, ed `e facilmente estendibile al caso di
un tensore di tipo qualunque, tenendo conto del formalismo degli indici ripetuti in alto e in
basso. A questo proposito osserviamo che per passare dalla base (ei ) alla base accentata
(ei0 ) viene usata la matrice (Eii0 ), con laccento in basso. Gli indici in basso non accentati
delle componenti vengono trasformati in indici accentati (sempre in basso) con la stessa
matrice. Per questo gli indici in basso delle componenti vengono detti indici covarianti.
Quelli in alto, invece, vengono detti indici contravarianti, perche nel trasformarsi fanno
intervenire la matrice inversa. Pertanto, un tensore di tipo (p, q) viene anche detto tensore
a p indici di contravarianza e q indici di covarianza. Un tensore di tipo (p, 0) viene detto tensore contravariante di ordine p, un tensore di tipo (0, q) tensore covariante
di ordine q. Denoteremo gli spazi tensoriali T0p (E) e Tq0 (E) semplicemente con T p (E) e
Tq (E).

1.12

Somma tensoriale

Sui tensori possono definirsi varie operazioni che nel loro insieme costituiscono il cosiddetto
calcolo tensoriale.
Innanzitutto vediamo la somma di due tensori. Essa pu`
o eseguirsi, a prima vista, solo fra tensori dello stesso tipo. Tuttavia in molte circostanze, come questa, torna utile
considerare la somma diretta di tutti gli spazi tensoriali, di tutti i tipi, ordinati come
segue:
T (E) = T00 (E) T01 (E) T10 (E) T02 (E) T11 (E) T20 (E) T03 (E) . . .
= R E E T02 (E) T11 (E) T20 (E) T03 (E) . . .
10

(1.61)

Se si vuole, si pu`
o dire che le componenti di un tensore di questo tipo formano una matrice cubica
di lato n.

25

1.13. Prodotto tensoriale

Questo `e lo spazio tensoriale su E.11 Un tensore K di tipo (p, q) pu`


o essere inteso come
elemento di T (E): lo si identifica con la successione costituita da tutti zeri e con K al
posto (p, q). Per esempio, se A T11 (E), allora si pu`
o intendere
A = 0000A0
dove a secondo membro A `e al quinto posto nella successione (1.61). Un siffatto elemento
di T (E) viene detto omogeneo. Pertanto ogni spazio tensoriale di tipo (p, q) pu`
o essere
inteso come sottospazio di T (E).
Su T (E) si introduce loperazione di somma diretta , definita sommando le singole
componenti omogenee.

1.13

Prodotto tensoriale

Dati due tensori, di tipo qualsiasi, K Tqp(E) e L Tsr (E), il loro prodotto tensoriale12
K L
p+r
`e per definizione un tensore di tipo (p + r, q + s): K L Tq+s
. Dunque, secondo la
definizione generale di tensore, `e innanzitutto unapplicazione multilineare

K L: E
. . . E } |E E
| E {z
{z. . . E} R.
p+r volte

q+r volte

Quando K L viene applicato ad una successione di p + r covettori


1 , 2 , . . ., p , 1 , 2 , . . . , r ,

(1.62)

a1 , a2 , . . . , aq , b1 , b2 , . . . , bs ,

(1.63)

e di q + s vettori,
il primo fattore K si prende i primi p covettori ed i primi q vettori e fornisce il numero
K(1 , 2 , . . ., p ; a1 , a2 , . . . , aq ).
Il secondo fattore L prende quel che resta e fornisce il numero
L(1 , 2 , . . . , r ; b1 , b2 , . . . , bs ).
Allora, il valore di K L sulle due successioni (1.62) e (1.63) `e per definizione il prodotto
di questi due numeri.
Per esempio, se K T21 (E) e L T11 (E), K L `e il tensore di tipo (2, 3) tale che
(K L)(, , u, v, w) = K(, u, v) L(, w),
per ogni , E , u, v, w E.
11
12

`e uno spazio vettoriale di dimensione infinita.


Si legge K tensore L.

(1.64)

26

Capitolo 1. Spazi vettoriali puri

Osservazione 1.13.1 Il prodotto tensoriale non `e commutativo: K L `e in generale


diverso da L K. Due tensori possono commutare in casi speciali, per esempio se K `e
un tensore covariante e L un tensore contravariante.
Osservazione 1.13.2 Il prodotto tensoriale di due tensori si estende per linearit`
a agli
elementi non omogenei della somma diretta T (E). Il prodotto tensoriale `e associativo:
K (L M ) = (K L) M .
Se uno dei due tensori `e di tipo (0, 0), cio`e un numero reale, il prodotto tensoriale `e
lordinario prodotto per uno scalare a R:
a K = K a = a K.

(1.65)

Con le due operazioni di somma e prodotto lo spazio T (E) assume la struttura di


algebra associativa: `e lalgebra tensoriale su E.
Osservazione 1.13.3 La comprensione del concetto di prodotto tensoriale `e facilitata
dal fatto che, come si riconosce facilmente, le componenti del prodotto tensoriale K L
sono il prodotto delle componenti di K e L rispettivamente. Per esempio, se K T21 (E)
e L T11 (E), allora
j
i
(K L)ij
(1.66)
hkl = Khk Ll .
Vediamo ora alcuni casi particolari ma fondamentali di prodotto tensoriale.
` lapplicazione bilineare
1 Prodotto tensoriale a b di due vettori a, b E. E
a b: E E R
definita da
(a b) (, ) = ha, i hb, i.

(1.67)

2 Prodotto tensoriale di due covettori , E `e lapplicazione bilineare


: E E R
definita da
( ) (a, b) = ha, i hb, i.

(1.68)

3 Prodotto tensoriale a di un vettore per un covettore: `e lapplicazione


bilineare
a : E E R
tale che
(a ) (, b) = ha, i hb, i.
In questo caso il prodotto `e commutativo: a = a.

(1.69)

27

1.14. Basi tensoriali

1.14

Basi tensoriali

Lassegnazione di una base (ei ) dello spazio vettoriale E genera automaticamente una base
per ogni spazio tensoriale Tqp (E). Sia i ) la base duale su E . Partiamo, come al solito,
dai casi pi`
u semplici.
1 I prodotti ei ej formano una base di T20 (E), cio`e delle forme bilineari su E , sicche
per ogni forma bilineare
K : E E R
(1.70)

vale la rappresentazione13

K = K ij ei ej

(1.71)

K ij = K(i , j )

(1.72)

con le componenti K ij definite da

Infatti per ogni coppia di covettori , E per la (1.70) e per la definizione di prodotto
tensoriale si ha
K(, ) = K ij ei ej (, ) = K ij i j .
Daltra parte, per la (1.71) e per la bilinearit`
a risulta
K ij i j = K(i , j ) i j = K(i i , j j ) = K(, ),
ed il ciclo si chiude.
2 I prodotti i j formano una base di T02 (E), cio`e delle forme bilineari su E
K : E E R,

(1.73)

e valgono contemporaneamente le formule, analoghe alle (1.71) e (1.72),


K = Kij i j

(1.74)

Kij = K(ei , ej )

(1.75)

3 I prodotti tensoriali ei j formano una base dello spazio tensoriale


T11 (E) = L(E , E; R) = End(E)
degli endomorfismi lineari su E. Per ogni endomorfismo K valgono le formule
K = Kij ej i
13

Si sottintende sempre la somma sugli indici ripetuti in alto e in basso.

(1.76)

28

Capitolo 1. Spazi vettoriali puri

con le componendi Aji definite come nella formula (1.31):


Kij = hK(ei ), j i

(1.77)

Da questi esempi traiamo la regola generale: i prodotti tensoriali


ei1 ei2 . . . eip j1 j2 . . . jq

(1.78)

costituiscono una base di Tqp(E) e per ogni K Tqp (E) vale la rappresentazione
i i ...i

K = Kj11j22 ...jpq ei1 ei2 . . . eip j1 j2 . . . jq

(1.79)

i i ...i

dove le componenti Kj11j22 ...jpq sono definite come nella (1.57).


Gli elementi della base (1.78) sono in numero pari alle disposizioni con ripetizione di p + q
oggetti, cio`e np+q . Pertanto,
dim(Tqp(E)) = np+q .
(1.80)

1.15

Contrazione o saturazione di due indici

Vi `e una terza operazione importante eseguibile su di un tensore. Dato un tensore K di


tipo qualsiasi (p, q), purche con p e q non entrambi nulli, di componenti
i i ...i

p
Kj11,j22 ,...,j
q

si pu`
o prendere uno degli indici contravarianti (in alto) e porlo uguale ad uno degli indici
covarianti (in basso) ed intendere di eseguire la sommatoria su questi, secondo la convenzione degli indici ripetuti. Si dimostra che, cos` facendo, si ottiene un tensore di tipo
(p 1, q 1).14 Una tale operazione prende il nome di contrazione o saturazione.
i , ho due possibilit`
Per esempio, se K T21 (E) ha componenti Khj
a di saturazione:
i
Uj = Kij
,

i
Vh = Khi
.

In entrambi i casi si ottiene un covettore. Questi per`


o sono in generale diversi. Altri due
esempi:
1. Se A T11 (E) = End(E), con componenti Aij , allora la saturazione dei suoi due indici
fornisce la traccia dellendomorfismo A: Aii = tr(A).
2. Il vettore u = A(v), immagine del vettore v secondo un endomorfismo A, pu`
o essere
anche interpretato come contrazione del prodotto tensoriale A v, perche questultimo
j
j
ha componenti Ai v k e le componenti di u sono uj = Ai v i.
14

La dimostrazione si basa sullequazione di trasformazione delle componenti di un tensore al variare


della base.

29

1.16. Tensori antisimmetrici

1.16

Tensori antisimmetrici

Definizione 1.16.1 Un tensore A Tp0 (E) si dice antisimmetrico se per ogni scambio di due suoi qualunque argomenti il suo valore cambia di segno:
A(. . . , u, . . . , v, . . .) = A(. . . , v, . . . , u, . . .).
Cos` dicasi per un tensore A T0p (E). I vettori, i covettori e gli scalari, che sono di
tipo (0, 1), (1, 0) e (0, 0) rispettivamente, sono per definizione antisimmetrici. Lintero p
prende il nome di grado del tensore antisimmetrico.
I tensori antisimmetrici svolgono un ruolo importante nelle applicazioni del calcolo tensoriale. Si dimostra che i tensori antisimmetrici contenuti in Tp0 (E) (rispettivamente, in
T0p (E)) ne formano un sottospazio che denotiamo con p(E) (rispettivamente, con V p (E)).
Il teorema seguente fornisce una definizione equivalente di antisimmetria:
Teorema 1.16.1 Un tensore A Tp0 (E) `e antisimmetrico se e solo se esso si annulla
quando due dei suoi argomenti coincidono. Lo stesso dicasi per A T0p (E).
` sufficiente dimostrare questo teorema nel caso p = 2. Da A(u, v) =
Dimostrazione. E
A(v, u) segue ovviamente A(u, u) = 0. Viceversa se A(v, v) = 0 per ogni v, allora si
ha, ponendo v = v 1 + v2 ,
0 = A(v1 + v2 , v1 + v 2 )
= A(v1 , v1 ) + A(v1 , v2 ) + A(v2 , v1 ) + A(v2 , v2 )
= A(v1 , v2 ) + A(v2 , v1 ),
vale a dire
A(v1 , v2 ) = A(v2 , v1 ). 2
Due implicazioni notevoli:
Teorema 1.16.2 1. Un tensore antisimmetrico si annulla quando i suoi argomenti
sono linearmente dipendenti. 2. Un tensore antisimmetrico con p > n `e nullo.

Dimostrazione. 1. Se A p(E) e se uno dei suoi argomenti (v1 , v2 , . . . , vp ), per

esempio v1 `e combinazione lineare dei rimanenti, allora A(v1 , v2 , . . . , vp) si decompone


nella combinazione lineare di numeri del tipo A(v , v2 , . . . , vp ) dove v `e via via uguale
a v 2 , . . ., v p , i quali numeri, per via del Teorema 1.16.1, sono tutti nulli. 2. Se p > n i
vettori (v1 , v2 , . . . , vp) sono sempre dipendenti. 2
Osservazione 1.16.1 Di conseguenza, gli spazi V p (E) e p (E) per p > n si riducono
ad un solo elemento: lo zero.

30

Capitolo 1. Spazi vettoriali puri

Esempio 1.16.1 Sia E lo spazio vettoriale euclideo tridimensionale. Ponendo


(u, v, w) = u v w

(prodotto misto).

si definisce un tensore covariante antisimmetrico di ordine 3 detto forma volume.15


Esempio 1.16.2 Sia E = Rn : un vettore `e una n-pla di numeri reali v = (v 1 , v 2, . . . , v n).
a luogo ad una matrice quadrata [vij ]nn .
Una n-pla di vettori (vi ) = (vi1 , vi2, . . . , vin) d`
Ponendo
A(v1 , v2 , . . . , vn ) = det[vij ]
si definisce un tensore covariante antisimmetrico di ordine n sopra Rn .
Dal Teorema 1.16.1 si pu`
o dedurre unulteriore caratterizzazione (o definizione equivalente)
di antisimmetria.


Per ogni intero p > 1 denotiamo con Gp il gruppo delle permutazioni di


p elementi, detto gruppo simmetrico di ordine p. Denotiamo con il
segno di una permutazione Gp: uguale a +1 o 1 a seconda che
sia pari o dispari, vale a dire composta da un numero pari o dispari di
scambi. Ricordiamo che Gp `e costituito da p! elementi.

Teorema 1.16.3 Un tensore covariante A Tp0 (E) `e antisimmetrico se e solo vale


luguaglianza

A(v1 , . . . , vp ) = A (v1 , . . . , vp ) ,
v 1 , . . . , vp E,
(1.81)

ovvero

A = A ,

(1.82)

per ogni Gp . Analogamente per un tensore contravariante A

1.17

T0p(E).

Antisimmetrizzazione

Per studiare meglio i tensori antisimmetrici `e opportuno introdurre il concetto di antismmetrizzazione.


Definizione 1.17.1 Per ogni p > 1 si introduce lapplicazione lineare
A : Tp0 (E) p (E) : T 7 A(T )
chiamata operatore di antisimmetrizzazione e definita da
A(T ) =
15

Vedi 2.4.1.

1 P
Gp T
p!

(1.83)

31

1.18. Prodotto esterno

cio`e da
A(T )(v1 , . . . , vp) =
per ogni v 1 , . . . , vp E.


1 P
Gp T (v1 , . . . , v p )
p!

(1.84)

Per rendere effettiva questa definizione dobbiamo verificare che il tensore T A `e antisimmetrico. Volendo applicare il Teorema 1.16.3, osserviamo che per qualunque Gp si ha
successivamente:
A(T )


1 P
Gp T
p!
1 P
=
Gp T
p!
1 P
=
Gp T ( ) = A(T ),
p!
=

tenuto conto che = e inoltre che, mentre varia in tutto Gp , anche varia
in tutto Gp.
Tutto quanto precede si riferisce a tensori covarianti (indici in basso) ma si pu`
o ripetere
per i tensori contravarianti (indici in alto), per i quali loperatore di antisimmetrizzazione
`e lapplicazione lineare
A : T0p (E) V p (E) : T 7 A(T )
definita come nella (1.83).

1.18

Prodotto esterno

Definizione 1.18.1 Il prodotto esterno di due covettori e , denotato con ,


`e il tensore antisimmetrico covariante di grado 2 definito da
=
ovvero da
( ) (v1 , v2 ) =

1
2

1
2

( )

(1.85)



hv1 , i hv2 , i hv1 , i hv2 , i

(1.86)

Analogamente, il prodotto esterno di due vettori a e b, denotato con a b, `e il tensore


antisimmetrico contravariante di grado 2 definito da
ab=
ovvero da
(a b) (1 , 2 ) =

1
2

1
2

(a b b a)



ha, 1 i hb, 2 i ha, 2 i hb, 1 i

(1.87)

(1.88)

32

Capitolo 1. Spazi vettoriali puri

Osserviamo che facendo intervenire loperatore di antisimmetrizzazione si hanno le definizioni equivalenti:


= A( )

(1.89)

a b = A(a b)

(1.90)

Infatti, se applichiamo la definizione (1.84), osservato che in questo caso p = 2 e che G2 `e


costituito da soli due elementi, lidentit`
a e lo scambio, troviamo


P
A( )(v1 , v2 ) = 12

)
(v
,
v
)

1
2
G2
=

1
2

( ) (v1 , v2 )

1
2

( ) (v2 , v1 )

1
2

( ) (v1 , v2 )

1
2

( ) (v1 , v2 )

1
2

( ) (v1 , v2 ).

Analogamente per il caso a b.

Le formule (1.89) e (1.90) suggeriscono una naturale estensione del prodotto esterno al
caso di pi`
u di due vettori o covettori:

Definizione 1.18.2 Il prodotto esterno di p covettori 1 , . . . , p e di p vettori


a1 , . . . , ap `e definito dalle formule
1 . . . p = A(1 . . . p)

(1.91)

a1 . . . ap = A(a1 . . . ap )

(1.92)

ovvero, vista la (1.84), dalle formule


(1 . . . p ) (v1 , . . . , vp) =


1 P
Gp (1 . . . p ) (v 1 , . . . , vp )
p!

(a1 . . . ap ) (1 , . . . , p) =


1 P
Gp (a1 . . . ap ) (1 , . . . , p )
p!

(1.93)

(1.94)

Per esempio, per p = 3 dalla definizione (1.83) risulta:


1 2 3 =

1
6

1 2 3 + 2 3 1 + 3 1 2


i
2 1 3 + 1 3 2 + 3 2 1

(1.95)

33

1.19. Algebra esterna

Nella prima riga abbiamo le permutazioni cicliche, quindi pari, dei tre indici (1, 2, 3). Nella
seconda riga, col segno , abbiamo quelle dispari.

Analogamente per il prodotto esterno di tre vettori.

Osservazione 1.18.1 Il prodotto esterno di p covettori (o vettori) cambia di segno


quando si scambiano fra loro due elementi. Per esempio:
2 1 3 = 1 2 3 ,
3 2 1 = 1 2 3 .

1.19

Algebra esterna

Il prodotto esterno che abbiamo definito nel paragrafo precedente `e alla


base di un tipo di calcolo che trova svariate utili applicazioni: lalgebra
esterna.

Questo calcolo si basa sulle seguenti circostanze.

1 Per ogni intero p > 0 i prodotti esterni


1 . . . p ,

(1.96)

a1 . . . ap ,

a E

(1.97)

prendono rispettivamente il nome di p-forme elementari e p-vettori elementari. le


loro combinazioni lineari generano rispettivamente lo spazio p (E) delle p-forme e lo
spazio V p (E) dei p-vettori.
2 Date due forme elementari = 1 . . . p e = 1 . . . q , di grado p e q
rispettivamente, il loro prodotto esterno `e definito semplicemente dalla frapposizione
del simbolo fra e :
= 1 . . . p 1 . . . q .
Il risultato `e pertanto una (p + q)-forma elementare. Il prodotto esterno cos` definito `e
anticommutativo graduato, nel senso che
= (1)pq
Osserviamo infatti che nel passare da
= 1 . . . p 1 . . . q

(1.98)

34

Capitolo 1. Spazi vettoriali puri

a
= 1 . . . q 1 . . . p

si devono eseguire un numero di scambi pari a pq, il che comporta pq cambiamenti di


segno. Nel caso in cui una delle due forme elementari sia di grado 0, sia cio`e uno scalare, il
prodotto si identifica con lordinario prodotto di un tensore per un numero. Per esempio,
se p = 0 cio`e se 0 (E) = R, allora
= 1 . . . q .
3 Il prodotto esterno `e bilineare:
(a1 1 + a2 2 ) = a1 1 + a2 2

(1.99)

(b1 1 + b2 2 ) = b1 1 + b2 2

(1.100)

4 Siccome il prodotto esterno fra forme elementari `e bilineare e siccome una p-forma,cio`e
un elemento di p(E) `e combinazione lineare di p-forme elementari, il prodotto esterno si
estende per linearit`
a a forme di grado qualsiasi. Vale ancora lanticommutativit`
a graduata
(1.98). Per questa via il prodotto esterno si estende anche a pi`
u di due forme. Vale la
propriet`
a associativa:
= ( ) = ( )

(1.101)

5 Consideriamo infine la somma diretta di tutti gli spazi p (E),


(E) =

+
M

p (E).

p=0

Sappiamo che per p > n = dim(E) gli spazi p (E) si riducono allo zero. Sappiamo inoltre
che 0 (E) = R e 1 (E) = E . Di conseguenza la somma diretta (E) risulta essere
(E) = R E 2 (E) . . . n (E) 0 0 . . .

(1.102)

Questo `e uno spazio vettoriale, detto spazio delle forme esterne su E, rispetto allordinaria somma + tra tensori. Il prodotto esterno, definito per due forme omogeneee, si
estende per linearit`
a a due qualunque elementi di questa somma diretta. Il risultato `e che
(E), con le due operazioni + e diventa unalgebra, detta appunto algebra esterna
su E.
Si dimostra che
e

 
n
n!
dim p(E) =
=
p
p! (n p)!

(1.103)

dim (E) = 2n .

(1.104)

1.20. Il simbolo di Levi-Civita

Tutto quanto sin qui visto si ripete pari pari per gli spazi
dei p-vettori
V p (E)

35

e si conclude con la costruzione della somma diretta


V (E) = R E V 2 (E) . . . V n (E) 0 0 . . .


che assume anchessa la struttura di algebra.

1.20

Il simbolo di Levi-Civita

Il simbolo di Levi-Civita (Tullio Levi-Civita, 1873-1941) con n indici variabili da 1


a n,
i1 i2 ...in
vale +1 o 1 a seconda che la successione degli indici (i1 , i2 , . . . , in) sia una permutazione
pari o dispari della succesione fondamentale (1, 2, . . ., n); vale zero in tutti gli altri casi,
cio`e quando almeno due indici coincidono. Il simbolo di Levi-Civita `e antisimmetrico:
scambiando fra loro due indici, cambia di segno.
Il simbolo di Levi-Civita, che pu`
o comparire anche con gli indici in alto,16
i1 i2 ...in ,
consente di esprimere in forma sintetica svariate formule di calcolo delle matrici e di calcolo
tensoriale. Vediamo alcuni esempi.
1 Lordinaria definizione di determinante di una matrice quadrata [Aij ]nn pu`
o porsi nella
forma sintetica
det[Aij ] = i1 i2 ...in Ai11 Ai22 . . . Ainn
(1.105)
sottintendendo sempre la sommatoria sugli indici ripetuti in alto e in basso. Verifichiamolo
nel caso n = 3:
hij Ah1 Ai2 Aj3 = 1ij A11 Ai2 Aj3 + 2ij A21 Ai2 Aj3 + 3ij A31 Ai2 Aj3 = . . .
Ho eseguito la somma sul primo indice h; nelleseguire la somma sullindice i tengo conto
che con un indice ripetuto il simbolo si annulla, dunque:
. . . = 12j A11 A22 Aj3 + 13j A11 A32 Aj3
+21j A21 A12 Aj3 + 23j A21 A32 Aj3
+31j A31 A12 Aj3 + 32j A31 A22 Aj3 = . . .
16

La definizione `e la medesima.

36

Capitolo 1. Spazi vettoriali puri

Sommando infine sullindice j rimangono soltanto sei termini:


. . . = 123 A11 A22 A33 + 132 A11 A32 A23
+213 A21 A12 A33 + 231 A21 A32 A13
+312 A31 A12 A23 + 321 A31 A22 A13 = . . .
Adesso traduco i simboli in +1 e 1 a seconda della parit`
a della permutazione degli indici
rispetto alla permutazione fondamentale (1, 2, 3),
. . . = A11 A22 A33 A11 A32 A23

A21 A12 A33 + A21 A32 A13

+A31 A12 A23 A31 A22 A13


e ritrovo lo sviluppo del determinante di ordine 3.

2 Dati n vettori (ei ) di E, n = dim(E), anche non indipendenti, per la propriet`


a
anticommutativa del prodotto esterno vale luguaglianza
ei1 ei2 . . . ein = i1 i2 ...in e1 e2 . . . en

(1.106)

e1 e2 . . . en = i1 i2 ...in ei1 ei2 . . . ein

(1.107)

o, inversamente,

qualunque sia la permutazione degli indici (i1 , i2 , . . . , in). Si noti bene che a secondo
membro di questultima formula non `e intesa la sommatoria sugli indici, che sono ripetuti
ma entambi in basso. Analoghe formule valgono ovviamente per una qualunque n-pla (i )
di covettori in E .
3 Il determinante di un endomorfismo A pu`
o essere definito come quel numero det(A)
per cui vale luguaglianza
A(v1 ) A(v 2 ) . . . A(vn ) = det(A) v 1 v2 . . . vn

(1.108)

per qualunque n-pla di vettori v i E. Per riconoscerlo, nella (1.108), al posto dei vettori
v si sostituiscano i vettori di una base (ei ) qualsiasi di E. Si ottiene
A(e1 ) A(e2 ) . . . A(en ) = Ai11 Ai22 . . . Ainn ei1 ei2 . . . ein
= Ai11 Ai22 . . . Ainn i1 i2 ...in e1 e2 . . . e3
applicando la (1.106) nel secondo passaggio. Ma, come abbiamo gi`
a visto, il termine
Ai11 Ai22 . . . Ainn i1 i2 ...in `e proprio uguale a det[Aij ]. Si conclude quindi che la (1.108) vale
per un qualunque sistema di vettori indipendenti. Essa vale ovviamente anche quando i
vettori sono dipendenti, nel qual caso sono nulli ambo i membri.

37

1.20. Il simbolo di Levi-Civita

4 Dalle (1.108) e (1.105) si possono dedurre agevolmente le propriet`


a fondamentali dei
determinanti. Per esempio, dalla (1.108) si vede che
det(A B) = det(A) det(B).
Si ha infatti successivamente:
det(AB) v1 . . . vn = (AB)(v1 ) . . . (AB)(vn )



= A B(v1 ) . . . A B(v n )

= det(A) B(v 1 ) . . . B(vn )

= det(A) det(B) v 1 . . . v n .
5 Dalla (1.105) segue la regola dello sviluppo del determinante rispetto ad una linea.
Posto infatti
e1 = i i ...i Ai2 . . . Ain ,
A
(1.109)
i1
n
n
1 2
2

la (1.105) diventa

e1 .
det[Aij ] = Ai11 A
i1

(1.110)

Si riconosce allora nella (1.109), stante la definizione del simbolo di Levi-Civita e la sua
antisimmetria, lepressione del complemento algebrico del termine Ai11 della prima
riga della matrice [Aij ] (conveniamo che gli indici in basso siano indici di riga) cio`e del
determinante della matrice quadrata di ordine n 1 ottenuta sopprimendo la riga 1 e la
colonna i1 , preceduto dal segno (1)1+i1 . La (1.110) rappresenta allora lo sviluppo del
determinante rispetto alla prima riga. Analogamente si procede per lo sviluppo rispetto
ad unaltra riga, o ad una colonna.
6 Dalla (1.109), stante lantisimmetria del simbolo di Levi-Civita, segue inoltre
e1i = i i ...in Ai1 Ai2 . . . Ainn = 0.
Ai21 A
1 2
2 2
1

Quindi: la somma dei prodotti degli elementi di una riga per i complementi algebrici di
una riga diversa `e nulla. Dalla (1.109) si osserva ancora che
e1i = det(Aij ).
A
1
Ai11

Da queste considerazioni, particolarizzate al caso di una riga (la prima), si trae la formula
generale, valida per ogni endomorfismo lineare A,

dove

ej Ai = det(A) j
A
k
i
k
ej = det(A)
A
i
Aij

(1.111)

(1.112)

38

Capitolo 1. Spazi vettoriali puri

`e il complemento algebrico dellelemento Aij , vale a dire il determinante della matrice


quadrata di ordine n 1 ottenuta cancellando la j-esima riga e la i-esima colonna della
matrice delle componenti di A, preceduta dal segno (1)j+i .
ej ) dei complementi algebrici definisce un endomorfismo A
e che chiamiamo
La matrice (A
i
endomorfismo complementare di A. Cambiando base, si ha infatti per la (1.112):
0

ej
A
i

Aij 0

=
det(A)
=
det(A)
0
Aij
Aij
Aij 0

ej00 E h0 E i0 Ak
=A
j
k
h
i
i
Aj
ej00 E j0 E i0 .
=A
i
i
j

ej ) cambiano secondo la legge di trasformazione delle componenti di un


Dunque le (A
i
endomorfismo. La (1.111) rappresenta allora, in componenti, luguaglianza
e A = det(A) 1
A

(1.113)

Di qui, nel caso di un automorfismo, cio`e per det(A) 6= 0, segue la formula


A1 =

1
e
A
det(A)

che fornisce linverso di un endomorfismo invertibile.

(1.114)

Capitolo 2

Spazi vettoriali con struttura


2.1

Spazi vettoriali euclidei

Uno spazio vettoriale euclideo `e una coppia (E, g) costituita da uno spazio vettoriale
E e da un tensore metrico g su E. Un tensore metrico (detto anche metrica) `e per
definizione una forma bilineare g su E simmetrica e regolare, cio`e tale da soddisfare alle
condizioni:
(
g(u, v) = g(v, u),
(2.1)
g(u, v) = 0 v E = u = 0.
La forma bilineare simmetrica g `e anche detta prodotto scalare. Per il prodotto scalare
si usa comunemente la notazione u v, poniamo cio`e1
u v = g(u, v).

(2.2)

Uno spazio vettoriale euclideo `e quindi uno spazio vettoriale dotato di un prodotto scalare.
Chiamiamo norma e la denotiamo con k k : E R la forma quadratica corrispondente
al tensore metrico
kvk = v v = g(v, v).
(2.3)
Chiamiamo invece modulo di un vettore il numero positivo
|v| =

|v v|.

(2.4)

Due vettori sono detti ortogonali se u v = 0. Diciamo che un vettore u `e unitario se


kuk = 1. Diciamo che u `e il versore del vettore v se u `e unitario e se v = k u con
k > 0.
1

In molti testi il prodotto scalare `e denotato con u v, simbolo che noi invece riserveremo al prodotto
vettoriale nello spazio euclideo tridimensionale.
2
La norma k k qui definita non `e una norma nel senso usuale dellAnalisi. Lo `e invece il modulo | |,
che per`
o viene in genere considerato solo nel caso in cui la forma quadratica g `e definita positiva.

39

40

Capitolo 2. Spazi vettoriali con struttura

Seguendo una terminologia tipica della teoria della Relativit`


a Ristretta si dice che un
vettore v `e del genere spazio, luce, tempo se la sua norma `e rispettivamente positiva,
nulla, negativa:

kvk > 0,
genere spazio

vE
genere luce
kvk = 0,

genere tempo
kvk < 0.

Un vettore del genere luce `e anche detto isotropo. Un vettore isotropo `e ortogonale a se
stesso.

Una base canonica di uno spazio euclideo (E, g) `e una base canonica rispetto alla forma
bilineare simmetrica g, quindi una base costituita da vettori unitari fra loro ortogonali.
Sappiamo dalla teoria delle forme quadratiche che due basi canoniche sono sempre formate
da un egual numero p di vettori del genere spazio e quindi da un egual numero q di vettori
del genere tempo. Siccome il tensore metrico `e non degenere si ha sempre p + q = n =
dim(E). La coppia di interi (p, q) `e detta segnatura dello spazio euclideo. Si usa anche
dire che lo spazio ha segnatura
. . } .
. . +} | .{z
|+ .{z
p volte

q volte

Molti autori riservano il nome di spazio euclideo al caso in cui la metrica `e definita positiva,
cio`e di segnatura (n, 0). Per mettere in evidenza questa condizione noi useremo il termine
spazio strettamente euclideo, riservando il termine di spazio pseudo-euclideo o
semi-euclideo al caso di una metrica indefinita.

Osservazione 2.1.1 In uno spazio strettamente euclideo la norma `e sempre positiva


(salvo che per il vettore nullo) e vale la disuguaglianza di Schwarz ( 1.5)
(u v)2 kuk kvk,

(2.5)

dove luguaglianza sussiste se e solo se i vettori sono dipendenti. Utilizzando il modulo


(2.4), che ora `e semplicemente definito da

|v| = v v,
la disuguaglianza di Schwarz diventa
|u v| |u| |v|.

(2.6)

Se nessuno dei due vettori `e nullo si ha


|u v|
1.
|u| |v|
Diciamo allora angolo dei due vettori il numero compreso tra 0 e tale che
cos =

uv
.
|u| |v|

(2.7)

41

2.1. Spazi vettoriali euclidei

Vale infine la disuguaglianza triangolare


|u + v| |u| + |v|,

(2.8)

conseguenza della disuguaglianza di Schwarz:


|u + v|2 = ku + vk = kuk + kvk + 2 u v

|u|2 + |v|2 + 2 |u v|

|u|2 + |v|2 + 2 |u| |v|


2
= |u| + |v| .

Considerata una base (ei ) dello spazio euclideo (E, g), le componenti del tensore metrico
gij = g(ei , ej ) = ei ej

(2.9)

formano una matrice, detta matrice metrica, simmetrica e regolare:


gij = gji ,

det[gij ] 6= 0.

(2.10)

Queste condizioni sono in effetti equivalenti alle (2.1). Accanto alla matrice metrica
(gij ) torna utile considerare la matrice inversa, che denotiamo con (g ij ). Essa `e definita
dalluguaglianza
gij g jk = ik .
(2.11)
In una base canonica, detta anche ortonormale, la matrice metrica `e

1p
0
.
[gij ] =
0 1q

(2.12)

Questa matrice coincide con la sua inversa. Mentre in generale si ha


u v = gij ui v j ,

(2.13)

in una base canonica risulta


uv=

p
X
a=1

quindi
kuk =

p
X
a=1

u v

a 2

(u )

n
X

ub v b ,

(2.14)

(ub )2 .

(2.15)

b=p+1

n
X

b=p+1

La presenza del tensore metrico consente di definire su di uno spazio euclideo, oltre al
prodotto scalare, alcune altre fondamentali operazioni e precisamente:
(I) un isomorfismo canonico tra E e il suo duale E ;

42

Capitolo 2. Spazi vettoriali con struttura

(II) un operatore ortogonale sui sottospazi di E;


(III) un operatore di trasposizione sugli endomorfismi di E;
(IV) un isomorfismo canonico tra lo spazio degli endomorfismi su E e lo spazio delle forme
bilineari su E.
Tratteremo i primi due argomenti in questo paragrafo, gli altri due nel prossimo.
Lapplicazione lineare [ : E E : v 7 v[ definita dalluguaglianza
hu, v[i = u v

(2.16)

`e un isomorfismo, stante la regolarit`


a del tensore metrico g. Questo isomorfismo fa s` che
uno spazio vettoriale euclideo possa essere identificato con il suo duale. Denotiamo con
] : E E : 7 ] linversa dellapplicazione [.

Introdotta una base di E, posto v = v i ei , si denotano con vi le componenti del covettore


v [ , si pone cio`e v[ = vi i . Allora la (2.16), scritta in componenti, diventa
ui vi = gij ui v j .

(2.17)

Valendo questa per ogni (ui) Rn si trae


vi = gij v j

(2.18)

Questa `e la definizione in componenti dellapplicazione [. Si osserva quindi che le componenti del covettore v [ si ottengono per abbassamento degli indici delle componenti (v i)
di v mediante la matrice metrica. Lapplicazione inversa `e definita dalle relazioni inverse
delle (2.18):
v i = g ij vj

(2.19)

Essa consiste quindi nellinnalzamento degli indici tramite linversa della matrice metrica.
Osservazione 2.1.2 Le (g ij ) prendono il nome di componenti contravarianti del
tensore metrico, mentre alle (gij ) si d`
a il nome di componenti covarianti. Similmente, alle componenti (vi ) di v[ si d`
a il nome di componenti covarianti del vettore v,
riservando alle (v i ) il nome di componenti contravarianti. Loperazione di innalzamento e di abbassamento degli indici si pu`
o applicare anche ai tensori. Si possono cos`
stabilire diversi isomorfismi fra spazi tensoriali aventi la stessa somma di indici covarianti
e contravarianti, per esempio tra T11 (E) e T2 (E), come sar`
a visto nel prossimo paragrafo.

Osservazione 2.1.3 Si `e visto ( 1.2) che un covettore `e geometricamente rappresentato da una coppia di iperpiani paralleli (A0 , A1 ). Nellidentificazione ora vista di E
con E , ad , cio`e a questa coppia di piani, corrisponde il vettore v = ] che `e ortogonale

43

2.1. Spazi vettoriali euclidei

al sottospazio A0 e il cui prodotto scalare con i vettori del laterale A1 vale 1. Se quindi
denotiamo con u il vettore ortogonale ad A0 appartenente ad A1 , si ha
v=

u
.
kuk

Osservazione 2.1.4 Ad ogni base (ei ) di E si fa corrispondere unaltra base, detta base
reciproca o base coniugata (e a volte, impropriamente, anche base duale), denotata con
(ei ) e definita implicitamente dalle relazioni
ei ej = ji .

(2.20)

Si verifica che
ei = g ij ej ,

ei = gij ej ,

(2.21)

e che
ei = (i )].

(2.22)

La figura che segue mostra per esempio il caso dello spazio euclideo bidimensionale. Assunta (c1 , c2 ) come base canonica, le basi (e1 , e2 ) e (e1 , e2 ) sono basi una reciproca dellaltra,
essendo e1 e1 = e2 e2 = 1, e1 e2 = e2 e1 = 0. In uno spazio strettamente euclideo,

se (ei ) `e una base canonica, allora ei = ei : la base coincide con la sua reciproca. Se
lo spazio `e pseudoeuclideo, di segnatura (p, q), questuguaglianza vale solo per gli indici

i p. Per i rimanenti si ha ei = ei .


Basi reciproche.

Ad ogni sottospazio K E associamo il sottospazio


K = {u E | u v = 0, v K},

(2.23)

detto spazio ortogonale a K. Confrontando questa definizione con quella del polare K
data al 1.2 e tenuto conto della definizione (2.16), si vede che
K = (K )].

(2.24)

44

Capitolo 2. Spazi vettoriali con struttura

Pertanto dalle propriet`


a (1.3) del 1.2 seguono immediatamente analoghe propriet`
a per
loperatore ortogonale :

dim(K) + dim(K ) = dim(E),

K = K,

K L L K,
(2.25)

(K + L) = K L ,


K + L = (K L) .

Osservazione 2.1.5 Un sottospazio K si dice isotropo se K K . Un sottospazio


`e isotropo se e solo se (a) tutti i suoi vettori sono isotropi, ovvero se e solo se (b) tutti i
suoi vettori sono fra loro ortogonali (dimostrarlo).
Osservazione 2.1.6 Si pu`
o dimostrare che la massima dimensione dei sottospazi isotropi `e il minimo dei due numeri (p, q) della segnatura.
Osservazione 2.1.7 Un sottospazio K si dice euclideo o non degenere se la restrizione del tensore metrico a K `e ancora regolare (vale cio`e la (2.1)2 ristretta a K). Un
sottospazio `e non degenere se e solo se K K = 0 (dimostrarlo).
Osservazione 2.1.8 Il prodotto scalare si pu`
o estendere, in maniera naturale, ai vettori
complessi. Il prodotto scalare dei vettori v = u+i w e v0 = u0 +i w0 `e il numero complesso
v v0 = u u0 w w0 + i (u w0 + u0 w). La norma di un vettore `e il numero complesso
kvk = kuk kwk + 2i u w.

2.2

Endomorfismi in spazi euclidei

Sia (E, g) uno spazio euclideo (di segnatura qualsiasi). Ad ogni endomorfismo A su E si
associa un altro endomorfismo AT di E, detto endomorfismo trasposto di A, definito
dalluguaglianza
AT (u) v = u A(v)
Per loperatore di trasposizione T valgono le seguenti propriet`
a:
T
1 = 1,

ATT = A,

(A + B)T = AT + B T ,

(AB)T = B T AT ,

T
k

Ak = AT
(k N),

T
T
T
[A, B] = [B , A ].

(2.26)

(2.27)

45

2.2. Endomorfismi in spazi euclidei

Se in particolare A `e un automorfismo:
(A1 )T = (AT )1 .

(2.28)

Le componenti dellendomorfismo trasposto sono date da


(AT )ij = gjh g ik Ahk

(2.29)

Occorre infatti ricordare la definizione di componenti di un endomorfismo e quanto visto


al precedente (in particolare la (2.22), per dedurre successivamente:
(AT )ij = hAT (ej ), i i = AT (ej ) ei = A(ei ) ej
= g ik gjh A(ek ) eh = g ik gjh hA(ek ), h i

= g ik gjh Ahk .

Osservazione 2.2.1 Se lo spazio `e strettamente euclideo (la metrica `e definita positiva)


e se la base scelta `e canonica, allora gij = ij e quindi

(AT )ij = Aji .

(2.30)

Ci`
o significa che la matrice delle componenti dellendomorfismo trasposto AT coincide con
la trasposta della matrice delle componenti di A (si scambiano cio`e righe con colonne).
Questa propriet`
a `e valida solo in questo caso. Se la metrica non `e definita positiva e la
base `e canonica allora la (2.30) `e verificata a meno del segno per certe coppie di indici
(quali ?).
Osservazione 2.2.2 Dalla (2.29) deduciamo che
det(AT ) = det(A),

tr(AT ) = tr(A).

(2.31)

Dalla prima di queste segue


det(A x1) = det(A x1)T = det(AT x1).
Dunque i polinomi caratteristici di A e AT coincidono, e quindi coincidono anche tutti gli
invarianti principali
Ik (AT ) = Ik (A),
(2.32)
nonche gli spettri.
Definizione 2.2.1 Diciamo che un endomorfismo `e simmetrico se AT = A, che `e
antisimmetrico se AT = A. Ci`
o significa che si ha, rispettivamente:
A(u) v = A(v) u,
per ogni coppia di vettori (u, v).

A(u) v = A(v) u,

46

Capitolo 2. Spazi vettoriali con struttura

Ogni endomorfismo `e decomponibile nella somma della sua parte simmetrica e della sua
parte antisimmetrica:
)
AS = 12 (A + AT )
(2.33)
A = AS + AA .
A
1
T
A = 2 (A A )
Segue che
AT = AS AA .

(2.34)

Alcune propriet`
a da ricordare:
(I) La potenza k-esima di un endomorfismo simmetrico `e sempre simmetrica, qualunque
T
k
sia k. Da AT = A segue infatti per la (2.27)4 Ak = AT = Ak .

(II) La potenza k-esima di un endomorfismo antisimmetrico `e simmetrica o antisimmetrica


T
k
a seconda che k sia pari o dispari. Da AT = A segue infatti Ak = AT = (A)k =
(1)k Ak .

(III) La traccia di un endomorfismo antisimmetrico `e nulla. Infatti tr(A) = tr(AT ) =


tr(AT ) = tr(A).

(IV) Il determinante di un endomorfismo antisimmetrico `e nullo se la dimensione n dello


spazio `e dispari. Infatti det(A) = det(AT ) = det(A) = (1)n det(A).
(V) La traccia del prodotto di un endomorfismo simmetrico per uno antisimmetrico `e
nulla. Infatti se A e simmetrico e B antisimmetrico, tr(A B) = tr(A B) = tr(A B).

(VI) Il commutatore di due endomorfismi simmetrici, oppure di due endomorfismi antisimmetrici, `e antisimmetrico. Questo segue dallultima delle (2.27) e dallanticommutativit`
a
del commutatore. Da questultima propriet`
a segue che gli endomorfismi antisimmetrici
formano una sottoalgebra di Lie di End(E).
` importante sottolineare che le precedenti definizioni fanno interOsservazione 2.2.3 E
venire in maniera essenziale la metrica g. Esse sono del tutto analoghe a quelle viste per
le forme bilineari, dove per`
o la nozione di trasposizione e quelle conseguenti di simmetria
e di antisimmetria non richiedono la presenza sullo spazio vettoriale di alcuna struttura
aggiuntiva. Lanalogia risulta ulteriormente confermata nelle considerazioni seguenti.
Ad ogni endomorfismo A possiamo far corrispondere una forma bilineare, che denotiamo
ancora con A, ponendo:
A(u, v) = A(u) v

(2.35)

Denotate con (Aij ) le componenti della forma bilineare A, risulta


Aij = gjk Aki
Infatti:
Aij = A(ei , ej ) = A(ei ) ej = Aki ek ej = gjk Aki .

(2.36)

47

2.2. Endomorfismi in spazi euclidei

Si osservi che, anche in questo caso, `e presente unoperazione di abbassamento di indice.


La relazione inversa delle (2.36) `e:
Aki = g jk Aij .

(2.37)

Loperazione ora definita `e un isomorfismo tra End(E) e T2 (E). Si osservi che accanto
alla (2.35) sussiste una definizione alternativa analoga, che genera un altro isomorfismo:
A(u, v) = u A(v). Si osservi inoltre che A `e un endomorfismo simmetrico (rispettivamente, antisimmetrico) se e solo se la corrispondente forma bilineare `e simmetrica (risp.
antisimmetrica).
Osservazione 2.2.4 Il tensore metrico, come forma bilineare, corrisponde allendomorfismo identico.
Osservazione 2.2.5 Si consideri il prodotto tensoriale di due vettori A = a b. Si
tratta di un tensore doppio contravariante. Le sue componenti in una base qualsiasi sono
Aij = ai bj . A questo tensore si fa corrispondere un endomorfismo, denotato ancora con
A e detto diade, ponendo
A(u) = (a u) b,
(2.38)
e quindi ancora una forma bilineare ponendo
A(u, v) = (a u) (b v).

(2.39)

Le componenti di questendomorfismo e di questa forma bilineare sono rispettivamente


Aji = ai bj ,

Aij = ai bj .

(2.40)

Pi`
u in generale ad ogni tensore doppio contravariante A, di componenti (Aij ), per quanto
visto al paragrafo precedente, corrisponde un endomorfismo ed una forma bilineare (che
denotiamo sempre con A) le cui componenti si ottengono con labbassamento degli indici:
Aji = Akj gki ,

Aij = Ahk ghi gkj .

(2.41)

Passiamo ora a considerare alcune fondamentali propriet`


a degli autovalori degli endomorfismi simmetrici e antisimmetrici, nellipotesi per`
o che lo spazio E sia strettamente euclideo,
cio`e a metrica definita positiva (fatta eccezione per il primo teorema che segue, valido anche nel caso di uno spazio non strettamente euclideo). Cominciamo dagli endomorfismi
simmetrici.
Teorema 2.2.1 Gli autovettori di un endomorfismo simmetrico corrispondenti ad autovalori distinti sono ortogonali.

Dimostrazione. Sia A un endomorfismo simmetrico. Sia A(v1) = 1 v 1 e A(v2) =


2 v 2 . Moltiplicando scalarmente la prima uguaglianza per v 2 , la seconda per v1 , sottraendo poi membro a membro e tenendo conto della simmetria di A si deduce 0 =
(1 2 ) v1 v 2 . Da 1 6= 2 segue v1 v2 = 0. 2

48

Capitolo 2. Spazi vettoriali con struttura

Teorema 2.2.2 Gli autovalori di un endomorfismo simmetrico in uno spazio strettamente euclideo sono reali.

Dimostrazione. Sia A(v) = v, con complesso e quindi v complesso: v = u + i w.


= u i w,
Moltiplicando scalarmente membro a membro per v
A(v) = (u i w) (u + i w),
v
si trova, considerando A come forma bilineare simmetrica:
A(u, u) + A(w, w) = (kuk + kwk).
Essendo lo spazio strettamente euclideo `e sicuramente kuk + kwk > 0 (a meno che non
sia v = 0, caso a priori escluso). Lequazione precedente determina quindi lautovalore
attraverso un quoziente di numeri reali. 2
Teorema 2.2.3 Per un endomorfismo simmetrico in uno spazio strettamente euclideo
la molteplicit`
a geometrica degli autovalori coincide con la molteplicit`
a algebrica.

Dimostrazione. Si consideri linsieme degli autovalori distinti


(1 , 2, . . . , l ),

l n,

nonche la successione delle rispettive molteplicit`


a
(m1 , m2 , . . . , ml )
e dei rispettivi spazi invarianti
(K1 , K2 , . . . , Kl ).
Con riferimento alle notazioni del 1.9 abbiamo mi = mi e Ki = Ki . Per il Teorema
2.2.1 questi sottospazi sono mutuamente ortogonali. Consideriamo il sottospazio V E
dei vettori ortogonali a tutti i Ki. Questo `e un sottospazio invariante di A; infatti per ogni
v V e per ogni vi Ki si ha A(vi ) v = 0 perche A(Ki) Ki . Per la simmetria di A di
qui segue A(v) vi = 0, il che significa appunto A(v) V . Allora la restrizione di A a V
darebbe luogo ad ulteriori autovettori da aggiungersi alla lista gi`
a fatta: assurdo, a meno
che non sia V = {0}. Abbiamo dunque che lo spazio E `e somma diretta dei sottospazi
mutuamente ortogonali associati agli autovalori:
E = K1 K2 . . . Kl .
Pertanto

dim(E) = n = dim(K1 ) + dim(K2 ) + . . . + dim(Kl )


= mg(1 ) + mg(2 ) + . . . + mg(l ).

(2.42)

49

2.2. Endomorfismi in spazi euclidei

Daltra parte, per il teorema fondamentale dellalgebra:


n = m1 + m2 + . . . + ml
= ma(1 ) + ma(2 ) + . . . + ma(l ).
In generale, come si `e detto al 1.9, vale la disuguaglianza ma(i ) mg(i). Se vi fosse
una sola disuguaglianza forte, stante le due uguaglianze sopra stabilite, si cadrebbe in un
assurdo. 2
Osservazione 2.2.6 Se gli autovalori di A sono tutti distinti, allora ognuno dei sottospazi invarianti Ki `e unidimensionale e univocamente determinato.
Teorema 2.2.4 Ogni endomorfismo simmetrico in uno spazio strettamente euclideo
ammette una rappresentazione del tipo
A=

n
X

=1

c c

(2.43)

dove (c ) `e una base canonica di autovettori di A e dove () sono i corrispondenti


autovalori.
Per questa rappresentazione si deve tener conto dellOss. 6, cio`e della corrispondenza tra
tensori doppi contravarianti, endomorfismi e forme bilineari. Segue subito dalla scrittura
(2.43) che i (c ) sono autovettori ed i () sono autovalori. Infatti si veda la (2.38):
A(c ) =

n
X

(c c ) c =

=1

n
X

c = c .

=1

Per ogni vettore v si ha quindi

A(v) =

n
X

v c

(2.44)

=1

essendo le (v) le sue componenti rispetto alla base canonica.

Dimostrazione. Si consideri la decomposizione (2.42) in sottospazi invarianti. Se


v 1 K1 e |v1 | = 1, allora
A(v1 , v1 ) = A(v1 ) v 1 = 1 v 1 v 1 = 1 .
Analogamente, tenuto conto del Teorema 2.2.1, se v2 K2 allora
A(v1 , v2 ) = A(v1 ) v 2 = 1 v1 v2 = 0.

50

Capitolo 2. Spazi vettoriali con struttura

Pertanto, scegliendo in ogni sottospazio K1 , K2, . . . , Kl una base canonica si determina


una base canonica (c ) di tutto E per la quale vale la rappresentazione (2.43). 2
Si osservi che dalla (2.43) segue che nella base canonica (c) le componenti A =
A(c , c ) della forma bilineare A sono tutte nulle salvo quelle della diagonale principale,
che coincidono con gli autovalori:
A = .
In forma matriciale:

[A ] =

(2.45)

1 1m1

...

2 1m2

...

..
.

..
.

..

..
.

. . . l 1ml

(2.46)

Questa base canonica (c) si trasforma in una base canonica (c0 ) rispetto alla forma
bilineare simmetrica A ponendo
1
c0 = p
c
||

se 6= 0, oppure c0 = c se = 0. Si vede cos` che le componenti positive (risp.


negative) della forma bilineare A in questa base sono tante quante gli autovalori positivi
(risp. negativi) dellendomorfismo A. Si `e pertanto dimostrato che

Teorema 2.2.5 Se un endomorfismo simmetrico in uno spazio strettamente euclideo


ha, contati con la dovuta molteplicit`
a, p autovalori positivi e q autovalori negativi, allora
la corrispondente forma bilineare simmetrica ha segnatura (p, q).
Tenuto conto che il tensore metrico `e una forma bilineare simmetrica definita positiva, dalla
dimostrazione di questultima propriet`
a si deduce anche lenunciato generale seguente:
Teorema 2.2.6 Due forme bilineari simmetriche, di cui una definita positiva, possono
contemporaneamente porsi in forma diagonale, ammettono cio`e basi ortogonali comuni.
Passiamo infine ad esaminare brevemente il caso antisimmetrico.
Teorema 2.2.7 Gli autovalori di un endomorfismo antisimmetrico in uno spazio strettamente euclideo sono nulli o immaginari puri.

Dimostrazione. La dimostrazione `e analoga a quella del Teorem 2.2.2. Sia A(v) = v,


con complesso e quindi v complesso: v = u + i w. Moltiplicando scalarmente membro a
= u i w, si trova, considerando A come forma bilineare antisimmetrica:
membro per v
i 2 A(w, u) = (kuk + kwk).
Essendo lo spazio strettamente euclideo questequazione determina lautovalore come
quoziente di un numero immaginario puro per un numero reale. 2

51

2.3. Endomorfismi ortogonali

2.3

Endomorfismi ortogonali

Un endomorfismo ortogonale o isometria `e un endomorfismo Q su di uno spazio


euclideo o pseudoeuclideo (E, g) conservante il prodotto scalare, cio`e tale che
Q(u) Q(v) = u v

u, v E

(2.47)

u E

(2.48)

Va osservato che questa definizione equivale a


Q(u) Q(u) = u u

`e infatti ovvio che la (2.47) implica la (2.48). Viceversa, se vale la (2.48) risulta
Q(u + v) Q(u + v) = (u + v) (u + v)

(u, v E).

Sviluppando ambo i membri di questuguaglianza e riutilizzando la(2.48) si trova luguaglianza (2.47).


Dalla (2.47), per il fatto che la metrica non `e degenere, segue che Ker(Q) = 0. Di
conseguenza Q(E) = E. Ne deduciamo che un endomorfismo ortogonale `e un isomorfismo.
Per definizione di endomorfismo trasposto la (2.47) equivale a
QT Q(u) v = u v,
e quindi, per larbitrariet`
a dei vettori, alla condizione
QT Q = 1

(2.49)

QT = Q1

(2.50)

ovvero

Dunque le formule (2.47), (2.48), (2.49) e (2.50) sono tutte definizioni equivalenti di
endomorfismo ortogonale.
Poiche det(QT ) = det(Q), la (2.49) implica (det(Q))2 = 1 cio`e
det(Q) = 1.

(2.51)

Gli endomorfismi ortogonali il cui determinante vale +1 sono chiamati rotazioni; quelle
con determinante 1 rotazioni improprie. Lidentit`
a 1 `e ovviamente una rotazione. Il
prodotto di due (o pi`
u) rotazioni `e una rotazione. Il prodotto di due rotazioni improprie
`e una rotazione. Il prodotto di una rotazione per una rotazione impropria `e una rotazione
impropria.
Linsieme di tutti gli endomorfismi ortogonali sopra uno spazio (E, g) `e un gruppo rispetto allordinaria composizione degli endomorfismi, cio`e un sottogruppo di Aut(E), detto

52

Capitolo 2. Spazi vettoriali con struttura

gruppo ortogonale di (E, g). Lo denotiamo con O(E, g). Le rotazioni formano un sottogruppo, detto gruppo ortogonale speciale, che denotiamo con SO(E, g). Le rotazioni
improprie non formano ovviamente sottogruppo. Se due spazi vettoriali hanno uguale
dimensione e segnatura, allora i rispettivi gruppi ortogonali sono isomorfi.
Passando alle componenti, osserviamo che un endomorfismo Q `e ortogonale se e solo se le
sue componenti (Qji ) rispetto ad una base generica verificano le uguaglianze
gij Qih Qjk = ghk

(2.52)

che sono in tutto 12 n(n + 1). Queste si ottengono dalla (2.47) scritta per una generica
coppia (eh , ek ) di vettori della base.
Se lo spazio `e strettamente euclideo e se la base scelta `e canonica, allora le (2.52) diventano
n
X

Qih Qik = hk

(2.53)

i=1

Ci`
o significa che il prodotto della matrice (Qij ) per la sua trasposta `e la matrice unitaria.
Le matrici soddisfacenti a questa propriet`
a sono dette matrici ortogonali.
Se la base `e canonica ma lo spazio non `e strettamente euclideo la formula (2.53) non `e pi`
u
valida. In ogni caso, le matrici delle componenti in una base canonica degli endomorfismi
ortogonali (o delle rotazioni) di uno spazio di segnatura (p, q) formano un gruppo denotato
con O(p, q) (oppure SO(p, q)). Si denotano in particolare con O(n) e SO(n) i gruppi delle
matrici nn ortogonali, cio`e soddisfacenti alla (2.53), e di quelle ortogonali a determinante
unitario. La scelta di una base canonica stabilisce un isomorfismo tra O(E, g) e O(p, q).
Osservazione 2.3.1 Gli autovalori, complessi o reali, di un endomorfismo ortogonale in
uno spazio strettamente euclideo sono unitari: || = 1. Infatti, dallequazione Q(v) = v
v. Moltiplicando scalarmente
segue, applicando la coniugazione, lequazione Q(
v) =
v
. Poiche Q `e
membro a membro queste due uguaglianze si ottiene Q(v) Q(
v) = v

. Di qui segue = 1, come asserito.


ortogonale si ha anche Q(v) Q(
v) = v v
Vediamo ora alcuni esempi di rappresentazione delle rotazioni, che suggeriscono alcuni
esercizi e ulteriori approfondimenti.

2.3.1

Rappresentazione mediante simmetrie

Sia a E un vettore non isotropo. Si consideri lendomorfismo S a definito da


S a (v) = v 2

av
a.
aa

(2.54)

Esso `e una simmetria rispetto al piano ortogonale ad a, nel senso che, come si verifica
immediatamente,
S a (a) = a,
S a (v) = v

53

2.3. Endomorfismi ortogonali

per ogni vettore v ortogonale ad a. Di conseguenza, S a `e unisometria. Pi`


u precisamente
`e una rotazione impropria. Infatti a `e un autovettore di autovalore 1 mentre ogni vettore
ortogonale ad a `e autovettore di autovalore +1, sicche lo spettro `e (1, 1, . . ., 1) e quindi
det(S a ) = 1. Si pu`
o dimostrare, ma la dimostrazione non `e semplice, che ogni isometria
`e il prodotto di simmetrie. `e invece pi`
u facile dimostrare (e la dimostrazione `e lasciata
come esercizio) che due simmetrie S a e S b commutano se e solo se i corrispondenti vettori
a e b sono dipendenti (allora le simmetrie coincidono) oppure sono ortogonali.

2.3.2

Decomposizione simmetrica delle isometrie

Decomponiamo un endomorfismo Q nelle sue parti simmetrica e antisimmetrica:


Q = QS + QA ,

QS =

1
2

(Q + QT ),

QA =

1
2

(Q QT ).

(2.55)

Segue che
QQT = (QS + QA )(QS QA ) = (QS )2 (QA )2 + QA QS QS QA ,
QT Q = (QS QA )(QS + QA ) = (QS )2 (QA )2 QA QS + QS QA .
Se Q `e unisometria, allora entrambe queste espressioni devono valere 1, sicche sottraendo
membro a membro segue subito
QA QS QS QA = [QA , QS ] = 0

(2.56)

(QS )2 (QA )2 = 1.

(2.57)

e quindi
Viceversa, se valgono entrambe queste condizioni allora le predette espressioni valgono 1.
`e cos` dimostrato che le condizioni (2.56) e (2.57) sono necessarie e sufficienti affinche un
endomorfismo Q sia ortogonale. Dalla (2.57) si deduce in particolare che un endomorfismo
ortogonale Q `e simmetrico se e solo se esso `e involutorio, cio`e se Q2 = 1. Lo si riconosce
comunque anche dal fatto che, valendo la (30 ), la condizione QQ = 1 `e equivalente a
Q = QT . Osserviamo infine che se lendomorfismo ortogonale Q `e simmetrico allora,
qualunque sia il vettore v, il vettore v Q(v) `e autovettore di Q con autovalore 1.
Infatti:
Q(v Q(v)) = Q(v) Q2 (v) = Q(v) v = (v Q(v)).

2.3.3

Rappresentazione esponenziale

Dato un endomorfismo A, consideriamone tutte le sue potenze {Ak ; k N} e quindi la


serie

X
1 k
A
e =
A ,
(2.58)
k!
k=0

54

Capitolo 2. Spazi vettoriali con struttura

detta esponenziale di A. Questa `e convergente, nel senso che qualunque sia A e comunque si fissi una base di E, le n2 serie di numeri reali date dalle componenti di eA sono tutte
convergenti (anzi, assolutamente convergenti) o, se si vuole, che tale `e la serie vettoriale

X
1 k
A (v),
k!
k=0

qualunque sia il vettore v. Omettiamo la discussione sulla convergenza di questa serie e


su serie analoghe costruibili a partire da funzioni analitiche. Ci limitiamo qui ad osservare
che se (1 , . . . , n) `e lo spettro di A allora lo spettro di eA `e (e1 , . . . , en ). Infatti da
A(v) = v segue Ak (v) = k v e quindi
eA (v) =

X
X
1 k
1 k
A (v) =
v = e v.
k!
k!
k=0

k=0

Lesponenziale di un endomorfismo non gode di tutte le propriet


a della corrispondente
funzione analitica. Per esempio luguaglianza
eA+B = eA eB
non `e pi`
u vera in generale. Lo `e se i due endomorfismi A e B commutano (col che
commutano anche gli esponenziali). Vale comunque la propriet`
a
T

(eA)T = eA .
Di qui segue che: se A `e antisimmetrico allora eA `e una rotazione. Infatti:
T

eA (eA )T = eA eA = eA eA = e(AA) = 1.
Inoltre la condizione det(eA ) = 1 segue dal fatto che nello spettro di un endomorfismo
antisimmetrico gli autovalori non nulli si distribuiscono in coppie di segno opposto, sicche
la loro somma `e uguale a zero. Allora, per quanto sopra detto,
det(eA ) =

n
Y

Pn

ei = e

i=1

= e0 = 1.

i=1

2.3.4

Rappresentazione di Cayley

Se A `e un endomorfismo antisimmetrico tale che A 1 `e invertibile allora lendomorfismo


Q = (1 + A)(1 A)1

(2.59)

`e ortogonale. Si verifica infatti facilmente, utilizzando le ben note propriet`


a della traT
sposizione e il fatto che i due endomorfismi 1 A commutano, che QQ = 1. Un po
meno immediata `e la verifica del fatto che det(Q) = 1 (essa `e lasciata come esercizio).
Si ottiene quindi unulteriore rappresentazione delle rotazioni in termini di endomorfismi
antisimmetrici. Si osservi che la condizione det(1 A) 6= 0, richiesta per la validit`
a della
scrittura (2.59), `e sempre soddisfatta in uno spazio strettamente euclideo. Infatti, questa
equivale alla condizione che 1 sia un autovalore di A, cosa impossibile perche in tali spazi
gli autovalori non nulli di un endomorfismo antisimmetrico sono immaginari puri.

55

2.3. Endomorfismi ortogonali

2.3.5

Rappresentazione quaternionale

Veniamo infine ad una interessante rappresentazione delle rotazioni nello spazio euclideo
tridimensionale E3 . Si consideri nella somma diretta di spazi vettoriali R E3 il prodotto
(interno) definito da
(a, u)(b, v) = (ab u v, av + bu + u v)

(2.60)

nonche il prodotto scalare definito da


(a, u) (b, v) = ab + u v.

(2.61)

Lelemento inverso `e definito da


(a, u)1 =

(a, u)
k(a, u)k

(2.62)

dove si `e posto
k(a, u)k = (a, u) (a, u) = a2 + u2 .
Quindi tutti gli elementi sono invertibili, fuorche quello nullo (0, 0). Si ottiene unalgebra
associativa, non commutativa, con unit`
a (1, 0). Si pone per comodit`
a (a, 0) = a e (0, v) =
v. Il prodotto scalare `e conservato dal prodotto interno, nel senso che
k(a, u)(b, v)k = k(a, u)k k(b, v)k.

(2.63)

Da questa propriet`
a segue per esempio che gli elementi unitari, cio`e quelli per cui k(a, u)k =
1, formano un sottogruppo del gruppo degli elementi non nulli.
Un modo conveniente per rappresentare questalgebra, e quindi riconoscerne facilmente
le propriet`
a fondamentali, consiste nella scelta di una base canonica (i, j, k) dello spazio
vettoriale e nella rappresentazione di un generico elemento (a, u = b i + c j + d k) nella
somma formale
a + b i + c j + d k,
(2.64)
detta quaternione. Il prodotto di due quaternioni, in conformit`
a alla definizione (2.60),
`e lestensione lineare dei seguenti prodotti fondamentali:
i2 = j 2 = k 2 = 1,

i j = k,

j k = i,

k i = j.

(2.65)

Definita questalgebra, ad ogni suo elemento non nullo (a, u) si associa unapplicazione
Q : E3 E3 definita da
Q(v) = (a, u)v(a, u)1 .
(2.66)
Lasciamo come esercizio di dimostrare che: (i) il secondo membro definisce effettivamente
un vettore; (ii) che lapplicazione cos` definita `e un endomorfismo ortogonale, anzi una
rotazione; (iii) che lapplicazione
f : (R E3 )\{0} SO(E3 )

56

Capitolo 2. Spazi vettoriali con struttura

definita dalla (2.66) `e un omomorfismo di gruppi.


In particolare possiamo restringere questapplicazione agli elementi unitari di R E3 .
Osserviamo allora che, scegliendo una base canonica nello spazio euclideo, questi elementi
sono caratterizzati dallequazione (si veda la (2.64))
a2 + b2 + c2 + d2 = 1,
e quindi descrivono tutta la sfera unitaria S3 R4 . Risulta pertanto che: (i) la sfera S3
ha una struttura di gruppo; (ii) esiste un omomorfismo di gruppi
: S3 SO(3)
che costituisce un ricoprimento universale del gruppo delle rotazioni dello spazio euclideo
tridimensionale (questo termine `e proprio della teoria dei gruppi di Lie, argomento di
corsi superiori). Si osservi che ogni elemento di SO(3) ha come controimmagine due punti
opposti di S3 .
Sulla rappresentazione delle rotazioni nello spazio tridimensionale euclideo si ritorner`
a pi`
u
avanti ( 2.4.5).

2.4

Lo spazio vettoriale euclideo tridimensionale

In questo paragrafo esamineremo le propriet`


a fondamentali di uno spazio vettoriale sul
campo reale, tridimensionale, dotato di un tensore metrico, cio`e di un prodotto scalare,
definito positivo. Lo denotiamo semplicemente con E3 . Adotteremo tutte le definizioni e
notazioni gi`
a introdotte al 2.1. Siccome dovremo distinguere tra basi generiche e basi
canoniche, una base canonica sar`
a denotata con (c) ( = 1, 2, 3), una base generica con
(ei ) (i = 1, 2, 3). Le componenti relative a una base canonica saranno quindi contrassegnate con indici greci, quelle relative ad una base generica con indici latini. Quando non
occorrono notazioni con indici, una base canonica sar`
a denotata con (i, j, k). Una base
canonica `e anche detta ortonormale.

2.4.1

La forma volume

Due basi ordinate di uno spazio vettoriale (ci riferiamo ad uno spazio vettoriale di dimensione n qualsiasi) si dicono concordi o equiorientate se la matrice della trasformazione
da una base allaltra ha determinante positivo. Si stabilisce in questo modo una relazione
di equivalenza nellinsieme delle basi ordinate. Le classi di equivalenza sono due e prendono
il nome di orientamenti. Quando si sceglie una base e la si ordina, come si fa usualmente,
corredandone gli elementi con un indice che va da 1 a n, si sceglie automaticamente un
orientamento dello spazio. Se si scambiano fra di loro due vettori della base, oppure se si
cambia verso ad un numero dispari di vettori della base, si cambia orientamento.
Consideriamo ora lo spazio vettoriale euclideo tridimensionale E3 , pur avvertendo che le
considerazioni svolte in questo sottoparagrafo si estendono a spazi euclidei di dimensione

57

2.4. Lo spazio vettoriale euclideo tridimensionale

superiore. Fissata una base canonica (c ) = (c1 , c2 , c3 ), col che risulta anche fissato un
orientamento, definiamo una 3-forma : E3 E3 E3 R ponendo

u1 u2 u3

1
2
3

(u, v, w) = det v
v
v
(2.67)

w1 w2 w3
Che lapplicazione cos` definita sia multilineare e antisimmetrica segue immediatamente
dalle propriet`
a del determinante.
` importante la circostanza che la definizione (2.67) di non dipende dalla scelta della
E
base canonica, purche questa appartenga allorientamento prefissato. Per riconoscerlo
basta osservare che, ricordata la definizione di determinante, la definizione (2.67) si pu`
o
3
porre in forma sintetica utilizzando il simbolo di Levi-Civita a tre indici:
(u, v, w) = u v w

(2.68)

Il simbolo vale +1 se la successione di indici (, , ) `e una permutazione pari della


disposizione fondamentale (1, 2, 3), 1 se `e invece una permutazione dispari, 0 in tutti gli
altri casi, cio`e quando almeno due degli indici sono uguali. La (2.68) mostra subito che
le componenti del tensore nella base canonica (c ) coincidono proprio con il simbolo di
Levi-Civita:

= .
(2.69)
Questultima propriet`
a `e manifestamente indipendente dalla base canonica di partenza:
se si ripetesse la definizione (2.67) scegliendo unaltra base canonica si giungerebbe al
medesimo risultato (2.69). Pertanto la definizione di data dalla (2.67) `e invariante
rispetto alla scelta della base canonica.
Il significato di `e notevole: il determinante nella definizione (2.67) rappresenta il volume
del parallelepipedo individuato dai vettori (u, v, w), pi`
u precisamente il volume con segno:
positivo se questi vettori formano, nellordine, una base concorde con quella canonica
prefissata, negativo in caso contrario; nullo se i vettori sono dipendenti.
Per riconoscerlo si pu`
o scegliere una base canonica (c ) tale che c1 sia parallelo ad u e il
sottospazio individuato da (c1 , c2 ) contenga il vettore v (vedi figura). Allora:
u = u1 c1 ,

v = v 1 c1 + v 2 c2 ,

w = w 1 c1 + w 2 c2 + w 3 c3

e la definizione (2.67) fornisce

Vedi 1.20.

u1

1
(u, v, w) = det
v2 0
v

w1 w2 w3

= u1 v 2 w 3 .

(2.70)

58

Capitolo 2. Spazi vettoriali con struttura

Si riconosce, sempre guardando la figura, che questultimo prodotto `e proprio il volume


del parallelepipedo individuato dai vettori (u, v, w).
'

&

La forma volume.

Per quanto ora visto il tensore antisimmetrico covariante prende il nome di forma volume. La sua definizione si estende facilmente a spazi euclidei di dimensione qualsiasi. Si
osservi che di forme volume ne esistono due, una opposta allaltra, una per ogni orientamento. Lorientamento che di solito si assume nello spazio euclideo tridimensionale `e quello
della mano destra: i vettori di una base canonica ordinata (c1 , c2 , c3 ) = (i, j, k) sono
rispettivamente orientati come indice-medio-pollice (o pollice-indice-medio) della mano
destra.
La forma volume `e un ente fondamentale nello spazio euclideo. Per suo tramite, come si vedr`
a nei prossimi paragrafi, si possono definire due operazioni fondamentali: laggiunzione
e il prodotto vettoriale.
Teorema 2.4.1 Le componenti della forma-volume rispetto ad una qualunque base
(ei ), legata ad una base canonica (c ) dalle uguaglianze ei = Ei c, sono date da
hij = J hij ,

J = det[Ei]

(2.71)

dove hij `e il simbolo di Levi-Civita, oppure da

hij = g hij ,

g = det[gij ],

gij = ei ej

col segno + se la base (ei ) `e concorde con la base fondamentale (c ).

(2.72)

59

2.4. Lo spazio vettoriale euclideo tridimensionale

Dimostrazione. Posto che le due basi sono legate da relazioni del tipo ei = Ei c, e
posto che la base (c) `e canonica e quindi che le componenti del tensore metrico rispetto
a questa coincidono col simbolo di Kronecker, risulta
gij = Ei Ej ,
per cui
det[gij ] = (det[Ei])2 .

(2.73)

Daltra parte, per la legge di trasformazione delle componenti di un tensore, si ha anche,


stante la (2.69),

hij = Eh Ei Ej .
Scelto per esempio (h, i, j) = (1, 2, 3) e ricordata la definizione di determinante, si vede
che questultima formula implica
123 = E1 E2 E3 = det[Ei].
Se invece (h, i, j) = (2, 1, 3), allora
213 = det[Ei].
Si riconosce cos` che vale la formula generale (2.71). Dalla (2.71) segue poi la (2.72) in
virt`
u della (2.73).
Osservazione 2.4.1 Data una base canonica (c ) e denotata con ( ) la sua duale, la
forma volume risulta essere anche definita da
= 1 2 3

(2.74)

Infatti, richiamata e adattata al caso n = 3 la formula generale analoga alla (1.107) per i
covettori, possiamo scrivere
1 2 3 = .
Per cui

( 1 2 3 )(u, v, w) = ( )(u, v, w)
= u v w ,

come nella (2.68). Dunque la forma volume ammette la definizione equivalente (2.74).

2.4.2

Aggiunzione

Introdotta la forma volume, ad ogni vettore u E3 si fa corrispondere una forma bilineare antisimmetrica, sempre su E3 , chiamata aggiunta di u, denotata con u e definita
dalluguaglianza
(u)(v, w) = (u, v, w)

(2.75)

60

Capitolo 2. Spazi vettoriali con struttura

Posto
= u,
si ha successivamente:
ij

= (ei , ej ) = (u)(ei , ej )
= (u, ei , ej ) = uh (eh , ei , ej ) = uh hij .

Quindi le componenti ij della forma aggiunta, in una base generica dellorientamento


scelto, sono date da
ij = hij uh

(2.76)

Se in particolare la base `e canonica

= u
vale a dire:

La corrispondenza

(2.77)

u3

u2

3
[ ] =
0
u

u2 u1

(2.78)

: E3 2 (E3 ) : u 7 u
che cos` si genera `e un isomorfismo. Con lo stesso simbolo denotiamo la corrispondenza
inversa, denotiamo cio`e con il vettore aggiunto della 2-forma . In questo modo si
ha u = u e = . Dalla (2.78) si vede che
23 = u1 ,

31 = u2 ,

12 = u3 ,

(2.79)

cio`e che la relazione inversa della (2.77) pu`


o essere scritta, considerando il simbolo di
Levi-Civita con gli indici in alto,
1
2

u =

(2.80)

In una base qualsiasi, sempre nellorientamento scelto, risulta


ui =

1
2

ijh jh

(2.81)

dove le ( ijh ) sono le componenti contravarianti della forma volume:


ijh = g ik g jl g hm klm .

(2.82)

61

2.4. Lo spazio vettoriale euclideo tridimensionale

Queste si possono a loro volta esprimere mediante il simbolo di Levi-Civita:


1
ijh = ijh .
g

(2.83)

Infatti dalla (2.82) si trae:


ijh =

g g ik g jl g hm klm =

1
g ijh det[g rs] = ijh ,
g

poiche det[g rs] = g 1 .


La forma volume permette anche di stabilire un isomorfismo fra R = 0 (E3 ) e 3 (E3 ),
che chiamiamo ancora aggiunzione e che denotiamo ancora con . Ad un numero reale a
corrisponde la 3-forma
a = a

(2.84)

e, viceversa, ad una 3-forma corrisponde il numero reale


=

1 hij
1
hij =
3!
3!

(2.85)

Per riconoscere la coerenza tra la (2.84) e la (2.85), cio`e che a = a, occorre osservare
che per il simbolo di Levi-Civita vale luguaglianza
= 3!

(2.86)

Accanto a questa valgono anche le seguenti, la cui verifica `e lasciata come esercizio:
= 2 ,

2.4.3

= .

(2.87)

Prodotto vettoriale

Per mezzo della forma volume definiamo unoperazione binaria interna su E3 , detta prodotto vettoriale e denotata con , ponendo
u v w = (u, v, w)

(2.88)

Si tenga presente che il prodotto vettoriale `e in alcuni testi denotato con ed `e anche chiamato prodotto esterno. Tuttavia il simbolo `e oggi universalmente usato per il prodotto
esterno di forme antisimmetriche ( 1.18).
Segue subito dalla definizione (2.88) che il prodotto vettoriale u v `e ortogonale ai due
fattori:
u v u = 0, u v v = 0.
(2.89)

62

Capitolo 2. Spazi vettoriali con struttura

Segue inoltre che, se si prendono i tre vettori di una base canonica appartenente allorientamento scelto, si ha
c1 c2 = c3 ,

c2 c3 = c1 ,

c3 c1 = c2 .

(2.90)

Il prodotto vettoriale `e anticommutativo, bilineare e soddisfa allidentit`


a di Jacobi:

u v = v u,

(a u + b v) w = a u w + b v w,
(2.91)

u (v w) + v (w u) + w (u v) = 0.

Pertanto il prodotto vettoriale istituisce sullo spazio euclideo tridimensionale una struttura
di algebra di Lie. Le prime due propriet`
a sono di immediata verifica. La terza si pu`
o
far seguire, con qualche calcolo, dalla formula del doppio prodotto vettoriale
u (v w) = u w v u v w

(2.92)

(u v) w = u w v v w u

(2.93)

che `e equivalente a

Per dimostrare la (2.92) si osserva che il primo membro `e un vettore ortogonale a v w


e quindi, essendo questo prodotto ortogonale a v e w, appartenente allo spazio generato
dai vettori (v, w). Si pu`
o allora scrivere
u (v w) = a v + b w.
Moltiplicando scalarmente per u si trova
0 = a v u + b w u.
Possiamo pertanto scrivere
a = w u,

b = v u,

con costante indeterminata. Segue allora:



u (v w) = (w u) v (v u) w .

Per come `e definito il prodotto vettoriale il primo membro `e lineare rispetto ad ogni
fattore. Cos` dicasi della quantit`
a tra parentesi a secondo membro. Allora il fattore
deve essere un numero indipendente dai vettori (u, v, w) che compaiono nelluguaglianza.
Se si considera per esempio una base canonica appartenente allorientamento scelto e si
prende (u, v, w) = (c1 , c1 , c2 ), posto che si veda la (2.90) c1 c2 = c3 e c1 c3 = c2 ,
risulta luguaglianza c3 = ( c3 ). Deve quindi essere = 1 e la (2.92) `e dimostrata.

63

2.4. Lo spazio vettoriale euclideo tridimensionale

Ponendo w = ei nella (2.88) si trovano le componenti covarianti del prodotto vettoriale


in una base generica:
(u v)i = ihj uh v j .
(2.94)
Le componenti contravarianti sono di conseguenza
(u v)i = ihj uh vj .

(2.95)

In una base canonica (c ), tenendo presente che non vi `e pi`


u differenza numerica tra
componenti covarianti e contravarianti, si ha
(u v) = u v

(2.96)

(u v) = u v .

(2.97)

ovvero anche
Di qui la possibilit`
a di esprimere il prodotto vettoriale mediante un determinante formale:

c1

c2

c3

2
3

u v = det u u u

1
2
3
v v v

(2.98)

Tenuto conto delle (2.96) e (2.97), nonche della seconda delle (2.87), si pu`
o ridimostrare
la formula (2.92) del doppio prodotto vettoriale alla maniera seguente:

u (v w) = u (v w) = u v w
= u v w = u w v u v w.

Osservazione 2.4.2 Partendo dalla definizione (2.88) si dimostra che se `e langolo


compreso tra i vettori non nulli u e v (valutato tra 0 e ) allora
|u v| = |u| |v| sin

(2.99)

Infatti, per le propriet`


a gi`
a viste:
|u v|2 = (u v) (u v) = (u v) u v

= (u u v u v u) v = |u|2 |v|2 (u v)2




(u v)2
2
2
= |u| |v| 1
= |u|2 |v|2 (1 cos2 ).
|u|2 |v|2

Osservazione 2.4.3 Loperazione combinata di prodotto vettoriale e prodotto scalare, u v w, `e chiamata prodotto misto. Dalla definizione (2.88) seguono subito,

64

Capitolo 2. Spazi vettoriali con struttura

stante lantisimmetria di , la propriet`


a anticommutativa, la propriet`
a ciclica e la
propriet`
a di scambio del prodotto misto:

u v w = v u w, u v w = u w v, . . .

u v w = v w u = w u v,
(2.100)

u v w = u v w.

2.4.4

Endomorfismi assiali

Ad ogni vettore a E3 corrisponde per aggiunzione una forma bilineare antisimmetrica


a. Interpretata questa come endomorfismo (antisimmetrico), vale la formula
a(v) = a v

(2.101)

Infatti, in virt`
u delle definizioni sopra date, si ha successivamente
a(v) u = a(v, u) = (a, v, u) = a v u,
per cui, stante larbitariet`
a del vettore u, segue la (2.101). Siccome laggiunzione `e una corrispondenza biunivoca fra vettori e forme bilineari antisimmetriche, e quindi endomorfismi
antisimmetrici, concludiamo che nello spazio euclideo tridimensionale ogni endomorfismo
antisimmetrico `e del tipo (2.101), cio`e del tipo a, con a E3 . Si noti che il vettore a
`e un autovettore di a, corrispondente allautovalore nullo; infatti a(a) = a a = 0.
Per questo motivo gli endomorfismi antisimmetrici sono anche chiamati endomorfismi
assiali.
La corrispondenza biunivoca cos` stabilita tra i vettori e gli endomorfismi antisimmetrici
`e un isomorfismo dalgebre di Lie (si ricordi che, propriet`
a (VI) al 2.2, in ogni spazio
euclideo gli endomorfismi antisimmetrici formano, con il commutatore, unalgebra di Lie).
Sussiste infatti luguaglianza
[A, B] = (A) (B)

(2.102)

[a, b] = (a b)

(2.103)

ovvero luguaglianza equivalente

Infatti, posto a = A e b = B, si ha
A B(u) = a (b u)
e quindi, utilizzando lidentit`
a di Jacobi per il doppio prodotto vettoriale,
[A, B](u) = a (b u) b (a u)
= a (b u) + b (u a)
= u (a b) = (a b) u = (a b)(u).

65

2.4. Lo spazio vettoriale euclideo tridimensionale

Osservazione 2.4.4 Sappiamo che in E3 , come in ogni spazio euclideo, esiste una corrispondenza biunivoca fra vettori e covettori ( 2.1). Al 1.18 abbiamo definito il prodotto
esterno di due covettori. Il legame tra questo prodotto esterno e il prodotto vettoriale `e
espresso dalluguaglianza
(u v) = u[ v[

(2.104)

Infatti, tenuto conto della formula (2.93) sul doppio prodotto vettoriale, si ha successivamente:
(a b)(u, v) = (a b, u, v) = (a b) u v
=aubvav bu


= hu, a[ ihv, b[ i hv, a[ ihu, b[ i = a[ b[ (u, v).

2.4.5

Rotazioni

Consideriamo le rotazioni dello spazio E3 . Ricordiamo, dalla teoria generale svolta al 2.3,
che una rotazione `e una isometria con determinante uguale a +1 e che i suoi autovalori,
se lo spazio `e strettamente euclideo, sono unitari, quindi del tipo ei = cos + i sin .
Per n = 3 gli autovalori sono radici di un polinomio di terzo grado a coefficienti reali.
Quindi almeno uno di essi `e reale, gli altri due complessi coniugati o reali. Imponendo la
condizione che il prodotto di tutti e tre gli autovalori sia uguale a 1 = det(Q) si trova che
lunico spettro possibile di una rotazione `e del tipo
(1, ei, ei ).

(2.105)

Ci`
o premesso, se escludiamo il caso Q = 1, il cui spettro `e (1, 1, 1), lautovalore 1 determina un sottospazio unidimensionale di autovettori K1 E3 che chiamiamo asse della
rotazione. Il numero che compare nella (2.105), determinato a meno del segno e di
multipli di 2, prende il nome di angolo della rotazione.
'

&

Versore-angolo di una rotazione.

66

Capitolo 2. Spazi vettoriali con struttura

Si pu`
o rappresentare la rotazione Q mediante una coppia (u, ) dove u `e un versore
dellasse e `e langolo della rotazione, orientato in maniera tale che per ogni vettore c
ortogonale a u il passaggio da c a Q(c) secondo il verso di sia tale da produrre un
avvitamento nel verso di u (`e sottintesa la scelta del solito orientamento dello spazio,
secondo la regola della mano destra). Si dice allora che (u, ) sono versore e angolo
della rotazione Q o anche che u `e il versore dellangolo .
Si osservi che le coppie (u, ) e (u, ) d`
anno luogo alla stessa rotazione come anche,
in particolare, le coppie (u, ) e (u, ). Se si sceglie una base canonica (c ) tale che
c3 = u, allora la matrice delle componenti della rotazione Q generata dalla coppia (u, ),
con u versore di , ha la forma seguente:

cos sin 0

(2.106)
[Q] = sin cos 0
.

0
0
1
Infatti, tenuto presente che in una base canonica

Q = Q = Q(c ) c ,
si vede con laiuto della figura che Q11 = Q(c1 ) c1 = cos , Q12 = Q(c1 ) c2 = sin , e
cos` via.
Oltre alla coppia versore-angolo vi sono varie altre rappresentazioni della rotazioni, per
esempio quella esponenziale e quella quaternionale, gi`
a esaminate ai 2.3.3 e 2.3.5. Oltre
a queste `e da prendersi in considerazione quella fornita dagli angoli di Eulero (Leonhard
Euler, 1707-1783), basata sulla relazione fra una terna ortonormale di vettori, detta terna
fissa, e la terna ruotata: la prima `e una base canonica (c ) = (i, j, k); la seconda `e la
terna (Q(c )) = (i0 , j 0 , k0 ). Gli angoli di Euler (, , ), detti rispettivamente angolo di
nutazione, di rotazione propria, di precessione e soddisfacenti alle limitazioni

0 < < ,

0 < 2,
(2.107)

0 < 2,
sono definiti, nellipotesi che k0 = Q(c3 ) sia distinto da k = c3 , come segue (si guardi la
figura).
(I) Langolo di nutazione `e langolo compreso tra k e k 0 .
(II) Si consideri lintersezione fra il piano (i0 , j 0 ) e il piano (i, j): `e una retta detta linea
dei nodi. Questa `e individuata dal versore del prodotto vettoriale k k0 che denotiamo
con N (infatti la retta in questione `e ortogonale sia a k che a k0 ).
(III) Langolo di rotazione propria `e langolo formato da (N , i0 ) di versore k0 e langolo di
precessione `e langolo formato da (i, N) di versore k. Da questa definizione discende che
assegnati comunque tre angoli soddisfacenti alle limitazioni (2.107) risulta univocamente
definita la terna ruotata (si veda anche lEsercizio 2 seguente).

2.4. Lo spazio vettoriale euclideo tridimensionale

'

&

Gli angoli di Euler

67

***
Esempio 2.4.1 Poniamoci il problema di:
(I) determinare la coppia (u, ) a partire dalla rotazione Q e, viceversa,
(II) di determinare la rotazione Q a partire dalla coppia (u, ).
Osserviamo innanzitutto che, data Q, il versore u `e un autovettore associato allautovalore
1, quindi determinabile risolvendo un sistema di equazioni lineari. Tuttavia, `e pi`
u semplice
la sua determinazione attraverso la parte antisimmetrica di Q, almeno quando questa non
`e nulla, perche si ha
sin u = QA .
(2.108)
Se infatti si guarda alla matrice (2.106), che `e ottenuta scegliendo opportunamente una
base canonica, e si ricorda la relazione tra le componenti di una forma bilineare antisimmetrica e quelle del vettore aggiunto, data per esempio dalla (2.78), si trova luguaglianza

0
a3 a2
0
sin 0

3
1

[A] = a
0
a = sin
0
0
,

2
1
a
a
0
0
0
0

posto A = QA e a = A. Di qui la (2.108). La formula (2.108), fissata una delle due


possibili scelte del versore u, determina solamente sin e non . Occorre quindi, per
eliminare questa indeterminazione, estrarre qualche altra informazione da Q. Si pu`
o per
esempio calcolare cos attraverso la formula (che lasciamo da dimostrare)
1 + 2 cos = I2 (Q) = tr(Q).

(2.109)

68

Capitolo 2. Spazi vettoriali con struttura

Questa ci consente fra laltro di osservare che linvariante primo (la traccia) e linvariante secondo di una rotazione coincidono. Il problema inverso (II) pu`
o essere risolto con
luso della rappresentazione esponenziale. Infatti, data una qualunque coppia (u, ), e
introdotto lendomorfismo aggiunto U = u, la rotazione
Q = eU

(2.110)

`e proprio la rotazione di versore-angolo (u, ). Per riconoscerlo ominciamo con losservare


che:
U (v) = (U ) v = u v,
U 2 (v) = u U (v) = u (u v) = u v u v,

U 3 (v) = u U 2 (v) = u v = U (v),


quindi che
U 2n+2 = (1)n U 2 ,

U 2n+1 = (1)n U .

Si ha allora successivamente:
eU

1
1 2n 2n P
U + n=0
2n+1 U 2n+1
2n!
(2n + 1)!




P
P (1)n1 2n
(1)n
2
2n+1
=1+

U
+

U,
n=1
n=0
2n!
(2n + 1)!
=

n=0

vale a dire
Q = eU = 1 + sin U + (1 cos )U 2 .

(2.111)

Questa formula `e in accordo con le precedenti (2.108) e (2.109) perche implica


QA = sin U = sin u,
e
tr(Q) = 3 + (1 cos )tr(U 2 ) = 2 cos + 1,
valendo la formula generale, la cui verifica `e immediata,
tr(U 2 ) = 2 kuk,

(2.112)

che quindi in questo caso produce tr(U 2 ) = 2. La formula (2.111), tenuto conto delle
espressioni U (v) e U 2 (v) sopra scritte, consente anche di esprimere il generico vettore
Q(v) mediante la coppia (u, ):
Q(v) = cos v + (1 cos ) u v u + sin u v.

(2.113)

69

2.4. Lo spazio vettoriale euclideo tridimensionale

Esempio 2.4.2 La matrice delle componenti della rotazione Q determinata dagli angoli
di Euler (, , ) `e:

cos cos sin sin cos


cos sin + sin cos cos

[Q] =
sin sin + cos cos cos
sin cos cos sin cos

sin sin
cos sin
sin sin

cos sin
.

cos

(2.114)

Per giungere alla (2.114) si pu`


o osservare che la rotazione Q `e composta da tre rotazioni
successive , , , caratterizzate dalle seguenti coppie versore-angolo:
= (k, ),

= (i, ),

= (k, ).

Le matrici delle componenti sono rispettivamente:

cos sin 0

,
[] =

sin

cos

0
0
1

1
0
0

[] =
0 cos sin ,
0 sin cos

cos sin 0

[] =
sin cos 0 .
0
0
1

Si deve quindi eseguire il prodotto matriciale

Q = .
Eseguendo il prodotto (righe per colonne, secondo le convenzioni adottate) delle prime
due matrici si ottiene

cos sin cos sin sin

.
[ ] =

sin

cos

cos

cos

sin

0
sin
cos

Moltiplicando questa per la terza si ottiene la (2.114).

70

2.5

Capitolo 2. Spazi vettoriali con struttura

Spazi vettoriali iperbolici

Uno spazio vettoriale iperbolico `e uno spazio vettoriale pseudoeuclideo (Hn , g) di


segnatura (n 1, 1). Ci`
o significa (si veda il 2.1) che in ogni base canonica (ci ) un
vettore ha norma negativa (si dice che `e del genere tempo) e gli altri n 1 hanno norma
positiva (si dicono del genere spazio). Conveniamo che gli indici latini varino da 0 a n 1,
che in una base canonica (ci ) il vettore del genere tempo sia c0 , che i rimanenti vettori
del genere spazio siano denotati con (c ), e che gli indici greci varino quindi da 1 a n 1.
La matrice metrica in una base canonica avr`
a pertanto la forma

1 0 . . . 0

0 1 ... 0

[gij ] =
(2.115)
..
.. . .
..
.
. .
.

0 0 ... 1
Lo spazio iperbolico di dimensione 4 prende il nome di spazio vettoriale di Minkowski
(Hermann Minkowski, 1864-1909). Questo spazio `e di fondamentale importanza per la
teoria della Relativit`
a Ristretta. Ricordiamo ancora che un vettore ortogonale a se stesso
`e detto isotropo o del genere luce.
Ci limitiamo in questo paragrafo ad esaminare alcune propriet`
a fondamentali degli spazi
iperbolici in generale e, in particolare, dello spazio iperbolico bidimensionale. Si tenga
presente che per spazio iperbolico alcuni autori intendono uno spazio di dimensione pari
2n e segnatura (n, n).
Teorema 2.5.1 Un vettore (non nullo) ortogonale ad un vettore del genere tempo `e un
vettore del genere spazio. Il sottospazio ortogonale ad un vettore del genere tempo `e uno
spazio strettamente euclideo (di dimensione n 1).

Dimostrazione. Sia v un vettore del genere tempo. Si consideri il sottospazio unidimensionale K generato da v e il suo ortogonale K . Non pu`
o essere v K perche v
sarebbe anche ortogonale a se stesso, quindi isotropo. Dunque K K = 0 e il sottospazio
K `e a metrica non degenere (si veda lOss. 2.1.6). Si pu`
o quindi determinare su K , che
`e di dimensione n 1, una base canonica (c ). Se consideriamo anche il versore c0 di v,
otteniamo una base canonica. Siccome c0 `e del genere tempo tutti gli altri vettori della
base sono del genere spazio, altrimenti si violerebbe il teorema di Sylvester, posto che la
segnatura `e (n 1, 1). Dunque tutti i vettori di K sono del genere spazio e questo `e
strettamente euclideo. 2
In maniera analoga si dimostra che
Teorema 2.5.2 Il sottospazio ortogonale ad un vettore del genere spazio `e uno spazio
iperbolico se n > 2 o del genere tempo se n = 2.

71

2.5. Spazi vettoriali iperbolici

Dal Teorema 2.5.1 segue che i sottospazi del genere tempo hanno dimensione 1. Segue anche che, fissato un sottospazio K H del genere tempo, risulta definita una
decomposizione spazio-temporale dello spazio iperbolico H nella somma diretta
H = K S,
dove S `e il sottospazio strettamente euclideo ortogonale a K (S = K ).
Teorema 2.5.3 Il sottospazio ortogonale ad un vettore (non nullo) del genere luce `e a
metrica degenere contenente il vettore stesso. Tutti i vettori del sottospazio indipendenti
da questo sono del genere spazio.

Dimostrazione. Sia v un vettore isotropo, K il sottospazio da esso generato. Siccome


v `e ortogonale a se stesso per definizione, risulta K K . Quindi K K 6= 0 e il
sottospazio K `e a metrica degenere. Se in esso vi fosse un vettore del genere tempo, si
contrasterebbe con la Proposizione 1, che implica v del genere spazio. Se vi fossero due
vettori indipendenti del genere luce, si contrasterebbe con il teorema seguente. 2
Teorema 2.5.4 Due vettori del genere luce e ortogonali sono dipendenti (cio`e paralleli).

Dimostrazione. Un generico vettore isotropo v 6= 0 pu`o sempre mettersi nella forma

v = a(u + c0 ), dove u `e un vettore unitario, del genere spazio, ortogonale a c0 , generico


vettore unitario del genere tempo; basta infatti porre u = a1 v c0 con a = v c0 (si
osservi che la condizione v c0 = 0 violerebbe la Proposizione 1). Se v0 = a0 (u0 + c0 ) `e
un altro vettore isotropo decomposto allo stesso modo, dalla condizione v v 0 = 0 segue
u u0 1 = 0. Ma due vettori unitari del genere spazio hanno prodotto scalare uguale a
1 se e solo se sono uguali. Da u = u0 segue che v e v0 sono dipendenti. 2
Dal teorema precedente segue che i sottospazi isotropi hanno dimensione 1, a conferma
della propriet`
a generale messa in evidenza nellOss. 2.1.6.
Definizione 2.5.1 Denotiamo con T il sottoinsieme dei vettori del genere tempo. Diciamo che due vettori u, v T sono ortocroni se u v < 0.
Teorema 2.5.5 La relazione di ortocronismo `e una relazione di equivalenza che divide
T in due classi.

Dimostrazione. La relazione di ortocronismo `e riflessiva perche si ha v v = kvk < 0


per ogni vettore del genere tempo (per definizione). `e ovviamente simmetrica, perche `e
simmetrico il prodotto scalare. Per dimostrare la propriet`
a transitiva dobbiamo dimostrare
limplicazione
u v < 0, v w < 0 = u w < 0.
(2.116)

72

Capitolo 2. Spazi vettoriali con struttura

Per dimostrare che le classi di equivalenza sono due dobbiamo dimostrare lmplicazione
u v > 0,

vw>0

u w < 0.

(2.117)

Per questo scopo, supposto senza ledere la generalit`


a che il vettore v sia unitario, si scelga
una base canonica tale da aversi c0 = v. Si ha allora:

uw=

n1
X

=1

u w u0 w 0 ,

u v = g00 u0 = u0 ,

w v = w0 .

Le condizioni u T e w T sono equivalenti alle disuguaglianze


n1
X

=1

(u)2 (u0 )2 < 0,

n1
X

(w )2 (w 0 )2 < 0.

=1

Per la disuguaglianza di Schwarz, valida nello spazio strettamente euclideo ortogonale a


c0 e generato dai vettori (c), si ha anche
n1
X

=1

u w

!2

n1
X

(u )2

=1

n1
X

(w )2 < (u0 w 0 )2 .

=1

Abbiamo allora le seguenti implicazioni : (u v < 0, v w < 0) (u0 > 0, w 0 > 0) =


u0 w 0 > 0 = u w < 0. Quindi limplicazione (2.116) `e dimostrata. Analogamente si ha:
(u v > 0, v w > 0) (u0 < 0, w 0 < 0) = u0 w 0 > 0 = u w < 0. Quindi anche
limplicazione (2.117) `e dimostrata. 2
Denotiamo con T + e T le due classi di equivalenza in cui `e diviso linsieme T dei vettori
del genere tempo; essi si chiamano rispettivamente futuro e passato. Denotiamo con
L linsieme dei vettori del genere luce. Essi formano il cosiddetto cono di luce. Se
infatti denotiamo con x = xi ci il generico vettore dello spazio e se imponiamo che esso
sia isotropo, cio`e che x x = 0, troviamo la condizione
n1
X

=1

(x)2 (x0 )2 = 0.

(2.118)

Questa `e lequazione di un cono di centro lorigine (vettore nullo). Il cono di luce `e diviso
in due falde, L+ e L , ciascuna delle quali separa dai vettori del genere spazio i vettori
delle classi T + e T rispettivamente, i quali stanno allinterno di ciascuna falda (vedi
figura).

2.5. Spazi vettoriali iperbolici

'

&

Il cono di luce.

73

I vettori unitari del genere spazio sono caratterizzati dallequazione


n1
X

=1

(x)2 (x0 )2 = 1.

(2.119)

Si tratta di un iperboloide a una falda. I vettori unitari del genere tempo sono invece
caratterizzati dallequazione
n1
X
(x )2 (x0 )2 = 1.
(2.120)
=1

Si tratta di un iperboloide a due falde. Va inoltre tenuto presente che


Teorema 2.5.6 La somma di due o pi`
u vettori di T + (risp. di T ) `e ancora un vettore
+

di T (risp. di T ).

Dimostrazione. Siano u, v T + . Ci`o significa che kuk < 0, kvk < 0, u v < 0. Di

qui segue ku + vk = kuk + kvk + 2 u v < 0; quindi la somma u + v `e del genere tempo.
Inoltre: u (u + v) = u u + u v < 0. Dunque u e la somma u + v sono ortocroni. 2

Osservazione 2.5.1 (I) Si verifichi che nello spazio End(E) degli endomorfismi sopra
uno spazio vettoriale E si definisce un prodotto scalare ponendo
A B = tr(AB).

(2.121)

74

Capitolo 2. Spazi vettoriali con struttura

(II) Si dimostri che, nel caso n = 2, la segnatura del tensore metrico cos` definito `e (3,1).
Lo spazio H4 = End(E2 ) degli endomorfismi su di uno spazio bidimensionale `e quindi uno
spazio di Minkowski.
(III) Si dimostri che lassegnazione di un tensore metrico definito positivo su E2 implica
la definizione di una decomposizione spazio-temporale di H4 .
(IV) Si estendano queste considerazioni al caso dello spazio Hn2 = End(En ), dimostrando
che la segnatura del prodotto scalare definito dalla (2.121) `e


n(n + 1) n(n 1)
,
.
2
2
Esaminiamo ora, per meglio comprendere la struttura di uno spazio iperbolico, il caso pi`
u
semplice dello spazio iperbolico bidimensionale H2 .
Fissata una base canonica (c0 , c1 ), con c0 del genere tempo, osserviamo innanzitutto che
il cono di luce, insieme dei vettori isotropi, ha ora equazione
(x1 )2 (x0 )2 = 0,
e si riduce pertanto alle rette isotrope di equazione x1 x0 = 0 e x1 + x0 = 0, che sono
le bisettrici dei quadranti individuati dai vettori della base. Volendo raffigurare su di un
piano i vettori (c0 , c1 ), unitari e ortogonali fra loro, dobbiamo tener presente che il foglio
su cui riportiamo la figura che segue, fissato un punto corrispondente al vettore nullo,
`e la rappresentazione intuitiva dello spazio bidimensionale strettamente euclideo, non di
quello iperbolico. Per esempio, contrariamente al nostro senso euclideo, i vettori che si
trovano sulle bisettrici hanno lunghezza nulla. Cos`, i vettori unitari del genere tempo
sono caratterizzati dallequazione
(x0 )2 (x1 )2 = 1,
e descrivono quindi uniperbole di vertici i punti (1, 0) e asintoti le rette isotrope, mentre
i vettori unitari del genere spazio sono caratterizzati dallequazione
(x1 )2 (x0 )2 = 1,
e descrivono pertanto liperbole di vertici i punti (0, 1) con gli stessi asintoti. Se ora
prendiamo un vettore u unitario del genere tempo, la retta descritta dai vettori ortogonali
a questo ha equazione
u1 x1 u0 x0 = 0.

Si consideri quindi uno dei due vettori v unitari e ortogonali a u; sappiamo che questi
sono del genere spazio. Allora
ku vk = kuk + kvk + 2 u v = 1 + 1 + 0 = 0.

Ci`
o significa che il vettore differenza u v `e isotropo, quindi giacente su una delle due
bisettrici (asintoti). Concludiamo che, nella rappresentazione euclidea, due vettori del
piano iperbolico non isotropi, unitari e ortogonali, stanno in posizione simmetrica rispetto
ad una delle due bisettrici (vedi figura).

2.5. Spazi vettoriali iperbolici

'

&

Ortogonalit`
a dei vettori nel piano iperbolico.

75

Si osservi ancora, guardando dinuovo la figura, che per un osservatore iperbolico la coppia (u, v) `e una base canonica, quindi del tutto equivalente alla coppia (c0 , c1 ), ottenibile
da questa mediante una rotazione, cio`e mediante un elemento di SO(1, 1). Siamo quindi
condotti ad esaminare il gruppo delle isometrie sullo spazio iperbolico bidimensionale. Ci
limitiamo a quelle di determinante +1, cio`e alle rotazioni. Ricordiamo inanzitutto che le
componenti Qji di un qualunque endomorfismo Q sono legate alle componenti (Qij ) della
forma bilineare corrispondente dalle equazioni Qij = gjk Qki . Pertanto, essendo nel caso
presente
g00 = 1, g11 = 1, g01 = g10 = 0,
risulta:

Posto inoltre

Q00 = Q00 ,

Q01 = Q10 ,

Q(c0 ) = a c0 + b c1 ,
cio`e
[Qji ]

Q10 = Q01 ,

Q11 = Q11 .

Q(c1 ) = c c0 + d c1 ,
"

a b
c d

dalle condizioni Q(ci ) Q(cj ) = ci cj e det(Qji ) = 1, caratteristiche di una rotazione,


seguono le uguaglianze:
a2 b2 = 1,

d2 c2 = 1,

bd ac = 0,

ad bc = 1.

Dalle ultime due si trae a = d e b = c. Dalla prima segue a2 1. Possiamo allora porre
a = cosh ,

b = sinh ,

(2.122)

76

Capitolo 2. Spazi vettoriali con struttura

oppure
a = cosh ,

b = sinh .

(2.123)

Poiche a = Q(c0 ) c0 , nel primo caso abbiamo a > 0, quindi una rotazione ortocrona,
conservante cio`e la classe di ogni vettore del genere tempo. La matrice delle componenti
di una rotazione ortocrona ha quindi la forma:
#
"
cosh sinh
j
[Qi ] =
.
(2.124)
sinh cosh
Nel secondo caso si ha una rotazione non ortocrona e la matrice corrispondente `e:
"
#
cosh
sinh
j
[Qi ] =
.
(2.125)
sinh
cosh
Il parametro che interviene in queste due rappresentazioni prende il nome di pseudoangolo della rotazione. Esso pu`
o variare da a +, ricoprendo tutte le rotazioni
ortocrone. Per = 0 si ha ovviamente Q = 1. La composizione di due rotazioni di
pseudoangolo 1 e 2 `e la rotazione di pseudoangolo 1 + 2 : lo si desume dalla (2.124)
utilizzando le propriet`
a elementari delle funzioni trigonometriche iperboliche. Sempre in
base a tali propriet`
a, si osserva che si pu`
o scegliere come parametro rappresentativo la
tangente iperbolica dello pseudoangolo,
= tanh =

sinh
,
cosh

variabile nellintervallo aperto (1, 1). La (2.124) diventa allora


"
#
1

1
[Qji ] = p
.
1 2
1

(2.126)

You might also like