You are on page 1of 80

Appunti del corso di Analisi su Variet`a

Giada Franz

Davide Lofano

30 maggio 2016

Indice

Introduzione

1 Variet`
a differenziabili
1.1 Definizioni ed esempi di variet`a differenziabili
1.2 Prodotti e mappe di variet`a . . . . . . . . . .
1.3 Spazio tangente . . . . . . . . . . . . . . . . .
1.4 Mappe tangenti . . . . . . . . . . . . . . . . .
1.5 Struttura differenziabile sul tangente . . . . .
1.6 Funzioni tra variet`a . . . . . . . . . . . . . . .

.
.
.
.
.
.

1
1
3
3
4
5
5

2 Campi vettoriali e derivazioni


2.1 Definizioni e richiami . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Flusso locale di un campo vettoriale . . . . . . . . . . . . . . . . . . . . .
2.3 Flusso di un campo vettoriale . . . . . . . . . . . . . . . . . . . . . . . .

7
7
8
9

3 Derivate e prodotti di Lie


3.1 Derivata e parentesi di Lie . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Propriet`a delle parentesi di Lie . . . . . . . . . . . . . . . . . . . . . . .
3.3 Commutazione di campi vettoriali . . . . . . . . . . . . . . . . . . . . . .

11
11
13
14

4 Distribuzioni e variet`
a integrali
4.1 Definizioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2 Condizioni necessarie per lesistenza di variet`a integrali . . . . . . . . . .
4.3 Teorema di Frobenius . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

19
19
20
21

5 Fibrati vettoriali
5.1 Definizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2 Funzioni di transizione . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3 Mappe fra fibrati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

23
23
23
24

6 Calcolo tensoriale
6.1 Definizione e operazioni su spazi vettoriali . . . . . . . . . . . . . . . . .
6.2 Push-forward e pull-back di trasformazioni lineari . . . . . . . . . . . . .

27
27
30

7 Fibrati e campi tensoriali


7.1 Risultati locali su variet`a
7.2 Fibrati tensoriali . . . .
7.3 Campi tensoriali . . . . .
7.4 Tensore metrico . . . . .

33
33
33
35
36

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.
iii

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.

Indice
7.5

Pull-back e push-forward di campi tensoriali . . . . . . . . . . . . . . . .

37

8 Derivata di Lie sui tensori


8.1 Operatore differenziale sullalgebra dei tensori . . . . . . . . . . . . . . .
8.2 Estensione della derivata di Lie . . . . . . . . . . . . . . . . . . . . . . .

39
39
41

9 Forme differenziali
9.1 Forme esterne su spazi vettoriali
9.2 Determinanti e volumi . . . . .
9.3 Operatore di Hodge star . . . .
9.4 Forme differenziali su variet`a . .
9.5 Derivata esterna . . . . . . . . .
9.6 Prodotto interno . . . . . . . .

.
.
.
.
.
.

45
45
48
51
52
52
55

.
.
.
.
.

59
59
60
62
62
65

11 Gruppi di Lie
11.1 Gruppi e algebre di Lie . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.2 Omomorfismi fra gruppi di Lie . . . . . . . . . . . . . . . . . . . . . . . .
11.3 Forme invarianti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

67
67
69
71

Indice analitico

73

10 Teorema di Stokes
10.1 Orientazione . . . . . .
10.2 Integrazione su variet`a
10.3 Variet`a con bordo . . .
10.4 Teorema di Stokes . .
10.5 Formula di coarea . . .

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

iv

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.

INTRODUZIONE

Appunti del corso Analisi su variet`a interno alla Normale tenuto dal professor Andrea
Malchiodi nellanno 2015/2016. Ringraziamo Claudio Afeltra, Lorenzo Benedini, Alice
Cortinovis, Luca Minutillo Menga e Federico Scavia per il contributo nella stesura.

CAPITOLO 1

` DIFFERENZIABILI
VARIETA

` DIFFERENZIABILI
1.1. DEFINIZIONI ED ESEMPI DI VARIETA
Le variet`a sono spazi localmente simili agli spazi euclidei, ma globalmente diversi.
Per motivi sia teorici che applicativi `e utile sviluppare strumenti su oggetti curvi. Ad
esempio si possono studiare i sistemi dinamici sulle variet`a, oppure ricavare informazioni
topologiche a partire da concetti analitici.
Il modello di riferimento sono le variet`a immerse in Rm , ma si pu`o dare una nozione
intrinseca di variet`a.
Definizione 1.1.1. Una spazio topologico M `e detto localmente euclideo di dimensione
n N se `e di Hausdorff ed `e localmente omeomorfo ad un aperto di Rn .
Definizione 1.1.2. Se U `e un aperto di M e : U (U ) Rn `e un omeomorfismo,
la coppia (U, ) `e detta carta, o sistema di coordinate. Le componenti di si dicono
funzioni coordinate. Una famiglia di carte che ricopre M `e detta atlante.
Se (U1 , 1 ) e (U2 , 2 ) sono carte, 2 1
e un omeo1 : 1 (U1 U2 ) 2 (U1 U2 ) `
n
morfismo tra aperti di R , detto cambio di carta o transizione. Per poter fare uso degli
strumenti del calcolo differenziale, si considera un insieme di carte tale che i cambi di
carta siano differenziabili.
Nota 1.1.3. Data una carta (U, ), quando non specificato, sottintenderemo che abbia
componenti = (x1 , . . . , xn ).
Definizione 1.1.4. Una struttura differenziabile di classe C k su uno spazio localmente
euclideo `e un atlante F massimale rispetto allinclusione e tale che tutti i cambi di carta
siano di classe C k .
Nota 1.1.5. Se F non `e massimale esso `e contenuto in ununica struttura differenziabile
C k , formata da tutte le carte con transizioni di classe C k rispetto ad F.
Definizione 1.1.6. Una variet`a differenziabile n-dimensionale di classe C k `e una coppia
(M, F) tale che M sia uno spazio topologico localmente euclideo a base numerabile ed F
sia una struttura differenziabile su M .
Esempio. Di seguito alcuni esempi di variet`a differenziabili:
1. Rn con latlante formato da una sola carta (lidentit`a), o pi`
u in generale tutti gli
aperti di Rn .
1

Capitolo 1. Variet`a differenziabili


2. S n con un atlante formato da due carte: le proiezioni stereografiche da polo nord
N = (0, . . . , 0, 1) e sud S = (0, . . . , 0, 1), cio`e


xn
x1
,...,
su U1 = S n \ {N } ,
N (x1 , . . . , xn+1 ) =
1 xn+1
1 xn+1


x1
xn
S (x1 , . . . , xn+1 ) =
,...,
su U2 = S n \ {S} .
1 + xn+1
1 + xn+1
1
In particolare S N
: Rn \ {0} Rn `e la mappa z 7
di Kelvin.

z
,
|z|2

chiamata inversione

3. Lo spazio proiettivo RPn con latlante (Ui , i )i=0,...,n tale che Ui = {[x0 , . . . , xn ] :
xi 6= 0} e i ([x0 , . . . , xn ]) = x1i (x0 , . . . , xi , . . . , xn ).
Esempio. Dati k n interi sia Gn (Rk ) la famiglia dei sottospazi n-dimensionali di Rk ,
che si pu`o dotare di una struttura differenziabile naturale con la quale viene detta variet`
a
grassmanniana.
Dato F Rk sottospazio n-dimensionale, sia G uno dei supplementari lineari, cio`e
Rk = F G. Sia ora UG = {H Rk sottospazio n-dimensionale tali che Rk = H G} e
sia F,G : UG L (F, G) tale che F,G (H) = F (H, G) G (H, F )1 ; dove F (G) : Rk
G e G (F ) : Rk F sono le proiezioni sui due sottospazi e F (H, G) `e la restrizione di
F (G) ad H e simmetricamente per laltra.
Per prima cosa dimostriamo che G (H, F ) `e invertibile e quindi che ha senso la scrittura sopra. Sia infatti H UG allora Rk = F G = H G, quindi G (H, F ) e G (F, H)
sono una linversa dellaltra. Infatti, data h H, scrivendo h = f + g con f F e g G
si ha f = h g; quindi
G (F, H) G (H, F )(h) = h e G (H, F ) G (F, H)(f ) = f .
Inoltre vale anche il viceversa, ovvero che se G (H, F ) `e un isomorfismo, allora Rk =
H G. Infatti `e chiaro che H G = {0} e, se c Rk , allora
c = (G (H, F )1 G (F )(c)) + (c G (H, F )1 G (F )(c))
e la prima parentesi `e un elemento di H mentre la seconda un elemento di G.
Usando questi fatti si pu`o dimostrare che F,G `e biettiva e quindi che {(UG , F,G ) :
k
R = F G} `e un atlante sui sottospazi n-dimensionali, con il quale risultano quindi una
variet`a (n(k n))-dimensionale.
Nota 1.1.7. Esistono variet`a omeomorfe ma non diffeomorfe. Ad esempio, come scoperse
Milnor, ci sono ventotto variet`a omeomorfe a S 7 tra di loro non diffeomorfe, dette sfere
esotiche. Su S 1 , S 2 , S 3 , S 5 ed S 6 questo non accade, mentre per S 4 il problema `e tuttora
aperto.
Nota 1.1.8. La richiesta che le variet`a siano a base numerabile ha alcune importanti
conseguenze:
1. le variet`a sono metrizzabili;
2. le variet`a sono spazi topologici normali;
2

1.2. Prodotti e mappe di variet`a


3. le variet`a sono paracompatte1 , dunque in particolare esistono partizioni dellunit`a;
4. le variet`a sono -compatte, ossia sono ununione numerabile di compatti.
Esercizio 1.1.9. Se g : Rn R `e di classe C k , M = g 1 ({0}) e g 6= 0 su M , allora
M `e una variet`a C k di dimensione n 1.
Esercizio 1.1.10. Lo spazio SLn (R) delle matrici n n a determinante 1 `e una variet`
a
2
di dimensione n 1.
Esercizio 1.1.11. La funzione t 7 t3 induce su R una struttura differenziabile diversa
da quella ordinaria, ma le variet`a ottenute sono diffeomorfe.
`
1.2. PRODOTTI E MAPPE DI VARIETA
Definizione 1.2.1. Date (M1 , F1 ) e (M2 , F2 ) variet`a C k , si pu`o definire la variet`a prodotto (M1 M2 , F1 F2 ), che `e lo spazio topologico prodotto con la struttura differenziale
generata dallatlante {(U1 U2 , 1 2 ) : (Ui , i ) sono carte di Fi }.
Nota 1.2.2. Ovviamente si ha che dim(M1 M2 ) = dim(M1 ) + dim(M2 ).
In modo analogo si pu`o definire il prodotto di pi`
u fattori.
Definizione 1.2.3. Se M ed N sono variet`a C k e r k, una funzione f : M N si
dice di classe C r se per ogni x M ci sono una carta (U, ) di M con x U ed una carta
(V, ) di N con f (U ) V tali che f 1 sia di classe C r .
Lipotesi che r k serve affinche la definizione non dipenda dalle carte scelte, come
mostra la seguente proposizione.
Proposizione 1.2.4. Una funzione continua f : M N `e di classe C r se e solo se tutti
i suoi rappresentanti locali sono di classe C r .
Proposizione 1.2.5. La composizione di due funzioni C r `e C r .
Definizione 1.2.6. Un diffeomorfismo C r `e una funzione C r invertibile e con inversa C r .
1.3. SPAZIO TANGENTE
Data una variet`a n-dimensionale immersa in Rm , per ogni suo punto esiste un sottospazio
affine di dimensione n detto spazio tangente. Vogliamo mostrare come estendere questa
costruzione alle variet`a astratte. Vi sono diversi approcci per fare ci`o; noi vedremo lo
spazio tangente ad un punto come insieme delle velocit`a delle curve passanti per quel
punto.
Definizione 1.3.1. Siano M una variet`a, x M , c, c : (1, 1) M curve di classe C 1
tali che c(0) = c(0) = x e (U, ) una carta con x U . Allora diciamo che c e c sono
tangenti in x rispetto a se ( c)0 (0) = ( c)0 (0).
Proposizione 1.3.2. La definizione precedente non dipende dalla carta.
1

Uno spazio topologico X si dice paracompatto se ogni suo ricoprimento aperto ammette un
raffinamento aperto localmente finito.

Capitolo 1. Variet`a differenziabili


Si pu`o dunque dare la seguente definizione.
Definizione 1.3.3. Due curve c, c : (1, 1) M di classe C 1 tali che c(0) = c(0) = x si
dicono tangenti se le loro espressioni locali in carta sono tangenti.
Tutto ci`o ci permette di definire lo spazio tangente.
Definizione 1.3.4. Lo spazio tangente ad un punto x M , indicato con Tx M , `e linsieme
delle classi di equivalenza delle curve c : (1, 1) M di classe C 1 con c(0) = x con la
relazione essere tangenti in x. Lunione degli spazi tangenti ad M `e detta spazio
tangente, o fibrato tangente, ed `e indicata con T M .
Nota 1.3.5. Su Tx M c`e unevidente struttura lineare che lo rende uno spazio vettoriale
con la stessa dimensione di M .
Ora vediamo due definizioni alternative.

Controvarianza
Per definire il tangente si possono usare le propriet`a di trasformazione dei vettori.
Infatti, se (U, ) e (U , )
sono due carte e chiamiamo (y 1 , . . . , y n ) = ( c)(t)
e (
y 1 , . . . , yn ) = ( c)(t), allora il vettore tangente associato a c0 (0) si scrive nei
n
1
(0), . . . , dydt (0)) e (V 1 , . . . , V n ) =
due sistemi di coordinate come (V 1 , . . . , V n ) = ( dy
dt
y1
yn
( d
(0), . . . , d
(0)). Usando il cambio di carta si trova che la funzione y 7 y `e un
dt
dt
diffeomorfismo locale e la relazione tra le due coordinate `e
n

X yi
X yi
dy j
d
yi
(0) =
((x))
(0)
=
((x))V j .
V i =
j
j
dt
y
dt
y
j=1
j=1
Questo tipo di trasformazione `e detto controvarianza e pu`o essere usato per definire lo
spazio tangente.
Con questa notazione, dato un sistema di coordinate (U, ), un vettore v Tx M (con
x U ) si scrive cos`:
n
X

v=
v i i ((x)) ,
y
i=1
dove

((x))
y i

= [(x) + tei ](x) , essendo ei li-esimo vettore della base canonica.

Derivazioni
Data f : Rn R e v Rn sia Dv f la derivata direzionale lungo v di f . Allora Dv `e
lineare in f ed vale la regola di Leibniz Dv (f g) = f Dv g + gDv f . Si definiscono derivazioni
gli operatori lineari A : C r (U ) R che godono della regola di Leibniz. Si pu`o dimostrare
che in questo modo si ottiene una definizione equivalente di spazio tangente.
1.4. MAPPE TANGENTI
Una funzione regolare agisce sui vettori tangenti alla variet`a, permettendo di estendere il
concetto di differenziale alle variet`a.
4

1.5. Struttura differenziabile sul tangente


Lemma 1.4.1. Se c e c sono curve tangenti in x M e f : M N `e di classe C 1
allora f c e f c sono curve tangenti in f (x).
Dimostrazione. Basta passare in carta.
Definizione 1.4.2. Data f : M N di classe C 1 si definisce mappa tangente (o differenziale) di f la mappa T f : T M T N (indicata anche con df ) tale che T f ([c]x ) = [f c]f (x)
(la definizione `e ben posta per il lemma precedente). La restrizione di T f allo spazio
tangente ad un punto x `e indicata con Tx f .
Nota 1.4.3. Dato v Tx M , chiamiamo T f (v) il push-forward di v tramite f , che si indica
anche come f v.
Nota 1.4.4. Lapplicazione Tx f : Tx M Tx N `e lineare.
Teorema 1.4.5 (Mappe composte). Valgono le seguenti propriet`a:
1. se f : M N e g : N P sono C r , allora g f `e C r e T (g f ) = T g T f ;
2. T (idM ) = idT M ;
3. se f : M N `e un diffeomorfismo allora T f `e invertibile e (T f )1 = T (f 1 ).
Dimostrazione. Il punto 1 si dimostra passando in carta, il 2 `e banale, il 3 `e conseguenza
immediata dei due precedenti.
1.5. STRUTTURA DIFFERENZIABILE SUL TANGENTE
Ora vogliamo dotare il fibrato tangente di una struttura differenziabile.
Data una carta (U, ) abbiamo le carte T : T U T ((U )) tale che T ([c]x ) =
[ c](x) . Si verifica facilmente che T `e biunivoca.
Proposizione 1.5.1. Se k 1 e (M, F) `e una variet`a C k+1 allora T F = {(T u, T ) :
(U, ) F} `e un atlante C k su T M , detto atlante naturale.
Dimostrazione. Dato che F ricopre M , T F ricopre T M . Inoltre per il Teorema 1.4.5
(Mappe composte) abbiamo che T i (T j )1 = T (i 1
e un diffeomorfismo
j ), che `
C k . Inoltre T M `e di Hausdorff e a base numerabile con la topologia indotta da T F.
Similmente si dimostra il seguente risultato.
Proposizione 1.5.2. Se f : M N `e un diffeomorfismo C r+1 , T f : T M T N `e un
diffeomorfismo C r .
`
1.6. FUNZIONI TRA VARIETA
Ora definiamo alcuni tipi particolari di funzioni tra variet`a.
Definizione 1.6.1. Sia f : M N di classe C 1 .
1. Se il differenziale di f `e iniettivo in ogni punto, f `e detta immersione.
2. Se f `e unimmersione iniettiva, (M, f ) `e detta sottovariet`a.
5

Capitolo 1. Variet`a differenziabili


3. Se f `e unimmersione ed un omeomorfismo con limmagine, f `e detta embedding.
Proposizione 1.6.2. Se f : M N `e di classe C 1 e Tx f `e invertibile allora f `e un
diffeomorfismo in x.
Dimostrazione. Basta passare in carta ed applicare il teorema della funzione implicita.
Proposizione 1.6.3. Se f : M N `e di classe C 1 e Tx f `e iniettivo allora f `e localmente
iniettiva.
Dimostrazione. Passando in carta si pu`o supporre M = Rm , N = Rn e x = 0. Allora,
dato che T f = Df , si ha che
1
f (p) f (q) =
Df (q + s(p q))[p q] ds = (Df (0) + o(1))[p q] ,
0

per p, q 0. Quindi f (p) 6= f (q) per p, q piccoli.


Esercizio 1.6.4. Si dimostri che U (n) (il gruppo delle trasformazioni unitarie di Cn ) `e
una sottovariet`a non compatta di L (Cn , Cn ).
Esercizio 1.6.5. Si dimostri che RP1 `e una sottovariet`a di RP2 .
Esercizio 1.6.6. Si dimostri che P = {Q O(3) : det Q = 1, Q = QT } \ {id} `e
una sottovariet`a compatta di O(3). Si descrivano inoltre gli elementi di P in termini
geometrici.

CAPITOLO 2

CAMPI VETTORIALI E DERIVAZIONI

2.1. DEFINIZIONI E RICHIAMI


Definizione 2.1.1. Sia M una variet`a C k . Un campo vettoriale su M `e una funzione
X : M T M tale che X(p) Tp M per ogni p M . Un campo vettoriale `e detto di
classe C r (con r < k) se le sue componenti sono di classe C r .
Se (U, ) `e una carta con (x1 , . . . , xn ) coordinate locali, allora possiamo scrivere
X(x) =

n
X

X i (x)

i=1

,
xi

dove (X 1 , . . . , X n )(x) = T (X(1 (x))).


Chiamiamo r (M ) linsieme dei campi vettoriali C r su M , mentre indichiamo con
(M ) linsieme dei campi C su M .
Nota 2.1.2. Osserviamo che un campo vettoriale X agisce linearmente sugli endomorfismi
di C (M ). Infatti, data f C (M ), possiamo definire lapplicazione X(f ) C (M )
tale che X(f )(p) := df (X(p)).
Tale applicazione dai campi vettoriali agli endomorfismi di C (M ) `e facilmente iniettiva, ma non `e surgettiva, poiche un endomorfismo indotto da un campo vettoriale deve
rispettare la regola di Leibniz; infatti date f, g C (M ) vale
X(f g)(p) = d(f g)(X(p)) = g df (X(p)) + f dg(X(p)) = g X(f ) + f X(g) .
Definizione 2.1.3. Una curva integrale di un campo vettoriale X `e una curva differenziabile c tale che c0 (t) = X(c(t)) per ogni t.
Se (U, ) `e una carta allora le coordinate ci (t) di c soddisfano le equazioni differenziali
= X i (c1 (t), . . . , cn (t)) per i = 1, . . . , n. Questo `e un sistema autonomo, anche se in
dt
generale si possono considerare anche campi vettoriali dipendenti dal tempo.
Ora richiamiamo dei risultati sulle equazioni differenziali ordinarie che daremo per
noti.
dci

Teorema 2.1.4 (Cauchy-Lipschitz). Siano U Rn aperto e X : U Rn di classe C 1 .


Allora per ogni x0 U esiste I R aperto con 0 I e c : I Rn tali che c(0) = x0 e
c0 (t) = X(c(t)). Inoltre se esistono c1 , c2 : I1 , I2 Rn come sopra, allora esse coincidono
su I1 I2 .
Teorema 2.1.5 (Differenziabilit`a del flusso). Se, nelle stesse ipotesi del teorema precedente, X `e di classe C k , allora esistono un intorno aperto U0 U , un numero a > 0
ed una funzione F : U0 (a, a) Rn di classe C k tali che per ogni u U0 la curva
cu (t) = F (u, t) sia una curva integrale di X tale che cu (0) = u.
7

Capitolo 2. Campi vettoriali e derivazioni


2.2. FLUSSO LOCALE DI UN CAMPO VETTORIALE
Definizione 2.2.1. Sia M una variet`a e X r (M ). Allora un flusso locale di X in
p M `e una tripla (U0 , a, F ) tale che:
1. p U0 M , U0 `e aperto e a > 0;
2. F : U0 Ia M `e di classe C r , dove Ia = (a, a);
3. per ogni u U0 si ha che cu = F (u, ) : Ia M `e una curva integrale di X con
dato iniziale u;
4. se per t Ia chiamiamo Ft (u) = F (u, t), allora Ft (U0 ) `e aperto ed Ft `e un
diffeomorfismo C r con limmagine.
Prima di dimostrare lesistenza di un flusso locale, mostriamone le propriet`a di unicit`a
e di semigruppo.
Proposizione 2.2.2. Due curve integrali di un campo vettoriale con la stessa condizione
iniziale coincidono sullintersezione dei loro domini.
Dimostrazione. Osserviamo che non si pu`o applicare direttamente il teorema di CauchyLipschitz perche la curva potrebbe non appartenere ad una sola carta.
Siano c1 , c2 le due curve considerate e sia K = {t I : c1 (t) = c2 (t)} I, dove I `e
lintersezione dei domini delle due curve (ed `e dunque un intervallo di R). Linsieme K
`e chiuso perche M `e di Hausdorff, `e aperto perche per ogni t K si pu`o prendere una
carta che lo contiene ed applicare in carta il Teorema 2.1.4 (Cauchy-Lipschitz), ed `e non
vuoto perche per ipotesi 0 K. Dunque, dato che I `e connesso, K = I.
Proposizione 2.2.3. Se la tripla (U0 , a, F ) soddisfa le ipotesi 1, 2 e 3 nella Definizione 2.2.1, allora Fs+t = Fs Ft = Ft Fs per ogni t, s, t + s Ia .
Inoltre F0 `e lidentit`a e, se Ut = Ft (U0 ) e Ut U0 6= , si ha che Ft |Ut U0 : Ut U0
U0 Ut `e un diffeomorfismo con inverso Ft |U0 Ut .
Dimostrazione. Abbiamo che Fs+t (u) = cu (s + t) e Ft (Fs (u)) = Ft (cu (s)) sono entrambe curve integrali che passano per cu (s) per t = 0, dunque coincidono per la
Proposizione 2.2.2, perci`o Fs+t = Ft Fs . Da ci`o si deduce facilmente il resto.
Proposizione 2.2.4 (Esistenza e unicit`a di flussi locali). Sia X campo vettoriale di
classe C r , allora per ogni p M esiste un flusso locale di X in p. Inoltre se (U0 , a, F ),
(U00 , a0 , F 0 ) sono flussi locali devono coincidere su (U0 U00 ) (Ia Ia0 ).
Dimostrazione. unicit`
a: Per ogni u U0 U00 , se I = Ia Ia0 , allora F |{u}I = F 0 |{u}I
per la Proposizione 2.2.2, da cui lunicit`a.
esistenza: Sia (U, ) carta di M ; consideriamo il rappresentate locale X di X (cio`e
X ((q)) = T (X(q))), che genera un flusso locale (U , a , F ). Supponiamo U
(U ) e F (U Ia ) (U ) e chiamiamo U = 1 (U ).
Poniamo F : U Ia M tale che F (u, t) = 1 (F ((u), t)). Per continuit`a
esistono b (0, a ) e V U tali che F (V Ib ) U . Allora (V, b, F ) verifica 1, 2,
3 della Definizione 2.2.1. Per avere 4 notiamo che Ft ha inversa Ft di classe C r .

2.3. Flusso di un campo vettoriale


Esercizio 2.2.5. Sia M variet`a C k , X k (M ). Sia p M tale che X(p) 6= 0.
Dimostrare che esiste (U, ) carta tale che X|U = x 1 |U , dove = (x1 , . . . , xn ).
Esercizio 2.2.6. Sia F : M R M regolare tale che Ft+s = Ft Fs e F0 = F (, 0) =
idM . Mostrare che esiste un unico campo vettoriale X tale che Ft coincide con il flusso
indotto da X.
2.3. FLUSSO DI UN CAMPO VETTORIALE
Definizione 2.3.1. 6 Siano M una variet`a e X un campo vettoriale. Sia DX M R
linsieme degli (x, t) tali che esiste c : I M curva integrale, con c(0) = x e t I.
Il campo X `e detto completo se DX = M R e completo per tempi positivi (rispettivamente negativi) se DX M R+ (rispettivamente R ).
Chiamiamo (T (x) , T (x)+ ) lintervallo massimale di una curva che passa per x al
tempo 0.
Esempio.
1. Se M = R2 , allora X = (1, 0) `e completo, poiche c(x,y) (t) = (x + t, y) `e
una curva integrale definita su tutto R e passante per (x, y) al tempo 0.
2. Se M = {(x, y) R2 : x > 0}, allora X = (1, 0) `e completo per tempi positivi.
3. Se M = R e X(x) = 1 + x2 , allora c(t) = tan t `e una curva integrale con c(0) = 0,
da cui T (0) = 2 .
Proposizione 2.3.2. Siano M una variet`a e X r (M ), con r 1. Allora:
1. M {0} DX ;
2. DX aperto;
3. esiste ununica FX : DX M di classe C r tale che t 7 FX (p, t) `e una curva
integrale che passa per p a tempo 0;
4. per (p, t), (p, t + s) DX vale che FX (p, t + s) = FX (FX (p, t), s).
Dimostrazione. I punti 1 e 2 seguono dalla Proposizione 2.2.4 (Esistenza e unicit`a di flussi
locali). Lesistenza di FX , cio`e il punto 3, si ottiene incollando curve integrali e il punto
4 segue dallunicit`a globale. Infine la regolarit`a C r globale di FX , segue da quella locale
ricoprendo una data traiettoria con un numero finito di piccoli intorni.
Definizione 2.3.3. Chiamiamo t 7 FX (p, t), con (p, t) DX , la curva integrale massimale passante per p a tempo 0.
Se X `e completo, FX `e detto il flusso generato da X. In questo caso abbiamo una
famiglia ad un parametro di diffeomorfismi.
Proposizione 2.3.4. Supponiamo che X sia a supporto compatto in M . Allora X `e
completo.
Dimostrazione. Se p 6 supp(X), allora T (p) = con FX (p, t) = p.
Se p supp(X), supponiamo per assurdo T + (p) < . Sia tn una successione che
converge crescendo a T + (p), allora per compattezza esiste tnk tale che FX (p, tnk ) converge
a p M . Per`o DX `e aperto, quindi contiene un intorno di (
p, 0). Di conseguenza esiste
> 0 (indipendente da k sufficientemente grande) tale che il flusso che passa per c(tnk ) a
tempo 0 `e definito almeno per un tempo . Allora potevamo estendere c(t) fino a tnk + ,
il che `e assurdo per k abbastanza grande.
9

Capitolo 2. Campi vettoriali e derivazioni


Corollario 2.3.5. Se M `e compatta, allora X `e completo.
Esercizio 2.3.6. Sia X campo vettoriale su Rn di classe C r e sia f : Rn R di classe
C 1 e propria (cio`e controimmagine di compatti `e compatta). Supponiamo che esistano
K, L > 0 tali che |X(f )(p)| K|f (p)| + L per ogni p Rn .. Dimostrare che X `e
completo.

10

CAPITOLO 3

DERIVATE E PRODOTTI DI LIE

3.1. DERIVATA E PARENTESI DI LIE


La derivata di Lie `e uno strumento che ci permette di calcolare variazioni di varie quantit`a
(per esempio funzioni) quando ci muoviamo sulla variet`a.
(p)
Siano f una funzione regolare su Rn e p, v Rn . Allora Dv f (p) = limh0 f (p+hv)f
h
`e la derivata direzionale in p lungo v. Questa si pu`o ritrovare considerando (t) = p + tv
d
e calcolando dt
f ((t))|t=0 .
Ora vogliamo studiare il caso generale su variet`a. Siano p M ed f una funzione
regolare definita in un intorno di p e sia v Tp M . Osserviamo innanzitutto che per
definizione esiste c curva C 1 tale che [c]p = v.
Definizione 3.1.1. Definiamo la derivata direzionale di f in p lungo v come v(f )(p) :=
d
f (c(t))|t=0 .
dt
Se (U, ) `e una carta e ( c)(t) = (c1 (t), . . . , cn (t)), allora:
d
(f c)(t)|t=0 = D[(c1 )0 (0),...,(cn )0 (0)] (f 1 )((p)) ,
dt
quindi la derivata direzionale non dipende dalla scelta di c [c]p .
Una curva integrale di un campo vettoriale X ha velocit`a X(p) in p. Scegliamo allora
come c(t) una curva integrale di X, cos` la formula precedente diventa:
X(f )(p) = lim

h0

1
[f (FX (p, h)) f (p)]
h

e questa si chiama derivata di Lie di f rispetto ad X.


Questo approccio consente di estendere la definizione ai campi vettoriali, e non solo...
Sia FXh (p) = FX (p, h) la sezione del flusso locale in p generato da X. Allora F = FXh `e
di classe C r ed esiste la mappa tangente F (v) = T F (v) TF (q) M , per q M , v Tq M .
Sia p M e Y campo vettoriale definito in un intorno di p. Per h R+ abbastanza
piccolo, abbiamo due vettori tangenti in p: Y (p) e (T FXh )(Y (FXh (p))).
Definizione 3.1.2. Definiamo la derivata di Lie in p di Y rispetto a X come
Y (p) (FXh ) Y (p)
.
h0
h

LX Y (p) = lim

Proposizione 3.1.3.
1. La derivata di Lie `e lineare, cio`e LX Y `e lineare in Y per
ogni X, Y (M ).
11

Capitolo 3. Derivate e prodotti di Lie


2. Vale la seguente regola per la derivata di Lie di un prodotto: LX (f Y ) = (Xf )Y +
f LX Y per ogni X, Y (M ), f C (M ).
Dimostrazione. 1 Ovvia.
2 Vale la seguente catena di uguaglianze

1
f (p)Y (p) (FXh ) (f Y )(FXh (p)) =
h0 h

1
= lim
f (p)Y (p) f (FXh (p))((FXh ) Y )(FXh (p)) =
h0 h
1
= lim {f (p)[Y (p) ((FXh ) Y )(FXh (p))]+
h0 h
+ [f (p) f (FXh (p))]((FXh ) Y )(FXh (p))} =
=f (p) LX Y (p) + X(f )(p) Y (p) .

LX (f Y )(p) = lim

Vediamo ora la scrittura della derivata di Lie in coordinate. Siano p M e (U, )


una carta con p U e sia (x1 , . . . , xn ) il sistema di coordinate corrispondente. Data
F = (F 1 , . . . , F n ) : U b U U 1 , abbiamo che
n

X F l

(F (x)) .
F j (x) =
x
xj xl
l=1
o(h)
h

Ci interessa F = FXh con h piccolo. Abbiamo che F (x) = x + hX(x) + o(h), dove
1
0 in Cloc
. Allora
n

X X l

(x
+
hX(h)
+
o(h))
+
h
(x + hX(x) + o(h)) + o(h) ,
F j (x) =
x
xj
xj xl
l=1
da cui

LX

X X l

.
j xl
xj
x
l=1

P
P
Se nelle coordinate (xi ) indotte da abbiamo X = ni=1 X i x i e Y = nj=1 Y j x j ,
allora

n X
n 
j
j
X

i Y
i X
Y
.
LX Y =
X
i
i
x
x
xj
j=1 i=1
Questo campo vettoriale risulta essere il commutatore di X, Y .
Definizione 3.1.4. Dati X, Y r (M ), definiamo [ X, Y ] r1 (M ) il campo vettoriale tale che [ X, Y ] = XY Y X, che si chiama commutatore o parentesi di Lie.
Intendiamo che, per ogni f : M R regolare, vale [ X, Y ] (f ) = X(Y (f )) Y (X(f )).
Dobbiamo per`o verificare che [ X, Y ], appena definito come un endomorfismo di
C (M ) (vedi la Nota 2.1.2), sia effettivamente un campo vettoriale su M . Per farlo
1

Indichiamo A b B, se A K B con K compatto.

12

3.2. Propriet`a delle parentesi di Lie


mostriamo che LX Y agisce esattamente come [ X, Y ] su C (M ), da cui otterremo che
[ X, Y ] `e effettivamente un campo P
vettoriale che coincide con LX Y .
f
In una carta (U, ), se X(f ) = ni=1 X i (x) x
i , allora
n
X

Y (X(f )) =
Y j (x) j
x
j=1

!
f
X i (x) i =
x
i=1



n X
n 
X

f
2f
j
i
j
i
=
Y (x)
X
+ Y (x)X (x) i j
xj
xi
x x
j=1 i=1

n
X

= [ X, Y ] (f ) = (XY Y X)(f ) =


n 
j
j
X
f
2f
i Y
i X
i j
j i
X
Y
+ (X Y X Y ) i j = LX Y (f ) .
xi
xi xj
x x
i,j=1
Nota 3.1.5. C`e un modo intrinseco per vedere che LX Y = [ X, Y ]:
1. f C e X (M ), allora
2.

d
(FXt ) Y
dt

d
((FXt ) f )
dt

= (FXt ) LX f ;

= (FXt ) (LX Y ).

` DELLE PARENTESI DI LIE


3.2. PROPRIETA
Proposizione 3.2.1. La parentesi di Lie soddisfa le seguenti propriet`a:
1. `e bilineare;
2. `e antisimmetrica, cio`e [ X, Y ] = [ Y, X ] per ogni X, Y (M );
3. (identit`a di Jacobi) per ogni X, Y, Z vale:
[ X, [ Y, Z ] ] + [ Y, [ Z, X ] ] + [ Z, [ X, Y ] ] = 0 .

Dimostrazione. Le propriet`a 1 e 2 sono ovvie; vediamo allora la 3. Data f C (M ),


abbiamo che
[ X, [ Y, Z ] ] f = X [ Y, Z ] f [ Y, Z ] Xf = X(Y Z ZY )f (Y Z ZY )Xf =
= XY Zf XZY f Y ZXf + ZY Xf .
Risulta ora ovvio che sommando gli altri due termini si ha completa cancellazione.
Nota 3.2.2. Lidentit`a di Jacobi si interpreta anche nel modo seguente
LX [ Y, Z ] = [ LX Y, Z ] + [ Y, LX Z ] .
Lemma 3.2.3. Sia : M N un diffeomorfismo e sia X (M ), allora per f
C (M ) vale che
L X (f 1 ) = (LX f ) .
13

Capitolo 3. Derivate e prodotti di Lie


Dimostrazione. Dato n N , vale
L X (f 1 )(n) = D( X)(n) (f 1 ) = D(T X1 )(n) (f 1 ) =
= D(X1 )(n) f (1 (n)) = (LX f )(n) .

Proposizione 3.2.4. Sia : M N un diffeomorfismo e siano X, Y (M ), allora


LX `e naturale rispetto al push-forward, cio`e
L X ( Y ) = (LX Y ) ,
equivalentemente
[ X, Y ] = [ X, Y ] .
Dimostrazione. Sia n N e sia g C (V ) con V aperto di N tale che n V . Sia
inoltre Z (M ), allora per il Lemma 3.2.3, posto m = 1 (n), vale che
( Z)(g)(n) = Z(g )(m) ,
dove con la notazione del lemma abbiamo utilizzato Z = X e g = f 1 .
Quindi, ponendo Z = [ X, Y ], abbiamo
( [ X, Y ])(g)(n) = [ X, Y ] (g )(m) = X(Y (g ))(m) Y (X(g ))(m) =
= X(( Y )(g) )(m) Y (( X)(g) )(m) =
= ( X)(( Y )(g))(n) ( Y )(( X)(g))(n) = [ X, Y ] [g](n) ,
da cui abbiamo concluso perche se due campi coincidono applicati a tutte le funzioni C ,
allora coincidono come campi vettoriali.
3.3. COMMUTAZIONE DI CAMPI VETTORIALI
Lemma 3.3.1. Sia : M N una mappa di classe C r fra variet`a e siano X r (M ),
Y r (N ). Allora (T )X = Y se e solo se FXt = FY t .
In particolare, se `e un diffeomorfismo (e se (T )X = Y ), abbiamo che
t
FY = FXt 1 . Inoltre (FXt ) X = X (dove i flussi sono definiti).
Dimostrazione. Supponiamo che FXt = FY t . Sia p M , allora
FXt (p) = FY t ((p)) .
Derivando in t otteniamo perci`o

 

d t
d t
T
F (p) =
F
((p))
dt X
dt Y
= (T X FXt )(p) = Y FY t (p) = Y FXt (p)
= (T )X = Y .
Ora viceversa supponiamo che (T )X = Y . Sia c(t) = FX (p, t) (curva integrale
di X che passa per p al tempo 0), allora
 
d
dc
( c)(t) = T
= T (X(c(t))) = Y (( c)(t)) .
dt
dt
14

3.3. Commutazione di campi vettoriali


Perci`o c `e una curva integrale per Y che passa per (p) al tempo 0. Di conseguenza,
per unicit`a, abbiamo
FXt (p) = ( c)(t) = FY ((p), t) = FY t (p) .
Per dimostrare che (FXt ) X = X, scegliamo come il diffeomorfismo dato da FXs con s
fissato. Per la prima parta della proposizione (FXt ) X = X se e solo se FXs FXt = FXt FXs ,
ma questo `e vero per la commutativit`a.
Proposizione 3.3.2. Siano X, Y r (M ) e siano FXt , FY t flussi (definiti localmente o
globalmente) indotti da X e Y . Allora sono equivalenti:
1. [ X, Y ] = 0;
2. (FXt ) Y = Y ;
3. (FY t ) X = X;
4. FXt FY s = FY s FXt .
Dimostrazione. Per il Lemma 3.3.1 la commutazione FXt FY s = FY s FXt equivale a
Y = (FXt ) Y . Quindi abbiamo mostrato che 4 `e equivalente a 2 e allo stesso modo che `e
equivalente anche a 3.
d
(FXt ) Y |t=0 = 0. Viceversa, se
Se ora supponiamo (FXt ) Y = Y , allora [ X, Y ] = dt
[ X, Y ] = 0 allora LX Y = 0, da cui
d
d
(FXt ) Y =
(FXt+s ) Y |s=0 = (FXt ) [ X, Y ] = 0 .
dt
ds
Perci`o (FXt ) Y `e costante in t ed `e uguale a Y, perche (FX0 ) Y = Y .
Abbiamo visto che se X(p) 6= 0, allora esiste (U, ) carta locale tale che X = x 1 in
un intorno di p. Consideriamo Y tale che Y (p) 6= 0 e Y (p) `e linearmente indipendente da
X(p). Ci chiediamo
esiste
(U, ) tale che X = x 1 e Y = x 2 in U . Se consideriamo il
 se

commutatore x1 , x 2 , questo `e identicamente nullo per il teorema di Schwarz, infatti
data f C (U ), abbiamo che


2f

2f
,

= 0.
f=
x1 x2
x1 x2 x2 x1
Proposizione 3.3.3. Siano X1 , . . . , Xk (M ) linearmente indipendenti in un intorno
U di p M . Se [ X , X ] = 0 per ogni , = 1, . . . , k, allora in U b U , con p U ,
esistono coordinate (U , x) tali che X = x .
Dimostrazione. Possiamo supporre M = Rn con coordinate (y 1 , . . . , y n ), p = 0 e X (0) =

(0) per = 1, . . . , k. Sia FXt il flusso generato da X e sia


y
(a1 , . . . , an ) := FXa11 (FXa22 (. . . (FXakk (0, . . . , 0, ak+1 , . . . , an )))) .
Vale allora che

 (

|0 ,

|0 = y

a
FXt (0) |t=0 = X (0) =
dt
15

(0),
y

per = k + 1, . . . , n
per = 1, . . . , k

Capitolo 3. Derivate e prodotti di Lie


Poiche [ Xi , Xj ] = 0 per ogni i, j = 1, . . . , k, per = 1, . . . , k possiamo scrivere
(a1 , . . . , an ) = FXa (FXa11 (. . . (0 . . . 0, ak+1 , . . . an ))) ,
da cui X =

in un intorno dellorigine.

Il commutatore d`a una misura della non commutazione di due campi vettoriali. In
particolare seguiamo in ordine X, Y , X e Y ciascuno per tempo h, allora il commutatore ci dar`a una stima di quanto il punto in cui arriviamo `e lontano dal punto di
partenza.
Proposizione 3.3.4. Dato p M , sia c(h) = FY h FXh FY h FXh (p). Allora c0 (0) = 0.
Dimostrazione. Definiamo 1 (t, h) = FY t FXh (p), 2 (t, h) = FXt FY h FXh (p) e 3 (t, h) =
FY t FXh FY h FXh (p). Notiamo innanzitutto che c(t) = 3 (t, t), 3 (0, t) = 2 (t, t) e
2 (0, t) = 1 (t, t). Inoltre data f : M R regolare, vale che
f 1
= (Y f ) 1 ,
t
f 3
= (Y f ) 3 ,
t

f 2
= (Xf ) 2 ,
t
f 1
(0, h) = (Xf )(1 (0, h)) .
h

Utilizzando quanto detto abbiamo


d
[f 3 (t, t)]|t=0 = D1 (f 3 )(0, 0) + D2 (f 3 )(0, 0) =
dt
= D1 (f 3 )(0, 0) + [D1 (f 2 )(0, 0) + D2 (f 2 )(0, 0)] =
= D1 (f 3 )(0, 0) + D1 (f 2 )(0, 0) + D1 (f 1 )(0, 0) + D2 (f 1 )(0, 0) =
= (Y f ) 3 (0, 0) (Xf ) 2 (0, 0) + (Y f ) 1 (0, 0) + (Xf ) 1 (0, 0) =
= 0,

(f c)0 (0) =

che per larbitrariet`a di f ci d`a la tesi c0 (0) = 0.


Proposizione 3.3.5. Data c : ( , ) M tale che c(0) = p e c0 (0) = 0, possiamo
definire un vettore c00 (0) Tp M come (c00 (0))(f ) := (f c)00 (0).
Esercizio 3.3.6. Usando la condizione c0 (0) = 0, verificare che c00 (0) cos` definito `e una
derivazione.
Teorema 3.3.7. Se c(t) `e come nella Proposizione 3.3.4, allora c00 (0) = 2 [ X, Y ] (p).
Dimostrazione. Ricordiamo che, data f : M R regolare, vale (f c)(t) = (f 3 )(t, t).
Dunque
(f c)00 (0) = D1,1 (f 3 )(0, 0) + 2D2,1 (f 3 )(0, 0) + D2,2 (f 3 )(0, 0) .
Daltra parte, abbiamo che
il primo termine equivale a
D1,1 (f 3 )(0, 0) = D1 (Y f 3 )(0, 0) = Y Y f (p) ;
16

3.3. Commutazione di campi vettoriali


il secondo termine invece
D2,1 (f 3 )(0, 0) = D2 (Y f 3 )(0, 0) = [D1 (Y f 2 ) + D2 (Y f 2 )] (0, 0) =
= XY f (p) D2 (Y f 2 )(0, 0) =
= XY f (p) [D1 (Y f 1 )(0, 0) + D2 (Y f 1 )(0, 0)] =
= XY f (p) Y Y f (p) XY f (p) ;
analogamente si dimostra che per il terzo termine vale
D2,2 (f 3 )(0, 0) = Y Y f (p) + 2XY f (p) 2Y Xf (p) .
E sommando i tre contributi otteniamo proprio quanto voluto.
Esercizio 3.3.8. Sia M compatta e X, Y r (M ), con r 2. Siano FXt , FY t i flussi
t
generati da X e Y (definiti globalmente). Dimostrare che se [ X, Y ] = 0 allora FX+Y
=
t
t
FX FY .
Esercizio 3.3.9. Sia f : M R regolare e sia p M tale che LX f (p) = 0 per ogni
Y (M ) tali
X (M ) (cio`e p `e un punto critico di f ). Dati Xp , Yp Tp M , siano X,

Y (f ))(p).
che X(p) = Xp e Y (p) = Yp (`e facile costruirne). Definiamo Hf (Xp , Yp ) := X(
Y )
Mostrare che Hf `e ben definita (ovvero non dipende dalla scelta delle estensioni X,
ed `e simmetrica, cio`e Hf (Xp , Yp ) = Hf (Yp , Xp ).

17

CAPITOLO 4

` INTEGRALI
DISTRIBUZIONI E VARIETA

4.1. DEFINIZIONI
Dato X (M ) e p M , abbiamo chiamato FXt (p) la curva integrale di X passante per
p al tempo 0. In particolare, se X(p) 6= 0, si ottiene una distribuzione.
Definizione 4.1.1. Una distribuzione unidimensionale in un aperto U di M `e una
scelta regolare di un sottospazio unidimensionale p di Tp M per ogni p U .
Pi`
u in generale possiamo definire distribuzioni k-dimensionali come segue.
Definizione 4.1.2. Una distribuzione k-dimensionale in U M n aperto (k, n N,
k n) `e una mappa regolare p 7 p tale che p `e un sottospazio k-dimensionale di
Tp M per ogni p U .
In questo caso, mappa regolare significa che esistono X1 , . . . , Xk (U ) tali che
Xi (q) 6= 0 e q = span{X1 (q), . . . , Xk (q)} per ogni q U .
Definizione 4.1.3. Una variet`a integrale per `e una sottovariet`a N di M tale che, se
i : N M `e linclusione, allora (T i)(Tp N ) = p per ogni p N .
Esempio. Sia X (U ) con X(p) 6= 0 per p U . Allora q = span{X(q)}, q U b U ,
`e una distribuzione 1-dimensionale e curve integrali di X sono variet`a integrali di .
Invece per k > 1 le distribuzioni k-dimensionali non sempre ammettono variet`a
integrali (tranne per k = n).

(p) +
Esempio. Sia M = R3 e k = 2 e consideriamo la distribuzione p = span{ x

y z (p), y (p)}. In particolare, se p0 = (x0 , y0 , z0 ), p0 `e il piano di equazione {z z0 =


y0 (x x0 )}. Vogliamo mostrare che per questa distribuzione non esiste una variet`a
integrale.
Supponiamo per assurdo che esista una variet`a integrale N e supponiamo inoltre
0 N . Consideriamo la curva 1 (s) = (0, s, 0), allora per ogni s abbastanza piccolo
1 (s) appartiene a 1 (s) = T1 (s) N e perci`o 1 `e una curva in N 1 . Consideriamo ora un
punto (0, y0 , 0) con |y0 | abbastanza piccolo e la curva 2 (s) = (0, y0 , 0) + s(1, 0, y0 ). Allora
2 (s) 2 (s) = T2 (s) N .
Di conseguenza N dovrebbe essere localmente unione di rette. Consideriamo allora
p = (1, 0, 0) e sia 3 (s) la curva che descrive N {x = 1}. Si ha che 3 (s) = (1, s, s);
perci`o 3 (0) ha componente z diversa da 0 e di conseguenza 3 (0) 6= 3 (0) .
1

Sottovariet`
a regolari sono gli zeri di funzioni regolari con gradiente non nullo sulla variet`a, perci`
o
N = {g = 0} con g(q) 6= 0 per ogni q N . Se la velocit`a di una curva sta nel tangente, allora
d
e Tp N = {v : hg(p), vi = 0}).
ds g((s)) = 0 (perch

19

Capitolo 4. Distribuzioni e variet`a integrali


` INTE4.2. CONDIZIONI NECESSARIE PER LESISTENZA DI VARIETA
GRALI
Vogliamo ora studiare quando una distribuzione proviene da una variet`a integrale. Sia
una distribuzione k-dimensionale in M .
Definizione 4.2.1. Un campo vettoriale X (M ) `e detto appartenere a se X(p)
p per ogni p M .
Sia N una variet`a integrale per e sia i : N M linclusione. Se X, Y (M )
appartengono a , possiamo definire campi vettoriali corrispondenti su N .
Lemma 4.2.2. Sia i : N M unimmersione e sia X (M ) tale che X(i(p))
(N ) tale che (T i)X(p)

(T i)(Tp N ). Allora esiste X


= X(i(p)).
Dimostrazione. Ricordiamo che (T i)(p) `e iniettivo per ogni p N e perci`o (T i)(p) `e un

isomorfismo tra Tp N e (T i)(Tp N ). Quindi per ogni p N esiste un unico X(p)


tale che

= X(i(p)). Basta perci`o verificare che X(p)


`e regolare in p N .
(T i)(X(p))
` facile vedere che esistono carte (V, ) e (U, ) in N ed M rispettivamente tali che
E
i 1 (a1 , . . . , ak ) = (a1 , . . . , ak , 0, . . . , 0) .
Questo mostra che (T i)( x j |p ) = y j |i(p) per j = 1, . . . , k, dove = (x1 , . . . , xk ) e =
Pk

= Pk j j , allora per
(y 1 , . . . , y n ). Allora, se X =
e X
j=1 j y j con j C
j=1
x

linearit`a di T i abbiamo j = j per j = 1, . . . , k. Quindi j `e regolare in x e X
(N ).
Y
Siano X, Y (M ) che appartengono a , allora per il Lemma 4.2.2 esistono X,
= X e (T i)Y = Y . Notiamo che T i[X,
Y ](p) = [T iX,
T iY ](i(p)) =
(N ) tale che (T i)X
[X, Y ](i(p)) per ogni p N . Per ipotesi, dato v Tp N , allora (T i)v i(p) ; di
conseguenza [X, Y ](i(p)) deve appartenere a i(p) per ogni p N .
Definizione 4.2.3. Una distribuzione k-dimensionale `e detta integrabile se per ogni
X, Y vale che [X, Y ] .
Proposizione 4.2.4. Se X1 , . . . , Xk (M ) generano , distribuzione k-dimensionale
in un intorno di un certo punto p M , allora `e integrabile se e solo se [Xi , Xj ] `e una
P
combinazione lineare del tipo k=1 cij X , per ogni i, j = 1, . . . , k.
Dimostrazione. Lintegrabilit`a implica lesistenza dei cij facilmente.
Pk

Viceversa, supponiamo che [Xi , Xj ] =


=1 cij X . Siano X, Y , allora X =
Pk i
Pk j
i j

a basta verificare che


i=1 a Xi e Y =
j=1 b Yj con a , b C (M ). Per linearit`
i
j
[a Xi , b Yj ] . Ma per Leibniz e poiche [X, Y ] = LX Y , vale che
[ai Xi , bj Yj ] = ai bj [Xi , Xj ] + ai (Xi bj )Yj bj (Yj ai )Xi ,
dove la parte a destra appartiene a e quindi si conclude.
20

4.3. Teorema di Frobenius


4.3. TEOREMA DI FROBENIUS
Teorema 4.3.1 (Frobenius). Sia una distribuzione (regolare) k-dimensionale in M .
Allora, se `e integrabile, per ogni p M esiste una carta (U, ) tale che (p) = 0 Rn ,
(U ) = ( , )n e tale che per ogni ak+1 , . . . , an con |aj | < linsieme {q U : xj (q) =
aj , j = k + 1, . . . , n} `e una variet`a integrale di .
Inoltre, localmente vicino a p, ogni variet`a integrale di `e di questo tipo.
Dimostrazione. Possiamo supporre M = Rn e 0 = span{ t1 (0), . . . , tk (0)}. Sia :
Rn Rk la proiezione sulle prime k coordinate. Allora T |0 : 0 T0 Rk
= Rk
`e un isomorfismo e per continuit`a T |q : q Rk `e un isomorfismo per q vicino a

0. Quindi possiamo scegliere X1 , . . . , Xk (vicino


 a 0) tali che (T )Xi (q) = ti |(q)
per i = 1, . . . , k. Perci`o (T )([ Xi , Xj ])(q) = ti , tj ((q)) = 0 e, poiche T `e un
isomorfismo, [ Xi , Xj ] (q) = 0 per ogni q vicino a 0 e per ogni i, j = 1, ...k. Quindi per
la Proposizione 3.3.3 esistono coordinate (xi ) vicino a 0 tali che Xi = x i vicino a 0, per
i = 1, . . . , k. Notiamo ora che gli insiemi {q U : xj (q) = aj , j = k + 1, . . . , n} sono
variet`a integrali di , poiche i vettori tangenti sono combinazioni di x i per i = 1, . . . , k
e quindi di Xi con i = 1, . . . , k.
Sia ora N una variet`a integrale connessa di vicino a 0 e sia i : N U la sua
inclusione. Consideriamo (nelle coordinate (xi ) definite sopra) la funzione xm i : N R
per m = k + 1, . . . , n. Per ogni v Tq N vale v(xm i) = (T i)(v)(xm ) = 0, perche q `e
generata da x i (q) per i = 1, . . . , k. Quindi, dato che N `e connessa, xm `e costante su N
per m = k + 1, . . . , n.
Esercizio 4.3.2 (Parcheggio). Consideriamo unauto m in un parcheggio infinito. La posizione `e descritta da coordinate (x, y, ) con x, y R, S 1 . Supponiamo di poter sterzare solo tutto a sinistra o tutto a destra, in modo che lauto descriva (in avanti o indietro)
delle traiettorie circolari di curvatura 1. Dimostrare che partendo da (x, y, ) = (0, 0, 0)
si pu`o arrivare arbitrariamente vicini a configurazioni qualsiasi muovendosi come sopra
(con traiettorie spezzate).

21

CAPITOLO 5

FIBRATI VETTORIALI

5.1. DEFINIZIONE
Lidea `e associare (in modo ragionevole) ad ogni punto di M variet`a uno spazio vettoriale
opportuno.
Definizione 5.1.1. Un fibrato vettoriale di rango k N consiste di uno spazio totale E,
una base M (E ed M variet`a) ed una proiezione : E M (mappa regolare) tale che
per ogni x M la sua fibra Ex := 1 (x) ha una struttura di spazio vettoriale.
Si richiede inoltre una banalit`a locale, cio`e che localmente E sia un prodotto: per
ogni x M esiste U intorno di x e un diffeomorfismo : 1 (U ) U Rk tale che per
ogni y U vale y := |
Ey : Ey {y} Rk `e un isomorfismo. La coppia (U, )
`e detta
carta di fibrato.
Nota 5.1.2. Un fibrato vettoriale `e localmente uno spazio prodotto, ma in generale questa
propriet`a non `e vera globalmente. Se `e vera globalmente il fibrato `e detto banale.
Esempio (Nastro di Mobius). Il nastro di Mobius di pu`o vedere come un fibrato vettoriale
su S 1 , che per`o non `e banale.
5.2. FUNZIONI DI TRANSIZIONE
Sia (E, , M ) un fibrato vettoriale di rango k, sia (U )A un ricoprimento tramite aperti
che banalizza localmente il fibrato e siano : 1 (U ) U Rk le banalizzazioni
locali.
Definizione 5.2.1. Se U U 6= definiamo la mappa di transizione : U U
GL(Rk , Rk ) tramite le formule 1
(x)v) con x U U , v Rk .
(x, v) = (x,
1
Oppure analogamente (x) = ( |Ex )( |Ex ) .
Proposizione 5.2.2. Valgono le seguenti propriet`a della funzione di transizione
(x) = idRk per ogni x U ;
(x) (x) = idRk per ogni x U U ;
(x) (x) (x) = idRk per ogni x U U U .
` possibile ricostruire un fibrato vettoriale tramite relazioni di equivalenza
Nota 5.2.3. E
in base alle funzioni di transizione.1 F
In particolare si ottiene che E = A U Rk / dove (x, v) (y, w) se e solo se
x = y e w = v.
1

Si pu`
o trovare nel libro di Husemoller.

23

Capitolo 5. Fibrati vettoriali


Esempio. (Fibrato tangente di una variet`a) Dati (U1 , 1 ) cartaPdi M con coordinate
(x1 , . . . , xn ) e p U , un vettore v di Tp M si esprime come v = ni=1 V1i x i (1 (p)). Sia
(U2 , 2 ) una nuova carta, con p U2 e coordinate (y 1 , . . . , y n ). Se V2j sono le componenti
di v nella carta (U2 , 2 ), abbiamo (per la controvarianza) che
V2i

n
X
y i
(1 (p))V1j .
=
j
x
j=1

La funzione di transizione da 1 a 2 `e quindi


n
X
y i
(1 (p))V j
j
x
j=1

21 (p)(V 1 , . . . , V n ) =

!
.
j=1,...,n

Se (U3 , 3 ) `e una terza carta, con p U3 e con coordinate (z 1 , . . . , z n ), allora


n

X z i
y l
z i
(
(p))
=
(
(p))
(1 (p))
1
2
l
j
xj
y
x
l=1
e quindi 31 = 32 21 .
Si pu`o fare la stessa cosa per distribuzioni k-dimensionali di M variet`a.
Esempio. Consideriamo la sfera S 2 come unione di U1 = S 2 \ {S} e U2 = S 2 \ {N },
con S ed N polo sud e nord come gi`a visti. Usando le coordinate
 stereografiche, su

cos(k)

sin(k)
2
k
U1 U2
= R \ {0} definiamo in coordinate polari 21 (r, ) = r
sin(k) cos(k)
con k N.
Questa costruzione definisce un fibrato di rango 2 su S 2 .
5.3. MAPPE FRA FIBRATI
Definizione 5.3.1. Siano U Rk e U 0 Rl banalizzazioni locali di fibrati vettoriali E
ed E 0 . Una mappa f : U Rk U 0 Rl `e detta una mappa locale di fibrati vettoriali
se ha la forma f (p, v) = (f1 (p), f2 (p)(v)), dove f1 : U U 0 e f2 : U L (Rk , Rl ) sono
mappe regolari.
Inoltre f `e detta un isomorfismo locale di fibrati vettoriali se f2 (p) GL(Rk , Rl ).
Definizione 5.3.2. Siano E, E 0 due fibrati vettoriali. Una mappa f : E E 0 `e detta una
mappa (rispettivamente un isomorfismo locale) di fibrati vettoriali se, per ogni v E e per
di E 0 tale che 0 (f (v)) W 0 , esiste una banalizzazione
ogni banalizzazione locale (W 0 , )
0
locale (W, )
con (f (W )) (W 0 ) tale che il rappresentante locale f := f 1
`e una mappa locale di fibrati vettoriali (rispettivamente un isomorfismo locale).
Se la mappa f `e biettiva, f `e detta un isomorfismo di fibrati vettoriali.
Definizione 5.3.3. Sia : E B un fibrato vettoriale. Una sezione locale di `e una
mappa (regolare) : U E con U aperto in B tale che ((b)) = b per ogni b U .
Se U = B, la mappa `e detta sezione globale.
24

5.3. Mappe fra fibrati


Nota 5.3.4. Le sezioni (diciamo C r ) formano uno spazio vettoriale. Usando carte di
fibrato `e possibile sommare nelle seconde componenti delle banalizzazioni locali.
In particolare la sezione nulla (che esiste sempre) associa in ogni carta di fibrato il
punto b B al punto (b, 0) ed `e in corrispondenza naturale con B.
La caratteristica di Eulero `e un indicatore dellesistenza di sezioni globali non nulle
ovunque.
Proposizione 5.3.5. Sia f : E E 0 una mappa di fibrati. Allora valgono le seguenti
propriet`a:
1. f preserva la sezione nulla (cio`e, in modo improprio, f (B) B 0 );
2. f induce univocamente una mappa fB : B B 0 tale che il seguente diagramma
f
E E 0

0 (cio`e 0 f = fB );
commuta:
y
y
f

B
B
B0

3. Una mappa g : E E 0 `e una mappa di fibrato se e solo se esiste gB : B B 0 tale


che 0 g = gB e g ristretta ad ogni fibra `e continua e lineare.
Dimostrazione. Sono tutte facili verifiche, eventualmente passando in carta.

25

CAPITOLO 6

CALCOLO TENSORIALE

6.1. DEFINIZIONE E OPERAZIONI SU SPAZI VETTORIALI


Dati V1 , . . . , Vk , W spazi vettoriali, denotiamo con L k (V1 , . . . , Vk , W ) lo spazio delle mappe k-multilineari da V1 . . . Vk in W . In tutta la trattazione considereremo spazi vettoriali di dimensione finita. Denotiamo inoltre con V = L (V, R) lo spazio duale di V .
Se V `e n-dimensionale ed e1 , . . . , en `e una sua base, esiste una base e1 , . . .P
, en di V tale
n
i
i 1

i
che he
P,nej i = j i. In particolare, dati v V e V , abbiamo che v = i=1 he , viei e
= i=1 h, ei ie .
Definizione 6.1.1. Dato V spazio vettoriale definiamo
Tsr (V ) := L r+s (V , . . . , V , V, . . . , V , R) .
| {z } | {z }
r copie

s copie

Gli elementi di Tsr (V ) sono detti tensori su V , controvarianti di ordine r e covarianti di


ordine s (oppure tensori di tipo (r, s)).
Nota 6.1.2. Analogamente possiamo definire Tsr (V, W ) = L r+s (V , . . . , V , V, . . . , V, W ).
Definizione 6.1.3. Dati t1 Tsr11 (V ) e t2 Tsr22 (V ), il prodotto tensore di t1 e t2 `e il
+r2
tensore t1 t2 Tsr11+s
(V ) definito come
2
t1 t2 ( 1 , . . . , r1 , 1 , . . . , r2 , f1 , . . . , fs1 , g1 , . . . , gs2 ) :=
t1 ( 1 , . . . , r1 , f1 , . . . , fs1 )t2 ( 1 , . . . , r2 , g1 , . . . , gs2 ) ,
con j , j V e fi , gi V .
Esempio. Vediamo alcuni casi interessanti:
1. T01 (V ) = L (V , R)
= V , infatti un elemento v V agisce su V tramite lapplicazione 7 h, vi. In questo senso scriveremo v T01 e in generale quando parleremo
di elementi di V come tensori sottintenderemo questa corrispondenza.
2. T10 (V )
= V . Analogamente al caso precedente, nel seguito daremo per scontata
questa corrispondenza e diremo T10 per un elemento V .
3. T20 (V )
= L (V, V ), tramite lisomorfismo dato dalla relazione t(v, w) = hf (v), wi,
con t T20 (V ) ed f L (V, V ).
1

Dati V e v V , indichiamo con h, vi lelemento applicato a v.

27

Capitolo 6. Calcolo tensoriale


4. T11 (V )
= L (V, V ), tramite la relazione t(, v) = h, f(v)i, con t T11 (V ) e f
L (V, V ).
Proposizione 6.1.4. Sia V uno spazio vettoriale n-dimensionale con base e1 , . . . , en . Sia
e1 , . . . , en la base duale di V . Allora elementi del tipo ei1 . . . eir ej1 . . . ejs
formano una base di Tsr (V ).
Dimostrazione. Dobbiamo dimostrare che elementi come sopra sono linearmente indipendenti e generano linearmente Tsr (V ).
Supponiamo che non valga la lineare indipendenza, allora esiste una loro combinazione
lineare a coefficienti non nulli che si annulla:
X
js
j1
r
tij11...i
...js ei1 . . . eir e . . . e = 0 .
...kr
= 0. QueApplichiamo questo tensore a (ek1 , . . . , ekr , el1 , . . . , els ), allora otteniamo tkl11...l
s
sto per ogni (k1 , . . . , kr ) e (l1 , . . . , ls ), che `e assurdo.
Dato ora t Tsr (V ), possiamo scrivere
X
t=
t(ei1 , . . . , eir , ej1 , . . . , ejs ) ei1 . . . eir ej1 . . . ejs ,

da cui abbiamo anche che gli elementi cercati generano Tsr (V ).


r
Definizione 6.1.5. I coefficienti tij11...i
...js sono detti componenti di t rispetto alla base
e1 , . . . , en di V .

Esempio.
1. Se t T20 (V ), le sue componenti sono tij = t(ei , ej ), che formano una
matrice n n. A questa
matrice associamo la forma bilineare ovvia. Nel caso di

A
B
R2 , se tij =
, associamo quindi la forma
C D
t(x, y) = Ax1 y1 + Bx1 y2 + Cx2 y1 + Dx2 y2 .
Il tensore t `e detto simmetrico se t(ei , ej ) = t(ej , ei ). In questo caso anche la
matrice associata `e simmetrica. Questo genera la forma quadratica Q(e) = t(e, e),
dalla polarizzata t(ei , ej ) = 41 [Q(ei + ej ) Q(ei ej )].
2. In generale t T0r (V ) `e detto simmetrico se t(1 , . . . , r ) = t((1) , . . . , (r) ) per
ogni permutazione e per tutti gli 1 , . . . , r V . Inoltre possiamo ancora
associare al tensore t il polinomio P () = t(, . . . , ), omogeneo di grado r.
Vale una definizione analoga per i tensori covarianti simmetrici.
3. Data permutazione di {1, . . . , k}, lo spazio L k (V1 , . . . , Vk , W ) `e isomorfo allo
spazio L k (V(1) , . . . , V(k) , W ). Tale isomorfismo si vede come
A L k (V1 , . . . , Vk , W ) 7 A0 L k (V(1) , . . . , V(k) , W )
tale che A0 (e(1) , . . . , e(k) ) = A(e1 , . . . , ek ).
Definizione 6.1.6. Il prodotto interno di un tensore con un vettore v V `e una mappa
r
iv : Tsr (V ) Ts1
(V ) tale che
iv t( 1 , . . . , r , v1 , . . . , vs1 ) := t( 1 , . . . , r , v, v1 , . . . , vs1 ) .
Analogamente possiamo definire il prodotto interno con un covettore V come una
mappa i : Tsr (V ) Tsr1 (V ) tale che
i t( 1 , . . . , r1 , v1 , . . . , vs ) := t(, 1 , . . . , r1 , v1 , . . . , vs ) .
28

6.1. Definizione e operazioni su spazi vettoriali


r
Nota 6.1.7. Le mappe iv : Tsr (V ) Ts1
(V ) e i : Tsr (V ) Tsr1 (V ) sono lineari, cos`
come le mappe v 7 iv e 7 i .

Vediamo ora i prodotti interni in componenti. Per linearit`a, ci basta esplicitarli per i
tensori della base.
iek (ei1 . . . eir ej1 . . . ejs ) = kj1 ei1 . . . eir ej2 . . . ejs ,
k

ie (ei1 . . . eir ej1 . . . ejs ) = ik1 ei2 . . . eir ej1 . . . ejs .


Definizione 6.1.8. La contrazione del k-esimo indice controvariante con ll-esimo indice
r1
(V ) definita
covariante (contrazione di tipo (k, l)) `e la mappa lineare Clk : Tsr (V ) Ts1
da
js
j1
r
Clk (tji11...i
...js ei1 . . . eir e . . . e ) :=
i ...i

pi

...i

r
k+1
= tj11 ...jk1
ei1 . . . eik . . . eir ej1 . . . ejl . . . ejs ,
l1 pjl+1 ...js

dove per convenzione quando si scrivono indici alti e bassi ripetuti si intende che si somma
da 1 ad n (notazione di Einstein). In questo particolare caso si sta quindi sommando su
p.
Nota 6.1.9. La contrazione (k, l) `e indipendente dalla base e1 , . . . , en di V .
Definizione 6.1.10. La delta di Kronecker `e il tensore T11 (V ) definito come
(, e) := h, ei .
Nota 6.1.11. La corrisponde allidentit`a su P
V quando consideriamo T11 (V )
= L (V, V ).
i
j
i
Inoltre, fissando una base, risulta che = i,j j ei e , dove j sono i classici simboli
di Kronecker.
Supponiamo ora che V sia dotato di un prodotto interno  ,  simmetrico e
definito positivo. Siano e1 , . . . , en una base di V e e1 , . . . , en la base del duale V . Sia
inoltre gij := ei , ej  la matrice dei coefficienti del prodotto interno.
Allora abbiamo due isomorfismi (musicali) che sono:
1. [ : V V (bemolle) tale che x 7 x, ;
2. ] : V V (diesis) che `e il suo inverso.
La matrice dei coefficienti di [ `e gij stessa, poiche (x[ )i = gij xj . Invece la matrice dei
coefficienti di ] `e g ij , cio`e la matrice inversa di gij ; infatti (] )i = g ij j .
Loperatore [ `e detto operatore di abbassamento di indice, mentre ] operatore di innalzamento. Questo perche permettono di passare da tensori del tipo (r, s) a tensori del
tipo (r 1, s + 1) e (r + 1, s 1) rispettivamente.
Esempio. Se t `e di tipo (0, 2), possiamo definire t0 T11 (V ) tramite t0 (, e) = t(] , e) e
avremo che (t0 )ij = g ik tkj .
Esempio. Vediamo ora vari esempi riguardanti le varie operazioni definite.
29

Capitolo 6. Calcolo tensoriale


1. Dati t T12 (V ) e x = xi ei , risulta che il prodotto interno di t con x `e
j
p kl
j
ix t = xp iep (tkl
j ek el e ) = x tj iep (ek el e ) =
j
j kl
= xp tkl
j p e k e l = x t j e k e l .

Mentre il prodotto interno di t con = p ep `e


p

e
j
kl
j
i t = p tkl
j i (ek el e ) = k tj el e .

2. Se t T32 (V ), facendo una contrazione (2, 1), ottengo


ij
k
l
m
ik
l
m
k
l
m
C12 (tij
klm ei ej e e e ) = tklm j ei e e = tklm ei e e .

3. Se t T11 (V ) la sua traccia `e definita da C11 (t) = tii .


4. Siano gij i coefficienti di  , , con inversa g ij . Alzando e abbassando gli indici
otteniamo g jk gkl = lj e gjk g kl = jl .
Tramite un prodotto, si pu`o definire anche la traccia di t T02 (V ) dalla traccia
del tensore (1, 1) associato. Se t = tij ei ej , possiamo perci`o definire tr(t) =
tr(gij tjk ) = gik tik .
Esercizio 6.1.12. Calcolare il prodotto interno di t = e1 e2 e2 + 3e2 e2 e1 con
e = e1 + 2e2 e = 2e1 + e2 , dove in questo caso V = R2 .
Esercizio 6.1.13. Sia dim(V ) = n e dim(V ) = m. Dimostrare che Tsr (V, W ) ha
dimensione (mn)r+s .
6.2. PUSH-FORWARD E PULL-BACK DI TRASFORMAZIONI LINEARI
Definiamo innanzitutto il duale di una trasformazione lineare.
Definizione 6.2.1. Siano V, W spazi vettoriali e L (V, W ). Il duale, o trasporto, di
`e L (W , V ) definita come
h (), eiV = h, (e)iW ,
per ogni W ed e V .
Vediamo ora le relazioni fra i coefficienti di e . Siano {e1 , . . . , en } e {f1 , . . . , fm }
basi di V n e W m . Supponiamo (ei ) = Aai fa e diciamo che Aai 2 `e la matrice associata a
. Dato v = v i ei V , vale che (v)a = Aai v i . La matrice moltiplica a sinistra, quindi
h (f a ), ei iV = hf a , (ei )iW = hf a , Abi fb i = Abi ba = Aai .
Perci`o vale che (f a ) = Aai ei .
Se = a f a W , allora () = a (f a ) = a Aai ei . Di conseguenza ( ())i =
a Aai , cio`e la matrice moltiplica a destra.
Definiamo di seguito push-forward e pull-back di isomorfismi fra spazi vettoriali, vedendo poi che tale definizione si pu`o estendere a tutte le trasformazioni nel caso di tensori
solo controvarianti o solo covarianti rispettivamente.
2

Supponiamo che il pedice sia la colonna e lapice la riga.

30

6.2. Push-forward e pull-back di trasformazioni lineari


Definizione 6.2.2. Se L (V, W ) `e un isomorfismo, il push-forward = Tsr () `e la
mappa in L (Tsr (V ), Tsr (W )) definita da
(t)( 1 , . . . , r , f1 , . . . , fs ) = t( ( 1 ), . . . , ( r ), 1 (f1 ), . . . , 1 (fs )) ,
con i W e fj W .
Nota 6.2.3. Si verifica che `e continua.
Nota 6.2.4. Nel caso di tensori (1, 0), cio`e = T01 (), si ha T01 (V )
= V e T01 (W )
= W,
1
allora T0 () L (V, W ) ed `e proprio .
Proposizione 6.2.5. Siano L (V, W ), L (W, Z) isomorfismi. Allora
1. ( ) = ;
2. se i : V V `e lidentit`a, allora i : Tsr (V ) Tsr (V ) `e lidentit`a;
3. : Tsr (V ) Tsr (W ) `e un isomorfismo e ( )1 = (1 ) ;
4. se t1 Tsr11 (V ), t2 Tsr22 (V ), allora (t1 t2 ) = (t1 ) (t2 ).
Dimostrazione. Dimostriamo innanzitutto il punto 1. Abbiamo infatti che
( (t))( 1 , . . . , r , g1 , . . . , gs ) = (t)( ( 1 ), . . . , ( r ), 1 (g1 ), . . . , 1 (gs )) =
= t( ( 1 ), . . . , ( r ), 1 1 (g1 ), . . . , 1 1 (gs )) =
= t(( ) ( 1 ), . . . , ( ) ( r ), ( )1 (g1 ), . . . , ( )1 (gs )) =
= ( ) t( 1 , . . . , r , g1 , . . . , gs ) ,
con i Z e gj Z. Poi la 2 `e ovvia, la 1 implica la 3 e la 4 segue dalla definizione di
prodotto tensore.
Definizione 6.2.6. Dato L (V, W ) isomorfismo, (1 ) L (Tsr (W ), Tsr (V )) `e detto
pull-back di ed `e indicata con .
Proposizione 6.2.7. Sia L (V, W ) un isomorfismo e siano e1 , . . . , en , f1 , . . . , fn basi
di V e W . Sia Aai la matrice dei coefficienti di rispetto alle basi (cio`e (ei ) = Aai fa ).
Sia Bai la matrice dei coefficienti di 1 . Allora [Bai ] `e linversa di [Aai ]. Inoltre, siano
a1 ...ar
r
t Tsr (V ), q Tsr (W ) tensori con componenti tij11...i
...js e qb1 ...bs , allora
j1
js
...ar
r
( t)ab11...b
= Aai11 . . . Aairr tij11...i
...js Bb1 . . . Bbs ,
s
a1 ...ar
b1
bs
i1
ir
r
( q)ij11...i
...js = Ba1 . . . Bar qb1 ...bs Aj1 . . . Ajs .

Dimostrazione. Facilmente vale che


ei = 1 ((ei )) = 1 (Aai fa ) = Aai 1 (fa ) = Aai Baj ej ,
perci`o Aai Baj = ij . E analogamente si vede che Abi Bai = ab . Vediamo ora che
...ar
( t)ab11...b
= ( t)(f a1 , . . . , f ar , fb1 , . . . , fbs ) =
s

= t( (f a1 ), . . . , (f ar ), 1 (fb1 ), . . . , 1 (fbs )) =
= t(Aai11 ei1 , . . . , Aairr eir , Bbj11 ej1 , . . . , Bbjss ejs )
E per linearit`a otteniamo lenunciato, mentre laltra formula si ricava nello stesso modo.

31

Capitolo 6. Calcolo tensoriale


A questo punto, come preannunciato, definiamo push-forward e pull-back per tutte le
trasformazioni nel caso di tensori solo controvarianti o solo covarianti.
Definizione 6.2.8. Sia L (V, W ) (non necessariamente invertibile). Definiamo il
suo pull-back L (Ts0 (W ), Ts0 (V )) tramite t(e1 , . . . , es ) = t((e1 ), . . . , (es )) con
t Ts0 (W ).
Analogamente si definisce il push-forward per tensori che siano solo controvarianti.
Vediamo ora lanalogo della Proposizione 6.2.5, dove per`o il pull-back `e definito per
tensori solo covarianti.
Proposizione 6.2.9. Siano L (V, W ) e L (W, Z), allora
1. ( ) = ;
2. i : Ts0 (V ) Ts0 (V ) `e lidentit`a;
3. se `e un isomorfismo, lo `e anche e ( )1 = (1 ) ;
4. se t1 Ts01 (V ), t2 Ts02 (V ), allora (t1 t2 ) = (t1 ) (t2 ).

32

CAPITOLO 7

FIBRATI E CAMPI TENSORIALI

`
7.1. RISULTATI LOCALI SU VARIETA
Lo scopo `e estendere lalgebra tensoriale a fibrati vettoriali (locali e poi globali).
Sia M una variet`a, U M un aperto e V uno spazio vettoriale. Allora U V e
U Tsr (V ) sono fibrati vettoriali locali.
Se : U V U 0 V 0 `e una mappa locale di fibrato e se ristretta alle fibre `e un isomorfismo, allora induce una mappa di fibrato locale sui fibrati tensoriali
corrispondenti.
Definizione 7.1.1. Sia : U V U 0 V 0 una mappa locale di fibrato, come sopra.
Definiamo : U Tsr (V ) U 0 Tsr (V 0 ) come (u, t) = (0 (u), (t)), dove 0 `e la
mappa definita sulla sezione nulla.
Lemma 7.1.2. Sia GL(V, W ) linsieme degli isomorfismi fra V e W , che `e un aperto
in L (V, W ). Sia A : L (V, W ) L (W , V ) tale che 7 e B : GL(V, W )
GL(W, V ) tale che 7 1 . Allora A e B sono di classe C e DB()[] = 1
1 .
Proposizione 7.1.3. Se : U V U 0 V 0 `e una mappa locale di fibrato tale che u
(restrizione alla fibra su u) `e un isomorfismo per ogni u U , allora : U Tsr (V )
U 0 Tsr (V 0 ) `e una mappa locale di fibrati e (u ) = ( )u `e un isomorfismo per ogni
u U.
Inoltre se `e un isomorfismo locale di fibrati, lo `e anche .
Dimostrazione. Il fatto che sia un isomorfismo sulle fibre segue dalla Proposizione 6.2.5, perci`o bisogna solo verificare che (u ) = ( )u `e regolare. Per`o, u `e regolare in u per definizione e, per il Lemma 7.1.2, u e (u )1 sono regolari. Ricordiamo
che t( 1 , . . . , r , f1 , . . . , fs ) = t( ( 1 ), . . . , ( s ), 1 (f1 ), . . . , 1 (fs )); allora segue
immediatamente la regolarit`a di (u ) valutando lequazione precedente sulla fibra ed
avendo a destra una funzione regolare.
7.2. FIBRATI TENSORIALI
Definizione 7.2.1. Sia : E B un fibrato vettoriale con fibra Eb := 1 (b) per ogni
b B. Definiamo il fibrato tensoriale relativo come
[
Tsr (E) =
Tsr (Eb )
bB

e sia sr : TsrS
(E) B definito da sr (e) = b per ogni e Tsr (Eb ). Inoltre, dato A B, sia
Tsr (E)|A = bA Tsr (Eb ).
33

Capitolo 7. Fibrati e campi tensoriali


Definizione 7.2.2. Se 0 : E 0 B 0 `e un altro fibrato vettoriale e se (, 0 ) : E E 0 `e
una mappa fra fibrati vettoriali tale che b := |Eb `e un isomorfismo per ogni b B, sia
: Tsr (E) Tsr (E 0 ) il push-forward di definito da |Tsr (Eb ) = (b ) .
Sia (E|U , ) una carta locale di , con U B aperto. Allora |Tsr (E)|U `e una biezione
su un fibrato locale e quindi `e una carta locale. Inoltre ( )b = (b ) `e un isomorfismo
lineare e quindi la carta preserva la struttura lineare di ogni fibra. Queste carte sono
dette carte naturali di Tsr (E).
Teorema 7.2.3. Se : E B `e un fibrato vettoriale, linsieme delle carte naturali di
sr (E) : Tsr (E) B `e un atlante sul fibrato tensoriale.
Dimostrazione. Perche il teorema sia vero deve valere che:
1. latlante ricopre il fibrato;
2. date carte di fibrato (Ui , i ), (Uj , j ) con Ui Uj 6= , allora i ((Ui V ) (Uj V ))
`e un fibrato locale (dove V
`e un isomorfismo locale di fibrati
= Eb ) e j 1
i
vettoriali.
La 1 segue dal fatto che partiamo da un atlante per E. Per la 2, abbiamo che := j i1
`e un isomorfismo locale di fibrati; perci`o, per la Proposizione 7.1.3, anche = (j )
(i )1
e un isomorfismo locale di fibrati.
`
Nota 7.2.4. Si vede che se E ha una base numerabile, allora anche Tsr (E) ha una base
numerabile.
Proposizione 7.2.5. Sia f : E E 0 una mappa tra fibrati che sia un isomorfismo su
ogni fibra. Allora anche f : Tsr (E) Tsr (E 0 ) `e una mappa fra fibrati che `e un isomorfismo
su ogni fibra.
carte di fibrato su E ed E 0 tali che f (U ) V e sia
Dimostrazione. Siano (U, )
e (V, )
f := f 1 la mappa locale di fibrato corrispondente. Allora, usando latlante
naturale, (f ) = (f) .
Rivediamo ora le propriet`a push-forward, gi`a affrontate nella Proposizione 6.2.5, in
questo nuovo contesto.
Proposizione 7.2.6. Siano f : E E 0 e g : E 0 E 00 mappe tra fibrati che sono
isomorfismi su ogni fibra. Allora
1. g f `e ancora un isomorfismo su ogni fibra e (g f ) = g f ;
2. se i : E E `e lidentit`a, allora i : Tsr (E) Tsr (E) `e lidentit`a;
3. se f : E E 0 `e un isomorfismo tra fibrati, lo `e anche f 1 e (f )1 = (f 1 ) .
Dimostrazione. Per la 1 basta verificare la propriet`a sui rappresentanti locali. La 2 `e
ovvia e insieme alla 1 implica la 3.
Vogliamo ora studiare un caso particolarmente interessante, cio`e quello in cui E = T M
con M variet`a differenziabile.
34

7.3. Campi tensoriali


Definizione 7.2.7. Sia M una variet`a e sia M : T M M il fibrato tangente. Allora
Tsr (M ) := Tsr (T M ) `e detto fibrato dei tensori su M controvarianti di ordine r e covarianti
di ordine s (o di tipo (r, s)).
Quindi in particolare T01 (M ) si identifica con lo stesso T M e T10 (M ) con il fibrato
cotangente, cio`e le mappe lineari su vettori di T M . In particolare il fibrato cotangente si

denota con M
: T M M .
7.3. CAMPI TENSORIALI
Ricordiamo che una sezione di un fibrato : E B associa ad ogni b B un elemento
(b) E tale che ((b)) = b. Indichiamo con (E) (o ()) le sezioni di classe C .
Quando E = Tsr (M ) parleremo di campi tensoriali.
Definizione 7.3.1. Un campo tensoriale di tipo (r, s) su una variet`a M `e una sezione di
Tsr (M ). Indicheremo (Tsr (M )) con Tsr (M ).
Elementi di T01 (M ) sono i campi vettoriali (cio`e (M )), mentre elementi di T10 (M )
sono detti 1-forme differenziali (denotate (M )).
Vediamo ora alcune operazioni sui campi tensoriali, riportando in questo contesto le
operazioni che abbiamo gi`a visto sui tensori.
0
Se f C (M ), Xi (M ), i (M ), t Tsr (M ) e t0 Tsr0 (M ), possiamo definire
f t Tsr (M ) come (f t)(p) := f (p)t(p);
t(1 , . . . , r , X1 , . . . , Xs ) C (M ) tale che
p 7 t(p)(1 (p), . . . , r (p), X1 (p), . . . , Xs (p)) ;
0

r+r
0
t t0 Ts+s
0 (M ) tale che p 7 t(p) t (p).

Analogamente possiamo ridefinire contrazioni e prodotti interni.


Vediamo ora la scrittura di un campo tensoriale in coordinate. Data (U, ) carta di M ,
sappiamo che x i = (T )1 (ei ), dove e1 , . . . , en `e la base canonica di Rn . In particolare
f

(U ) = T01 (U ) ed `e il campo vettoriale corrispondente alla derivazione f 7 x


i.
xi
Sia ora dxi (U ) = T10 (U ) tale che dxi ( x j ) = ji , ovvero dxi = (ei ) dove
e1 , . . . , en `e la base duale di e1 , . . . , en . Notiamo che, come suggerisce la notazione, dxi
corrisponde al differenziale della funzione coordinata xi : U R.

i1
ir
r
Consideriamo ora t Tsr (M ) e poniamo tij11...i
...js := t( dx , . . . , dx , xj1 , . . . , xjs )
C (U ), allora per linearit`a
r
t|U = tij11...i
...js

.
.
.

dxj1 . . . dxjs .
i
x 1
xir

Vediamo quindi i cambi di coordinate. Sia = (y 1 , . . . , y n ) : U Rn un altro sistema


di coordinate e supponiamo y i = aji x j . Applichiamo il campo vettoriale alla funzione
coordinata xk , per ottenere
modo dy i =

y i
xj

xk
y i

= aji x
= aji jk = aki e quindi
xj

dxj .
35

y i

xj
.
y i xj

Allo stesso

Capitolo 7. Fibrati e campi tensoriali


...kr
:= t( dy k1 , . . . , dy kr , yl1 , . . . , yls ) le componenti del tenQuindi se chiamiamo tkl11...l
s
sore t rispetto alle coordinate (y 1 , . . . , y n ), abbiamo che



y k1
y kr xj1
xjs i1 ...ir
k
...k
k
k
r
1
r
1
tl1 ...ls = t dy , . . . , dy , l1 , . . . , ls =
.
.
.

.
.
.
t
,
y
y
xi1
xir y l1
y ls j1 ...js

dove abbiamo utilizzato le propriet`a di linearit`a del tensore.


Nota 7.3.2. Osserviamo che i campi tensoriali possono essere definiti anche in un altro
modo equivalente.
Lo spazio (M ) pu`o essere visto come LC (M ) ((M ), C (M )). Infatti gli elementi di (M ) sono C (M )-lineari, cio`e dato (M ) vale che (p)(f (p)X(p)) =
f (p)(p)X(p) per ogni X (M ) e f C (M ).
Allo stesso modo Tsr (M ) pu`o essere definito come

(M )) .
LCr+s
(M ) ( (M ), . . . , (M ), (M ), . . . , (M ), C
{z
} |
{z
}
|
r copie

s copie

Definiamo infine lalgebra dei tensori su una variet`a M .


Definizione 7.3.3. Sia T (M ) la somma diretta dei Tsr (M ) per r 0 ed s 0. Risulta
che T (M ) `e uno spazio vettoriale con prodotto ed `e detto algebra dei tensori su M .
Nota 7.3.4. Se : M N `e un diffeomorfismo, allora : T (M ) T (N ) `e un
isomorfismo di algebre.
7.4. TENSORE METRICO
Notiamo che contrazioni e prodotti interni si possono sempre fare, ma per alzare e
abbassare gli indici serve un prodotto scalare.
Definizione 7.4.1. Una metrica (o tensore metrico) su una variet`a M `e un campo
tensoriale g T20 (M ) che sia simmetrico e definito positivo, cio`e g(p)(v, v) > 0 per ogni
v Tp M diverso da 0.
Un tensore metrico permette di abbassare e alzare gli indici di un campo tensoriale,
tramite per esempio tik 7 tij gjk , che `e una mappa T02 (M ) T11 (M ).
Data f C (M ), con f 7 df (M ), abbiamo che df (v) = v(f ) con v Tp M .
Quindi tale funzione f ci d`a in modo naturale una 1-forma. Per avere un gradiente ci
serve una metrica che faccia cambiare il tipo di un tensore e nel particolar caso della
1-forma.
Definizione 7.4.2. Sia M una variet`a con metrica g e sia f C (M ). Il campo
vettoriale ( df )] `e detto il gradiente di f , che denoteremo f .

Vediamo ora la scrittura di tale gradiente in coordinate. Sia gij = g x i , x j e siano
X = X i x i e Y = Y j x j elementi di (M ), allora
[

hX , Y i = g(X, Y ) = X Y g
36

, j
i
x x

= X i Y j gij ,

7.5. Pull-back e push-forward di campi tensoriali


perci`o X [ = X i gij dxj . Analogamente, data T10 (M ) con = i dxi , allora
(] )i = g ij j = ] = g ij j
Perci`o, se = df =

f
xi

.
xi

dxi , abbiamo che


f = g ij

f
.
xj xi

7.5. PULL-BACK E PUSH-FORWARD DI CAMPI TENSORIALI


Ancora una volta possiamo rivedere i concetti di push-forward e pull-back, in questo caso
di campi tensoriali, e riportarne le solite propriet`a.
Definizione 7.5.1. Sia : M N diffeomorfismo fra variet`a e sia t Tsr (M ). Il
push-forward di t tramite `e t := (T ) t 1 Tsr (N ).
Se invece t Tsr (N ), definiamo il suo pull-back come t := (1 ) t.
Proposizione 7.5.2. Sia : M N un diffeomorfismo e t Tsr (M ). Allora
1. t Tsr (N );
2. : Tsr (M ) Tsr (N ) `e un isomorfismo lineare;
3. se : N P `e un diffeomorfismo, allora ( ) = ;
0

4. (t t0 ) = t t0 , con t Tsr (M ) e t0 Tsr0 (M ).


Nota 7.5.3. Come abbiamo gi`a avuto modo di osservare, se t T0r (M ), il suo push-forward
t `e ben definito anche se non `e un diffeomorfismo. Analogamente, se t Tr0 (N ), il
suo pull-back t `e ben definito anche se non `e un diffeomorfismo.
Vediamo ora la scrittura del push-forward in coordinate. Sia t Tsr (M ) e : M N
un diffeomorfismo tale che xj = y j per j = 1, . . . , n, con x e y sistemi di coordinate
su M ed N rispettivamente. Allora abbiamo che
 i1
  ir
 l1
y
y
x
xls k1 ...kr
i1 ...ir
1
1
( t)j1 ...js =
1 ,

.
.
.
t
.
.
.
xk1
xkr
y j1
y js l1 ...ls
e similmente vale per t.
Esempio. Sia : R3 R2 tale che (x, y, z) = (2x+z, xyz) e sia t T20 (R2 ) tale che t =
(u+2v) du du+u2 du dv. Allora ( du) = 2 dx+ dz e ( dv) = yz dx+xz dy+xy dz,
da cui ricaviamo
(t) =(2x + z + 2xyz)(2 dx + dz) (2 dx + dz)+
+ (2x + z)2 (2 dx + dz) (yz dx + xz dy + xy dz) =
=2(2x + z)2 yz dx dx + 2[2x + z + 2xyz + (2x + z)2 yz] dx dz+
+ 2(2x + z)2 xz dx dy + [4x + 2z + 4xyz + yz(2x + z)2 ] dz dx+
+ xz(2x + z)2 dz dy + [2x + z + 2xyz + xy(2x + z)2 ] dz dz .

37

CAPITOLO 8

DERIVATA DI LIE SUI TENSORI

8.1. OPERATORE DIFFERENZIALE SULLALGEBRA DEI TENSORI


Ci sono due possibili approcci:
1. approccio dinamico, che usa i flussi ed `e quello che abbiamo usato per definire la
derivata di Lie sui campi vettoriali;
2. approccio algebrico, che `e invece quello che seguiremo noi e che utilizza la propriet`a
di Leibniz delle derivate.
Esempio. Vediamo come definire per esempio la derivata di Lie per 1-forme. Se Y
(M ) e (M ), richiediamo che LX ((Y )) = (LX )(Y ) + (LX Y ), dove sappiamo
cosa vuol dire la derivata di Lie su funzioni (in questo caso (Y )) e su campi (in questo
caso Y ), perci`o la ricaviamo anche per le forme: (LX )Y = LX ((Y )) (LX Y ).
Definizione 8.1.1. Un operatore differenziale sullalgebra dei tensori T (M ) `e una famiglia di mappe Dsr da Tsr (M ) in se tale che:
1. D sia una derivazione tensoriale, cio`e commuta con le contrazioni.
Vogliamo quindi che D sia R-lineare e che, dati t Tsr (M ), 1 , . . . , r (M ) e
X1 , . . . , Xs (M ), valga
D(t(1 , . . . , r , X1 , . . . , Xs )) = (Dt)(1 , . . . , r , X1 , . . . , Xs )+
r
X
+
t(1 , . . . , Dj , . . . , r , X1 , . . . , Xs )+
+

j=1
s
X

t(1 , . . . , r , X1 , . . . , DXk , . . . , Xs ) .

k=1

2. D `e locale (naturale rispetto alle restrizioni), dove supponiamo che D sia definito
su T (U ) in T (U ) per ogni U M aperto.
Chiediamo cio`e che, se U V M sono aperti e t Tsr (M ), allora (Dt)|U =
D(t|U ), ovvero che il seguente diagramma commuti
i

U
Tsr (V )
Tsr (U )

Dy
Dy

U
Tsr (V )
Tsr (U )

39

Capitolo 8. Derivata di Lie sui tensori


Teorema 8.1.2. Supponiamo che per ogni U M aperto esistano mappe EU : C (U )
C (U ) e FU : (U ) (U ) che siano R-lineari e derivazioni (naturali rispetto alle
restrizioni), cio`e
1. EU (f g) = (EU f ) g + f (EU g) per f, g C (U );
2. FU (f X) = (EU f ) X + f FU X per f C (U ) e X (U );
3. se f C (M ), allora EU (f |U ) = (EM f )|U ;
4. per X (M ), vale FU (X|U ) = (FM X)|U .
Allora esiste unico un operatore differenziale D che coincide con EU su C (U ) e con FU
su (U ) per ogni U aperto di M .
Dimostrazione. Innanzitutto definiamo D su (U ) come
(D)(X) := EU ((X)) (FU X)
per ogni X (U ) e per ogni (U ), ricordandoci che vogliamo che valga (D) X =
D( X) (DX).
Verifichiamo che D sia C (M )-lineare su (U ) e che quindi sia effettivamente un
elemento di (U ). Abbiamo infatti che
(D)(f X) = EU ((f X)) (FU (f X)) = EU (f (X)) [(EU f ) X + f FU X] =
= (EU f ) (X) + f EU ((X)) [(EU f ) X] [f FU X] =
= f [EU ((X)) (FU X)] = f (D)(X) ,
dove abbiamo utilizzato le propriet`a 1 e 2.
Abbiamo perci`o definito D (U ) per ogni (U ). Possiamo quindi estendere
la definizione in U ai tensori, utilizzando la propriet`a 1, tramite
(DU t)(1 , . . . , r , X1 , . . . , Xs ) := EU (t(1 , . . . , r , X1 , . . . , Xs ))
r
X

t(1 , . . . , Dj , . . . , r , X1 , . . . , Xs )

j=1
s
X

t(1 , . . . , r , X1 , . . . , FU Xk , . . . , Xs ) ,

k=1

per ogni t Tsr (M ), 1 , . . . , r (M ) e X1 , . . . , Xs (M ). Usando ancora le


propriet`a 1 e 2 si vede come prima che DU su Tsr (U ) `e C (M )-multilineare.
Per concludere, se V U aperto, per le propriet`a 3 e 4 abbiamo DV (t|U ) = (DU t)|V ,
per ogni t T (U ). Quindi definiamo D su Tsr (M ) come (Dt)(m) = (DU t)(m) per un
qualunque U aperto che contiene m. Per lunicit`a di DU , si ha anche lunicit`a di D e
inoltre vale anche la propriet`a 2 richiesta.
Corollario 8.1.3. Dato D operatore differenziale sullalgebra dei tensori, valgono
1. D(t1 t2 ) = (Dt1 ) t2 + t1 (Dt2 ), con t1 Tsr11 (M ) e t2 Tsr22 (M );
2. D = 0, dove `e la delta di Kronecker.
40

8.2. Estensione della derivata di Lie


Dimostrazione. Il punto 1 segue dalla propriet`a 1 richiesta alloperatore differenziale.
Verifichiamo quindi il punto 2. Siano X (U ) e (U ); allora, ancora per le
propriet`a di operatore differenziale, abbiamo
(D)(, X) = D((, X)) (D, X) (, DX) = D(X) (D)X (DX) = 0 ,
da cui D = 0 per larbitrariet`a di X ed .
8.2. ESTENSIONE DELLA DERIVATA DI LIE
Trattiamo ora il caso particolare della derivata di Lie. Dati X (M ) e U M aperto,
definiamo EU ed FU come LX |U . Allora, per Leibniz, le ipotesi del Teorema 8.1.2 sono
soddisfatte e possiamo dare quindi la seguente definizione.
Definizione 8.2.1. Se X (M ), definiamo LX come lunico operatore differenziale su
T (M ) (ancora detto derivata di Lie), tale che LX coincide con le derivate di Lie rispetto
a X su C (M ) e (M ).
Proposizione 8.2.2. Sia : M N un diffeomorfismo e sia X (M ). Allora LX `e
naturale rispetto al push-forward, cio`e L X ( t) = (LX t) per ogni t Tsr (M ).
Dimostrazione. Dato U M aperto, definiamo D : Tsr (U ) Tsr (U ) tale che Dt =
L X|U ( t). La derivata di Lie (su funzioni e campi vettoriali) `e naturale rispetto ai
push-forward per il Lemma 3.2.3 e la Proposizione 3.2.4, quindi D definita come sopra `e
una derivazione su funzioni C (U ) e su (U ) che coincide con LX t su di essi. Mostriamo
che D `e un operatore differenziale, verificandone le due propriet`a:
1 Dati X1 , . . . , Xs (U ) e 1 , . . . , r (U ), ricordiamo che
(t(1 , . . . , r , X1 , . . . , Xs )) = ( t)( 1 , . . . , r , X1 , . . . , Xs ) ,
perci`o abbiamo
D(t(1 , . . . , r , X1 , . . . , Xs )) = L X ( (t(1 , . . . , r , X1 , . . . , Xs ))) =
= L X (( t)( 1 , . . . , r , X1 , . . . , Xs ))) =
= [(L X t)( 1 , . . . , r , X1 , . . . , Xs )+
r
X
+
( t)( 1 , . . . , L X j , . . . , r , X1 , . . . , Xs )+
+

j=1
s
X

( t)( 1 , . . . , r , X1 , . . . , L X Xk , . . . , Xs )] .

k=1

Sapendo che = (1 ) , dallultima espressione ottengo


D(t(1 , . . . , r , X1 , . . . , Xs )) =(Dt)(1 , . . . , r , X1 , . . . , Xs )+
r
X
+
t(1 , . . . , Dj , . . . r , X1 , . . . , Xs )+
+

j=1
s
X
k=1

che `e proprio la propriet`a richiesta.


41

t(1 , . . . , r , X1 , . . . , DXk , . . . , Xs ) ,

Capitolo 8. Derivata di Lie sui tensori


2 Sia t Tsr (M ), allora
(Dt)|U = [( )1 L X t]|U = ( )1 [L X t]|U = ( )1 L X|U t|U = D(t|U ) .
Allora, per lunicit`a data dal Teorema 8.1.2, abbiamo che gli operatori differenziali
L X|U ( t) e LX t coincidono e otteniamo perci`o quanto cercato.

Vediamo ora le formule in coordinate; cio`e, dato t Tsr (M ) e X (M ), vogliamo le


componenti di LX t. Sia : U Rn una carta con coordinate = (x1 , . . . , xn ), rispetto

r
j1
js
alle quali X = X i x i e t = tij11,...,i
,...,js xi1 . . . xir dx . . . dx .
Ricordiamo innanzitutto che per f C (M ) vale
LX f = X i

f
,
xi

mentre per Y (M ) abbiamo



LX Y =

j Y

xj

i
j X
xj

.
xi

Calcoliamo quindi la formula in coordinate di LX con = i dxi (M ), per poi ricavare la formula per qualsiasi tensore sfruttando la definizione. Sfruttando la definizione
di LX e quanto detto fino ad ora, abbiamo






 


X j

= LX
LX i = LX (i ) i
=
(LX )i = LX
xi
xi
x
x xj


X j

X j
j i
j i
+

,
=X
=
X
j
xj
xi
xj
xj
xi
perci`o

X j
LX =
+ j
dxi .
i
x
Passiamo quindi al calcolo in coordinate di LX t. Vale che



i1 ,...,ir
i1
ir
(LX t)j1 ,...,js =LX t dx , . . . , dx , j1 , . . . , js =
x
x
 


i1
ir
=LX t dx , . . . , dx , j1 , . . . , js

x
x


r
X

i1
ih
ir

t dx , . . . , LX dx , . . . , dx , j1 , . . . , js
x
x
h=1


s
X

i1
ir

t dx , . . . , dx , j1 , . . . , LX j , . . . , js =
x
x h
x
h=1


r
X

X ih l
i1 ,...,ir
ir
i1
=LX tj1 ,...,js
t dx , . . . ,
dx , . . . , dx , j1 , . . . , js
xl
x
x
h=1


s
X

X m

i1
ir

t dx , . . . , dx , j1 , . . . , j
,
.
.
.
,
=
x
x h xm
xjs
h=1


=X k

i
Xj j
x

r
s
r
X
tij11,...,i
X ih i1 ...ih1 lih+1 ,...,ir X X m i1 ,...,ir
,...,js

t
+
t
,
l j1 ,...,js
jh j1 ...jh1 mjh+1 ...js
xk
x
x
h=1
h=1

che `e la formula cercata.


42

8.2. Estensione della derivata di Lie


Esempio.
X=

1. Calcoliamo in R2 LX t, con t = x y
dx dy + y y
dy dy e

+ x y
. Per linearit`a in X, LX t = L t + Lx t e abbiamo che
x
y





Lt=L x
dx dy + L y
dy dy
x
x
x
y
y

dx dy e t = y y
dy dy. Visto che t212 = x e le
Chiamiamo ora t = x y
altre componenti sono 0, abbiamo

2
2
L t =
t =1
x
x 12
12
e le altre componenti sono nulle. Dato che t222 `e lunica componente non nulla di t,
abbiamo che facendo il conto

2
2
L t =
t =0
x
x 22
22
e per le altri componenti `e 0. Di conseguenza

Lt=
x

dx dy .
y

Analogamente, sfruttando la formula in coordinate come appena fatto, abbiamo







dx dy + Lx y
dy dy =
Lx t = Lx x
y
y
y
y
y

=x
dx dx + x
dy dy + y
dx dy + y
dy dx .
y
y
y
y
E unendo le due espressioni abbiamo quindi
LX t = x

dx dx + x dy dy + (y + 1) dx dy + y dy dx .
y
y
y
y

2. (Campi di Killing) Sia M una variet`a con metrica g. Una campo vettoriale X
(M ) `e detto di Killing se LX g 0. Il significato geometrico `e che una metrica d`a
una lunghezza della curva e di conseguenza una distanza sulla variet`a (prendendo
linf delle lunghezze delle curve che collegano due punti) e un campo di Killing
genera un flusso di isometrie sulla variet`a.
Vediamo che equazioni deve rispettare X. Siano X = X i x i e g = gij dxi dxj in
coordinate (dove gij = gji ). Allora
LX g = Lx (gij dxi dxj ) =
= (LX gij ) dxi xj + gij (LX dxi ) dxj + gij dxi (LX dxj ) =
gij
X i
X j
= X k k dxi dxj + gij k dxk dxj + gij k dxi dxk =
x 
x
 x
k
k
g
X
X
ij
= X k k + gkj
+ gik j dxi dxj ,
x
xi
x
dove nellultima uguaglianza abbiamo semplicemente cambiato nome agli indici
ripetuti. Le equazioni tra parentesi quadre sono dette equazioni di Killing. Si pu`o
vedere che LX g = 0 se e solo se LX commuta con le operazioni ] e [ (di alzamento
e abbassamento di indici).
43

Capitolo 8. Derivata di Lie sui tensori


Esercizio 8.2.3. Sia g una metrica su M e sia g ] il tensore ottenuto alzando un indice.
Sia X un campo vettoriale. Calcolare in coordinate (LX g ] )[ LX g.
[Sar`a legato alle equazioni di Killing.]
Vediamo ora la seguente osservazione sullapproccio dinamico.
Nota 8.2.4. Sia s il flusso generato da X (M ). Allora, se t Tsr (M ), vale LX t =
d
(s t) 1 .
ds

Ricordiamo che s `e un diffeomorfismo e quindi `e legale fare pull-back di tensori di ogni tipo.

44

CAPITOLO 9

FORME DIFFERENZIALI

In questo capitolo tratteremo le forme differenziali su variet`a, che sono campi tensoriali
del tipo (0, k) totalmente antisimmetrici. Hanno applicazioni per esempio in geometria
perche possono dare informazioni sulla topologia delle variet`a.
9.1. FORME ESTERNE SU SPAZI VETTORIALI
Definizione 9.1.1. Dati V, W spazi vettoriali (finito dimensionali), le mappe antisimmetriche in Tk0 (V, W ) sono quelle per cui vale t(e1 , . . . , ek ) = sgn()t(e(1) , . . . , e(k) ) per
ogni e1 , . . . , ek V e per ogni Sk . Si indicano con k (V, W ) (per brevit`a indicheremo
anche k (V, R) = k (V )) e vengono dette k-forme esterne.
Dato t Tk0 (V, W ) `e possibile ottenere un elemento di k (V, W ) tramite antisimmetrizzazione. Se per esempio k = 2, dato t T20 (V, W ), possiamo definire il suo
antisimmetrizzato come At(e1 , e2 ) = 12 [t(e1 , e2 ) t(e2 , e1 )].
Vediamo quindi la definizione generale.
Definizione 9.1.2. La mappa alternante A : Tk0 (V, W ) k (V, W ) `e definita da
At(e1 , . . . , ek ) :=

1 X
(sgn)t(e(1) , . . . , e(k) ) ,
k! S
k

per ogni e1 , . . . , ek V .
Proposizione 9.1.3. La mappa A `e lineare e suriettiva su k (V, W ). Inoltre `e lidentit`
a
sulle k-forme, cio`e A|k (V,W ) = id|k (V,W ) , ed `e idempotente, cio`e A A = A.
Dimostrazione. Mostriamo che A `e lidentit`a sulle k-forme. Sia t k (V, W ), allora
1 X
sgn()t(e(1) , . . . , e(k) ) =
k! S
k
1 X
=
(sgn())2 t(e1 , . . . , ek ) = t(e1 , . . . , ek ) ,
k! S

At(e1 , . . . , ek ) =

dove abbiamo usato che t k (V, W ) e che cardSk = k!.


Nota 9.1.4. Visto che A2 = A, abbiamo kAk kAk2 e quindi kAk 1. Daltronde, le
permutazioni preservano la norma, perci`o kAtk ktk e di conseguenza kAk 1. Unendo
le due disuguaglianze otteniamo proprio kAk = 1.
Parliamo di forme esterne e parleremo di algebre esterne perche si pu`o fare un prodotto
esterno, detto wedge, che definiamo di seguito.
45

Capitolo 9. Forme differenziali


Definizione 9.1.5. Se Tk0 (V ) e Tl0 (V ). Il prodotto wedge k+l (V ) `e
definito da
(k + l)!
A( ) .
:=
k! l!
Esempio. Se , 1 (V )
= T 0 (V ), allora ( )(e1 , e2 ) = (e1 )(e2 ) (e2 )(e1 ).
1

Esercizio 9.1.6. Un mescolamento di tipo (k, l) `e una permutazione Sk+l tale che
(1) < . . . < (k) e (k + 1) < . . . < (k + l). Indichiamo mesc(k, l) linsieme dei
mescolamenti di tipo (k, l). Mostrare che, se k (V ) e l (V ), allora
X
( )(e1 , . . . , ek+l ) =
sgn()(e(1) , . . . , e(k) )(e(k+1) , . . . , e(k+l) ) .
mesc(k,l)

Proposizione 9.1.7. Se Tk0 (V ), Tl0 (V ) e Tm0 (V ), si ha


1. = (A) = (A);
2. `e bilineare;
3. = (1)kl ;
4. ( ) = ( ) =

(k+l+m)!
k! l! m!

A( ).

definiamo t(e1 , . . . , ek ) := t(e(1) , . . . , e(k) ).


Dimostrazione. 1 Dati Sk e t Tk0 (V ),P
1
Allora, con questa notazione, At = k! Sk (sgn)t. Abbiamo inoltre che
1 X
sgn()t(e(1) , . . . , e(k) ) =
k! S
k
1 X
=
sgn( )sgn()t(e (1) , . . . , e (k) ) = sgn()(At)(e1 , . . . , ek ) ,
k! S

A(t)(e1 , . . . , ek ) =

cio`e A(t) = sgn()At.


Ora, grazie alla linearit`a di A, abbiamo
A(A ) = A

!
1 X
1 X
sgn( )( ) =
sgn( )A( ) .
k! S
k! S
k

Sia quindi 0 Sk+l tale che


0 (1, . . . , k, k + 1, . . . , k + l) = ( (1), . . . , (k), k + 1, . . . , k + l) ,
per cui in particolare sgn( 0 ) = sgn( ). Allora otteniamo
1 X
1 X
sgn( 0 )A 0 ( ) =
(sgn 0 )(sgn 0 )A( ) =
k! S
k! S
k
k
1 X
=
A( ) ,
k! S

A(A ) =

dove abbiamo utilizzato la relazione ricavata prima. Perci`o A(A ) = A( )


e quindi (A) = .
46

9.1. Forme esterne su spazi vettoriali


2 Ovvia.
3 Sia 0 Sk+l data da 0 (1, . . . , k + l) = (k + 1, . . . , k + l, 1, . . . , k), allora (
)(e1 , . . . , ek+l ) = ( )(e0 (1) , . . . , e0 (k+l) ). Utilizzando la formula ottenuta nel
punto 1, abbiamo A( ) = sgn(0 )A( ) = (1)kl .
4 Applicando le definizioni e lassociativit`a del prodotto tensore, otteniamo
(k + l + m)!
k! (l + m)!
(k + l + m)!
=
k! (l + m)!
(k + l + m)!
=
k! l! m!

( ) =

A( ( )) =

(l + m)!
A( A( )) =
l! m!

A( )

e analogamente anche laltra equazione.


Nota 9.1.8. Dati 1 , . . . , k 1 (V ), abbiamo
X
(1 . . . k )(e1 , . . . , ek ) =
sgn()1 (e(1) ) . . . k (e(k) ) = det[i (ej )] .
Sk

Nota 9.1.9. Dal punto 4 della Proposizione 9.1.7, dati 1 d1 (V ), . . . , k dk (V ),


k )!
A( 1 . . . k ).
otteniamo 1 . . . k = (d1d+...+d
1 !...dk !
In particolare, applicando questa formula a 1-forme, si ha 1 . . . k = k! A(1
. . . k ). Perci`o, se e1 , . . . , en `e una base di V e se e1 , . . . , en `e la sua base duale, allora
(e1 . . . ek )(e1 , . . . , en ) = 1.
Vediamo ora la scrittura del prodotto wedge in componenti. Sia e1 , . . . , en una base di
V , allora le componenti
ti1 ...ik di t Tk0 (V ) sono date da t(ei1 , . . . , eik ). Abbiamo quindi
P
(At)i1 ...ik = k!1 Sk sgn() t(i1 )...(ik ) , cio`e A simmetrizza le componenti.
Perci`o, se k (V ) e l (V ), abbiamo
X
( )i1 ...ik+l =
sgn() (i1 )...(ik ) (ik+1 )...(ik+l ) .
mesc(k,l)

Definizione 9.1.10. Dato V spazio vettoriale, lo spazio (V ) =


algebra esterna di V .

k (V ) `e detto

Proposizione 9.1.11. Se V `e uno spazio vettoriale di dimensione n, k (V ) `e 0 per


k > n e ha dimensione nk per k = 1, . . . , n. Quindi (V ) ha dimensione 2n .
In particolare, se e1 , . . . , en `e una base di V , linsieme {ei1 . . . eik : 1 i1 < . . . <
ik n} `e una base di k (V ).
Corollario 9.1.12. Sia 1 (V ) e k (V ). Allora = 0 se e solo se esiste
k1 (V ) tale che = .
Dimostrazione. Se 1 (V ), allora = 0 1 per il punto 3 della Proposizione 9.1.7.
Quindi se = , abbiamo = 0 per il punto 4 della stessa proposizione.
1

Questo in generale `e falso per k pari: sia per esempio = e1 e2 + e3 e4 in R4 , allora =


2e e2 e3 e4 6= 0
1

47

Capitolo 9. Forme differenziali


Viceversa,
supponiamo che = 0. Sia e1 , . . . , en base di V tale che en = . Allora,
P
se = i1 <...<ik i1 ...ik ei1 . . . eik , la condizione = 0 implica che i coefficienti
in cui en non compare sono nulli. Quindi si fattorizza come en per una (k 1)-forma
.
Esempio.
1. Sia V = R2 , con {e1 , e2 } la base canonica e {e1 , e2 } la base duale. Ogni
1 (R2 ) si scrive come = 1 e1 + 2 e2 e ogni 2 (R2 ) si scrive come
= 12 e1 e2 .
2. In R3 , gli spazi 1 e 2 hanno la stessa dimensione e dunque sono isomorfi. Data
{e1 , e2 , e3 } base canonica e {e1 , e2 , e3 } base duale un isomorfismo `e il seguente:
e1 7 e2 e3 e cicliche. Questo `e detto operatore Hodge star che indichiamo con e
approfondiremo pi`
u avanti. Lisomorfismo standard di R3 con 1 (R3 ) `e loperatore
[ tale che (ei )[ = ei .
Allora [ : R3 2 (R) soddisfa
( [)(e f ) = e[ f [ ,
per ogni e, f R3 .
Questo segue dal fatto che, se = i ei e = j ej , allora
= (2 3 2 3 ) e2 e3 + (3 1 1 3 ) e3 e1 + (1 2 2 1 ) e1 e2 .
Esercizio 9.1.13. Siano v1 , . . . , vk V linearmente dipendenti. Mostrare che per ogni
k (V ) vale (v1 , . . . , vk ) = 0.
9.2. DETERMINANTI E VOLUMI
Il determinante di una matrice `e multilineare e antisimmetrico su righe e colonne di una
matrice. Se x1 , . . . , xn Rn hanno componenti xji , allora il determinante di (xji ) `e il
volume del parallelepipedo generato da x1 , . . . , xn . Possiamo indicare
X
sgn()x1(1) . . . xn(n) .
det[x1 , . . . , xn ] =
Sn
generato da (e1 ), . . . , (en )
.
Se : Rn Rn `e lineare det = volume del parallelepipedo
volume del cubo unitario
Rivediamo ora le propriet`a del pull-back nel caso particolare di forme differenziali o
pi`
u in generale di tensori solo covarianti.

Proposizione 9.2.1. Sia L (V, W ), allora : Tk0 (W ) Tk0 (V ) `e lineare e valgono


1. (k (W )) k (V );
2. se L (W, Z), ( ) = ;
3. (idV ) = idTk0 (V ) ;
4. se GL(V, W ), allora GL(Tk0 (W ), Tk0 (V )) e ( )1 = (1 ) = . Se
anche GL(W, Z), allora ( ) = ;
5. se k (W ), l (W ), allora ( ) = ( ) ( ).
48

9.2. Determinanti e volumi


Ricordiamo che dim(n (V )) = 1, dove dim(V ) = n, per cui ha senso la seguente
definizione.
Definizione 9.2.2. Se V ha dimensione n e L (V, V ), il determinante det() di `e
definito come lunica costante tale che = det(), per qualsiasi n (V ).
Proposizione 9.2.3. Sia e1 , . . . , en una base di V con base duale e1 , . . . , en . Sia
L (V, V ) tale che (ei ) = Aji ej . Allora det() = det A.
Dimostrazione. Dalla dimostrazione del punto 4 della Proposizione 9.1.7, abbiamo
det() = (e1 . . . en )(e1 , . . . , en ) = (e1 . . . en )((e1 ), . . . , (en )) =
= n! A(e1 . . . en )((e1 ), . . . , (en )) =
X
X
=
sgn()e1 ((e(1) )) . . . en ((e(n) )) =
sgn()A1(1) . . . An(n)
Sn

Sn

= det A ,
che `e quanto cercato.
Proposizione 9.2.4. Siano , L (V, V ). Allora
1. det( ) = det det ;
2. det(idV ) = 1;
3. `e un isomorfismo se e solo se det 6= 0 e in tal caso det(1 ) = (det )1 .
Dimostrazione. Lunica dimostrazione non ovvia `e quella del fatto che se det 6= 0, allora
`e un isomorfismo. Basta dimostrare che se non `e un isomorfismo, allora det = 0.
Se non `e un isomorfismo, esiste e = e1 ker . Completiamo e1 ad una base
{e1 , . . . , en } di V . Data n (V ), allora
( )(e1 , . . . , en ) = ((e1 ), . . . , (en )) = (0, (e2 ), . . . , (en )) = 0 ,
perche `e multilineare. Perci`o det = 0, come voluto.
Definizione 9.2.5. Gli elementi di n (V ) sono detti elementi di volume. Se 1 , 2 sono
elementi di volume diciamo che 1 2 se esiste c > 0 tale che 1 = c2 . Una classe di
equivalenza di elementi di volume `e detta unorientazione su V .
Uno spazio orientato (V, []) `e uno spazio vettoriale con unorientazione []. La classe
[] `e detta orientazione inversa.
Una base {e1 , . . . , en } di (V, []) orientato `e detta essere orientata positivamente se
(e1 , . . . , en ) > 0. Ovviamente tale definizione `e indipendente dalla scelta di un elemento
di [].
Proposizione 9.2.6. Sia g T20 (V ) simmetrico e definito positivo.
Allora esiste una
P
base {e1 , . . . , en } di V con base duale {e1 , . . . , en } tale che g = ni=1 ei ei . Questa base
`e detta ortonormale rispetto a g.
Dimostrazione. La dimostrazione `e analoga al caso di Rn utilizzando un processo di
ortogonalizzazione di Gram-Schmidt.
Sia e1 tale che g(e1 , e1 ) = 1 e siano V1 = span{e1 } e V2 = {e : g(e, e1 ) = 0}. Visto che
g `e definita positiva, V1 V2 = {0}. Dato z V , allora z = g(e1 , z)e1 + (z g(e1 , z)e1 ),
dove il secondo termine appartiene a V2 . Quindi V = V1 V2 . Scegliamo quindi e2 V2
tale che g(e2 , e2 ) = 1 e cos` via fino a completare la base.
49

Capitolo 9. Forme differenziali


Proposizione 9.2.7. Sia V uno spazio vettoriale n dimensionale e sia g T20 (V ) simmetrico, definito positivo. Allora, se [] `e unorientazione in V , esiste un unico elemento di volume (g) [], detto g-volume, tale che (g)(e1 , . . . , en ) = 1 per ogni base
e1 , . . . , en di V ortonormale rispetto a g e orientata. Se poi e1 , . . . , en `e la base duale,
allora (g) = e1 . . . en .
In generale, se f1 , . . . , fn `e una base orientata positivamente e se f i `e la base duale,
allora
1
(g) = |det[g(fi , fj )]| 2 f 1 . . . f n .
Dimostrazione. Sia {e1 , . . . , en } una base ortonormale
rispetto a g, che ci `e garantita
Pn p
p
dalla Proposizione 9.2.6. Allora g(fi , fj ) = p=1 e e (fi , fj ).
Se GL(V, V ) `e tale che fi = (ei ) = Aji ej , allora
g(fi , fj ) =

n
X

ep ep (Aki ek , Alj el ) =

p=1

n
X

kp lp Aki Alj =

p=1

n
X

Api Apj = (A AT )ji ;

p=1

perci`o, sfruttando la Proposizione 9.2.3, abbiamo det[g(fi , fj )] = (det A)2 = (det )2 .


Se ora {e1 , . . . , en } `e orientata positivamente e g-ortonormale, allora per la richiesta
di multilinearit`a esiste ununica (g) = tale che (e1 , . . . , en ) = 1. Mostriamo che (g)
cos` definita rispetta le ipotesi richieste.
Se f1 , . . . , fn `e unaltra base orientata positivamente e g-ortonormale, sia come
sopra. Allora per quanto detto prima |det | = 1. Inoltre per la positivit`a della base e la
definizione di abbiamo 0 < (f1 , . . . , fn ) = ( )(e1 , . . . , en ) = det , quindi det = 1
e in particolare (f1 , . . . , fn ) = 1, come voluto.
La seconda affermazione `e implicata dalla terza e per questultima si usa la formula
1
(f1 , . . . , fn ) = det = |det[g(fi , fj )]| 2 , con le notazioni date allinizio.
Un prodotto interno (simmetrico e definito positivo) in V ne induce uno anche sui
(V ), vediamo come.
Siano = i1 ...ik ei1 . . . eik e = i1 ...ik ei1 . . . eik elementi di k (V ) e sia
i1 ...ik

= g i1 j1 . . . g ik jk j1 ...jk .
Definisco
X
1 X
i1 ...ik i1 ...ik =
g (k) (, ) :=
i1 ...ik i1 ...ik .
k!
i ...i
i <...<i
k

Vediamo che g (k) `e indipendente dalla base scelta. Se f1 , . . . , fn `e unaltra base, siano
= a0 1 ...ak f a1 . . . f ak e = a0 1 ...ak f a1 . . . f ak . Se ei = Aai fa e B = A1 , allora
a0 1 ...ak 0a1 ...ak = i1 ...ik Bai11 . . . Baikk Aaj11 . . . Aajkk j1 ...jk =
= i1 ...ik ji11 . . . jikk j1 ...jk = i1 ...ik i1 ...ik ,
da cui la buona definizione di g (k) . Dati , k (V ) indicheremo anche h, i =
g (k) (, ).
Proposizione 9.2.8. Sia g un prodotto interno in V (simmetrico e definito positivo).
Allora g induce il prodotto interno g (k) su k (V ). Inoltre, se e1 , . . . , en `e ortonormale
rispetto a g, allora la base {ei1 . . . eik : i1 < . . . < ik } `e ortonormale rispetto a g (k) .
50

9.3. Operatore di Hodge star


9.3. OPERATORE DI HODGE STAR
Proposizione 9.3.1. Sia V uno spazio n-dimensionale orientato e sia g T20 (V ) un
tensore simmetrico e definito positivo. Sia = (g) lelemento di volume corrispondente.
Allora esiste un unico isomorfismo : k (V ) nk (V ), detto operatore di Hodge star,
che soddisfa
() = h, i
(9.3.1)
per ogni , k (V ).
Inoltre, se {e1 , . . . , en } `e una base di V orientata positivamente e ortonormale con
base duale e1 , . . . , en , allora
(e(1) . . . e(k) ) = sgn()(e(k+1) . . . e(n) )

(9.3.2)

per ogni mescolamento di tipo (k, n k).


Dimostrazione. unicit`
a: Supponiamo che soddisfi lEquazione (9.3.1). Sia = e(1)
(k)
... e
e sia uno dei vettori in k (V ) ortonormali del tipo ei1 . . . eik con
i1 < . . . < ik .
DallEquazione (9.3.1) = 0 a meno che (i1 , . . . , ik ) = ((1), . . . , (k)) quindi
esiste a R tale che = ae(k+1) . . . e(n) . Di conseguenza abbiamo
= a sgn(), ma la Proposizione 9.2.8 implica h, i = 1, quindi deve valere
a = sgn() e perci`o `e unico.
esistenza: Definiamo loperatore sulla base ortonormale {ei1 . . . eik : i1 < . . . < ik },
utilizzando lEquazione (9.3.2). Possiamo verificare poi lEquazione (9.3.1) usando
questa base ( `e un isomorfismo e manda basi ortonormali in basi ortonormali).
Proposizione 9.3.2. Siano V, g, come sopra. Allora per ogni , k (V ) loperatore
soddisfa le seguenti propriet`a
1. = = h, i;
2. 1 = e = 1;
3. = (1)k(nk) ;
4. h, i = h, i.
Dimostrazione. La 1 segue dallEquazione (9.3.1) e dal fatto che g (k) (, ) = h, i `e
simmetrico. Mentre la 2 segue dallEquazione (9.3.2) ponendo = id.
Vediamo ora il punto 3. Sia = e(1) . . . e(k) , allora per lEquazione (9.3.2)
applicata alla permutazione ((k + 1), . . . , (n), (1), . . . , (k)) vale
(e(k+1) . . . e(n) ) = (1)k(nk) sgn() e(1) . . . e(k)
Perci`o, riapplicando lEquazione (9.3.2), abbiamo
(e(1) . . . e(k) ) = sgn() (e(k+1) . . . e(n) ) =
= sgn()2 (1)k(nk) e(1) . . . e(k) =
= (1)k(nk) e(1) . . . e(k) ,
51

Capitolo 9. Forme differenziali


da cui abbiamo quanto cercato poiche gli elementi del tipo e(1) . . . e(k) generano
k (V ).
La 4 si pu`o verificare usando una base ortonormale per k (V ), oppure usare la 1 e la
3 per trovare
h, i = () ( ) = (1)k(nk) () = () = h, i .

`
9.4. FORME DIFFERENZIALI SU VARIETA
Estendiamo lalgebra esterna al fibrato tangente di una variet`a. Se : U V U 0 V 0
`e un isomorfismo locale di fibrati, allora : U k (V ) U 0 k (V 0 ) `e anchesso un
isomorfismo locale di fibrati.
DefinizioneS9.4.1. Sia : E B un fibrato vettoriale. Per ogni A B poniamo
k (E)|A = bA k (Eb ) e k (E) = k (E)|B . Chiamiamo lovvia proiezione k () :
k (E) B.
Quando E = T M per M variet`a, poniamo k (M ) = k (T M ). Inoltre poniamo
1 (M ) = T10 (M ) = (M ) e in generale k (M ) = (k (M )) le sezioni C su k (M ).
Estendiamo ora il prodotto wedge alle forme definite su una variet`a.
Proposizione 9.4.2. Se k (M ) e l (M ), sia : M k+l (M ) definita
da ( )(m) = (m) (m). Allora k+l (M ) e questo operatore `e bilineare e
associativo.
Dimostrazione. Bilinearit`a e associativit`a seguono dalle propriet`a del prodotto wedge
in (Tm M ). La regolarit`a si mostra lavorando in carta.
Definizione 9.4.3. Elementi di k (M ) sono detti k-forme e (M ) = nk=0 k (M ) `e
detta algebra delle forme differenziali esterne.
Nota 9.4.4. Vediamo la scrittura di una forma in coordinate locali. Se t Tsr (M ),

j1
js
k
r
abbiamo visto che t = tij11...i
...js xi1 . . . xir dx . . . dx . Data  (M ), allora
= i1 ...ik dxi1 . . . dxik con i1 < . . . < ik e i1 ...ik = xi1 , . . . , xik .
Nota 9.4.5. Se f : M N `e regolare, `e naturale considerare il pull-back f : k (N )
k (M ).
9.5. DERIVATA ESTERNA
Studiamo ora una mappa d : (M ) (M ) che ha propriet`a particolarmente interessanti.
Teorema 9.5.1. Sia M una variet`a n-dimensionale. Allora per ogni k = 0, . . . , n e per
ogni U M aperto esiste unico d = dk : k (U ) k+1 (U ) (detta derivata esterna) tale
che
1. d `e una -antiderivazione, cio`e d `e R-lineare e per ogni k (U ) e l (U )
si ha d( ) = d + (1)k d;
52

9.5. Derivata esterna


2. se f C (M ), allora df coincide con il differenziale di f ;
3. d2 = d d = 0;
4. d `e naturale rispetto alle restrizioni, cio`e se U V M con U, V aperti e
k (V ), allora d(|U ) = ( d)|U (quindi d `e locale).
Dimostrazione. unicit`
a: Sia (U, ) una carta di M e consideriamo una k-forma
k
(U ) con = i1 ...ik dxi1 . . . dxik . Se k = 0 e f = xi , allora df = d(xi ) = dxi .
Dalla 3 abbiamo d( dxi ) = 0, quindi per la 1 otteniamo d( dxi1 . . . dxik ) = 0.
Perci`o d = ( di1 ...ik ) dxi1 . . . dxik =
i = 1, . . . , n e i1 < . . . < ik .

i1 ...ik
xi

dxi dxi1 . . . dxik , con

Questa formula caratterizza d su tutti gli aperti di un atlante di M , quindi per la


4 su tutti gli aperti di M .
esistenza: Definiamo d come dalla formula sopra e verifichiamo tutte le propriet`a.
Innanzitutto d `e ovviamente R-lineare.
Siano ora k (U ) e l (U ) con = i1 ...ik dxi1 . . . dxik e = j1 ...jl dxj1
. . . dxjl . Allora
d( ) =
= d(i1 ...ik j1 ...jl dxi1 . . . dxik dxj1 . . . dxjl ) =


j1 ...jl
i1 ...ik
j1 ...jl + i1 ...ik
dxi dxi1 . . . dxik dxj1 . . . dxjl =
=
xi
xi
= d + (1)k d .
Per la 3, utilizzando il lemma di Schwarz, abbiamo
d( d) =

2 i1 ...ik i
dx dxj dxi1 . . . dxik = 0 .
i
j
x x

Per verificare 4 mostriamo che la definizione non dipende dalle carte. Siano (U, ),
(U 0 , 0 ) carte tali che U U 0 6= . Per unicit`a locale d = d0 in U U 0 e quindi
abbiamo anche lunicit`a globale.
Corollario 9.5.2. Sia k (U ) con U Rn . Allora
k
X
d(x)(v0 , . . . , vk ) =
(1)i D(x)vi (v0 , . . . , vi , . . . , vk ) ,
i=0

dove D `e il differenziale classico.


Dimostrazione. Sia (x) = i1 ...ik (x) dxi1 . . . dxik , allora
D(x)vi =

i1 ...ik j
vi dxi1 . . . dxik ,
j
x
53

Capitolo 9. Forme differenziali


quindi il membro destro dellenunciato `e
X
i1 ...ik j
ik
i1
.
. . . v(k)
(1)i
vi sgn() v(1)
j
x
S
k

Daltra parte
i1 ...ik j
dx dxi1 . . . dxik (v0 , . . . , vk ) =
j
x
X i ...i
j
ik
i1
1
k
.
. . . v(k)
sgn() v(0)
v(1)
=
j
x
S

d(v0 , . . . , vk ) =

k+1

A questo punto per`o `e facile verificare che le due espressioni trovate coincidono, passando
da una permutazione Sk ad una permutazione Sk+1 mandando lo 0 in i.
Esempio.

g

2
1.
 In R , sia = f (x, y) dx + g(x, y) dy, allora d = df dx + dg dy =
f
dx dy.
y

2. In R3 , data f funzione regolare, abbiamo df =

f
x

dx + f
dy + f
dz e f = ( df )] .
y
z

Esercizio 9.5.3. In R3 , sia F = (F1 , F2 , F3 ), allora F [ = F1 dx + F2 dy + F3 dz e


(F [ ) = F3 dx dy F2 dx dz + F1 dy dz. Mostrare che dF [ = (rotF )[ . Verificare
che div F = d(F [ ) e d2 = 0 e quindi che div(rotF ) = 0.
Allo stesso modo, se f : R3 R `e regolare d df = 0 equivale a rot(f ) = 0.
Teorema 9.5.4. Sia f : M N regolare. Allora, per ogni k (N ) e l (N ), f
soddisfa:
1. f ( ) = f () f ();
2. f ( d) = d(f ).
Dimostrazione. La 1 `e gi`a vista, per esempio come conseguenza del punto 2 della Proposizione 9.2.1. Quindi dimostriamo il punto 2.
Sia (U, ) carta di M e (V, ) carta di N tali che f (U ) V . Sia = i1 ...ik dxi1
. . . dxik , allora
i1 ...ik i
dx dxi1 . . . dxik ;
d =
xi
inoltre per la 1 abbiamo
f = f (i1 ...ik )f ( dxi1 ) . . . f ( dxik ) .
Se C (N ), d(f ) = f ( d). Quindi usando nuovamente la 1 e d d = 0, abbiamo
d(f ) = f ( di1 ...ik ) f dxi1 . . . f dxik = f ( d) .

Corollario 9.5.5. Se f `e un diffeomorfismo, allora f ( d) = d(f ).


Corollario 9.5.6. Se X (M ), k (M ), allora LX k (M ) e d(LX ) = LX d.
d
Dimostrazione. Per definizione LX (p) = dt
(Ft )(p)|t=0 , dove Ft `e il flusso generato da
X. Perci`o, visto che Ft k (M ), otteniamo che LX k (M ).
Inoltre d commuta con il pull-back, allora Ft ( d) = d(Ft ) passando al limite nei
rapporti incrementali otteniamo proprio dLX = LX d.

54

9.6. Prodotto interno


9.6. PRODOTTO INTERNO
Ricalcando la Definizione 6.1.6, estendiamo il concetto di prodotto interno alle forme.
Definizione 9.6.1. Sia M una variet`a, X (M ) e k+1 (M ). Definiamo il prodotto interno o contrazione di X e come iX Tk0 (M ) tale che iX (X1 , . . . , Xk ) =
(X, X1 , . . . , Xk ).
Nota 9.6.2. Se C (M ), allora iX = 0.
Teorema 9.6.3. Dato X (M ), iX manda k+1 (M ) in k (M ). Inoltre, se k (M ),
l (M ), f C (M ), allora
1. iX `e R-lineare e iX ( ) = (iX ) + (1)k (iX );
2. if X = f iX ;
3. iX df = LX f ;
4. LX ( ) = (LX ) + (LX );
5. (formula di Cartan) LX = iX d + d(iX );
6. Lf X = f LX + df iX .
Dimostrazione. Il fatto che iX mandi k+1 (M ) in k (M ) e che iX sia R-lineare sono ovvi.
Introduciamo innanzitutto una notazione. Dati due multi-indici I e J indichiamo con

se J `e una permutazione pari di I


1
I
J = 1 se J `e una permutazione dispari di I

0
altrimenti
Allora, con questa notazione, vale
( )(vI ) =

IJK (vJ )(vK )

~K
~
J,

~ K
~ sottoinsiemi rispettivamente di k ed l indici ordinati. Allora
con J,
X
IJ
iv1 ( )(v2 , . . . , vk+l ) = ( )(v1 , . . . , vk+l ) =
1...k+l
(vI )(vJ ) =
~ J~
I,

IJ
1...k+l
(vI )(vJ ) +

IJ
1...k+l
(vI )(vJ ) =

~ J,1J
~
I,

~ J,1I
~
I,

1i2 ...ik J
1...k+l
(v1 , vi2 , . . . , vik )(vJ )+

1<i2 <...<ik ,J~

I1j2 ...jl
1...k+l
(vI )(v1 , vj2 , . . . , vjl ) =

~
I,1<j
2 <...<jl

i2 ...ik J
2...k+l
(iv1 )(vi2 , . . . , vik )(vJ )+

1<i2 <...<ik J\{1}


~

+ (1)k

Ij2 ...jl
2...k+l
(vI )(iv1 )(vj2 , . . . , vjl ) =

1<j2 <...<jl
~
I\{1}

= (iv1 )(v2 , . . . , vk+l ) + (1)k ( iv1 )(v2 , . . . , vk+l ) .


55

Capitolo 9. Forme differenziali


La 2 segue dal fatto che `e C (M )-multilineare. La 3 segue dalla definizione di df ,
mentre la 4 segue dal fatto che la derivata di Lie `e una derivazione tensoriale e commuta
con la mappa alternante.
Vediamo quindi la 5 tramite uninduzione in k. Il risultato `e vero per k = 0 per la
3, supponiamo ora che valga
per le k + 1 forme. Ogni
Pper le k forme e dimostriamolo

k + 1 forma si scrive come


dfi i dove fi C (M ) e i k (M ); infatti data
una (k + 1)-forma, abbiamo
= i1 ...ik+1 dxi1 . . . dxik+1 = dxi1 (i1 ...ik+1 dxi2 . . . dxik+1 ) .
Utilizzando quindi la 3 e lipotesi induttiva, abbiamo
iX d( df ) + diX ( df ) = iX ( df d) + d(iX ( df ) df iX ) =
= iX ( df ) d + df iX ( d) + d(iX ( df )) + iX ( df ) d + df d(iX ) =
= df (iX ( d) + d(iX )) + d(iX ( df )) = df LX + d(LX f ) .
Sfruttando infine che per il punto 4 abbiamo LX ( df ) = (LX df ) + df (LX )
e che per il Corollario 9.5.6 vale d(LX f ) = LX df , otteniamo il risultato.
Vediamo infine che il punto 6 segue dalla 5, poiche
Lf X = if X d + d(if X ) = f iX d + d(f iX ) =
= f iX d + df iX + f diX = f LX + df iX .

Proposizione 9.6.4. Sia f : M N e siano k (N ) e Y (M ). Allora iY `e


naturale rispetto al push-forward, cio`e iY f = f if Y .
Dimostrazione. Chiamiamo X = f Y (N ) e siano p M , q = f (p) N e
v1 , . . . , vk1 Tp M . Allora
iY (f )(p)(v1 , . . . , vk1 ) = f (p)(Y (p), v1 , . . . , vk1 ) =
= (q)(f (Y (p)), f v1 , . . . , f vk1 ) =
= (q)((X f )(p), f v1 , . . . , f vk1 ) =
= (iX )(q)(f v1 , . . . , f vk1 ) = (f iX )(p)(v1 , . . . , vk1 ) .

Proposizione 9.6.5. Siano X0 , X1 , . . . , Xk (M ) e k (M ). Allora


d(X0 , X1 , . . . , Xk ) =

k
X

l , . . . , Xk ))+
(1)l LXl ((X0 , . . . , X

l=0

i, . . . , X
j , . . . , Xk ) .
(1)i+j (LXi (Xj ), X0 , . . . , X

0i<jk

Dimostrazione. Procediamo per linduzione su k. Per k = 0 abbiamo gi`a visto nel


Teorema 9.6.3 che d(X0 ) = LX0 .
56

9.6. Prodotto interno


Supponiamo quindi che la tesi valga per k 1 e sia k (M ). Per il punto 5 del
Teorema 9.6.3, abbiamo
d(X0 ,X1 , . . . , Xk ) = (iX0 d)(X1 , . . . , Xk ) =
=LX0 (X1 , . . . , Xk ) d(iX0 )(X1 , . . . , Xk ) =
=LX0 ((X1 , . . . , Xk ))

k
X

(X1 , . . . , LX0 Xl , . . . , Xk ) d(iX0 )(X1 , . . . , Xk ) ,

l=1
k1

ma, visto che iX0

(M ), per ipotesi induttiva vale

d(iX0 )(X1 , . . ., Xk ) =
=

k
X

l , . . . , Xk ))+
(1)l1 LXl (iX0 (X1 , . . . , X

l=1

i, . . . , X
j , . . . , Xk ) =
(1)i+j2 (iX0 )(LXi (Xj ), X1 , . . . , X

1i<jk

k
X

l , . . . , Xk ))+
(1)l1 LXl ((X0 , X1 , . . . , X

l=1

i, . . . , X
j , . . . , Xk )
(1)i+j2 (X0 , LXi (Xj ), X1 , . . . , X

1i<jk

Quindi sostituendo nellequazione precedente


d(X0 , X1 , . . . , Xk ) =

k
X

l , . . . , Xk ))+
(1)l LXl ((X0 , . . . , X

l=0

k
X

l , . . . , Xk )+
(1)l (LX0 Xl , . . . X1 , . . . , X

l=1

i, . . . , X
j , . . . , Xk ) ,
(1)i+j (LXi (Xj ), X0 , X1 , . . . , X

1i<jk

da cui segue ovviamente quanto cercato.


Corollario 9.6.6. Siano X, Y (M ), allora [ LX , iY ] := LX iY iY LX = i[ X, Y ] e
[ LX , LY ] := LX LY LY LX = L[ X, Y ] . Quindi in particolare iX LX = LX iX .
Dimostrazione. Sia k (U ) e X1 , . . . , Xk1 (U ), allora
(iY LX )(X1 , . . . , Xk1 ) =(LX )(Y, X1 , . . . , Xk1 ) =
=LX ((Y, X1 , . . . , Xk1 )) ([ X, Y ] , X1 , . . . , Xk1 )

k1
X

(Y, X1 , . . . , [ X, Xl ] , . . . Xk1 ) =

l=1

=LX (iY (X1 , . . . , Xk1 )) i[ X, Y ] (X1 , . . . , Xk1 )

k1
X

iY (X1 , . . . , [ X, Xl ] , . . . , Xk1 ) =

l=1

=(LX iY )(X1 , . . . , Xk1 ) (i[ X, Y ] )(X1 , . . . , Xk1 ) .


Per la seconda equazione si usa invece la prima e il punto 5 del Teorema 9.6.3.
57

CAPITOLO 10

TEOREMA DI STOKES

10.1. ORIENTAZIONE
Definizione 10.1.1. Una variet`a n-dimensionale connessa M `e detta orientabile se esiste
n (M ) tale che (p) =
6 0 per ogni p M . Una tale forma `e detta una forma di
volume su M .
Proposizione 10.1.2. Sia M una n-variet`a connessa. Allora M `e orientabile se e solo
se esiste un atlante (Ui , i ) con i : Ui Vi Rn tale che il determinante jacobiano
delle mappe di transizione sia positivo.
Definizione 10.1.3. Sia M variet`a orientabile. Due forme di volume 1 , 2 sono dette
equivalenti se esiste f C (M ), f > 0 tale che 1 = f 2 .
Una variet`a orientata `e una variet`a M con unorientazione [], dove per orientazione
si intende una classe di equivalenza di forme di volume.
Esercizio 10.1.4. Mostrare che S n `e orientabile per ogni n N.
Esercizio 10.1.5.
1. Sia : M M tale che 2 = id. Supponiamo che esista
: M N tale che d sia invertibile puntualmente e 1 (n) = {m, (m)}. Sia
(M ) = { n (M ) : = }. Mostrare che : n (N ) + (M ) `e un
isomorfismo.
2. Mostrare che RPn `e orientabile per n dispari e non orientabile per n pari.
Suggerimento: Prendere M = S n , N = RPn , (x) = x nel punto precedente.
Mostrare che S n = (1)n+1 S n .
Esercizio 10.1.6. (Nastro di Mobius) Il nastro di Mobius M si ottiene quozientando R2
tramite la relazione di equivalenza data da (x, y) (x + k, (1)k y) per ogni k Z. In
particolare M risulta una variet`a connessa non compatta. Definiamo : R2 R2 tale
che (x, y) = (x+1, y). Sia la proiezione da R2 in M, allora = . Se 2 (M),
sia f C (R2 ) tale che f R2 = . Mostrare che f (x + 1, y) = f (x, y) e che f si
deve annullare in qualche punto.
Proposizione 10.1.7 (Criterio di orientabilit`a). Sia N una variet`a n-dimensionale
orientabile e sia M una sottovariet`a k-dimensionale con fibrato normale banale, cio`e esistono Vi : M T N per i = 1, . . . , n k tali che span{Tp M, V1 (p), . . . , Vnk (p)} = Tp N
per ogni p M . Allora M `e orientabile.
Corollario 10.1.8. Sia M orientabile e sia f C (M ). Sia c R valore regolare per
f (cio`e f (p) 6= 0 per ogni f (p) = c). Allora f 1 (c) `e orientabile.
59

Capitolo 10. Teorema di Stokes


di M orientabile.
Nota 10.1.9. Se M non `e orientabile, esiste un doppio rivestimento M

Sia M := {(m, [m ]) : m M, [m ] orientazione di Tm M }. Definiamo delle carte su

M come segue. Sia [] unorientazione di Rn e sia A L (Rn , Rn ) tale che A(e1 ) = e1


e A(ei ) = ei per i = 2, . . . , n, dove e1 , . . . , en `e la base standard di Rn . Allora ovviamente
A cambia lorientazione di Rn . Se : U M V Rn `e una carta di M , siano
U = {(u, [u ]) : u U, [ (u )] = []} e poniamo + (u, [u ]) = (u), (u, [u ]) =
che la rendono una variet`a orientabile.
(A )(u). Allora (U , ) sono carte di M
M tale che (m, [m ]) = m `e un doppio rivestimento di M con
Inoltre : M
1
(m) = {(m, [m ]), (m, [m ])}.
`
10.2. INTEGRAZIONE SU VARIETA
Definizione 10.2.1. Sia U un aperto di Rn e n (U ) a supporto compatto. Se
(x) = n!1 i1 ...in dxi1 . . . dxin = 1...n dx1 . . . dxn , definiamo

:=
1...n dx1 . . . dxn .
Rn

Proposizione 10.2.2. Siano U, V Rn aperti e sia f : U V diffeomorfismo. Supponiamo che f preservi lorientazione. Se n (V ) ha supporto compatto, allora
f n (U ) ha supporto compatto e

=
f .
V

U
j

`e la
Dimostrazione. Applichiamo la Proposizione 9.2.3 con ei = x i , allora Aji = f
xi
matrice jacobiana Jf di f . Quindi

det(Jf )(x) 1...n (f (x)) dx1 . . . dxn =


det(Jf ) ( f ) =
f =
U
U
U
=
1...n (y) dy 1 . . . dy n =
,
V

dove abbiamo sostituito y = f (x) e abbiamo sfruttato che f preserva lorientazione per
il cambio di variabile.
Definizione 10.2.3. Sia M una variet`a orientata con orientazione []. Supponiamo che
n (M ) abbia supporto compatto contenuto in U , dove (U, ) `e una carta di M
orientata positivamente. Definiamo

:=
(|U ) .
()

(U )

Proposizione 10.2.4. Supponiamo che n (M ) abbia supporto compatto C U V ,


con (U, ), (V, ) carte orientate positivamente in M variet`a orientata. Allora () =

.
()
Dimostrazione. Per la Proposizione 10.2.2, abbiamo

=
(|U ) =
(|U V ) =
()

(U )

(U V )

(U V )

60

( ) (|U V ) =

.
()

10.2. Integrazione su variet`a


Corollario 10.2.5. Se ha supporto compatto in U , dominio di una carta (U, ), `e ben
definito

:=
.
U

()

Definizione 10.2.6. Sia n (M ) a supporto compatto. Sia A un atlante di M


orientabile composto da carte con orientazione positiva. Sia (U , , ) una partizione
dellunit`a subordinata ad A. Sia := , allora ha supporto compatto nella carta
U A. Definiamo allora lintegrale della forma su M come

:=

Proposizione 10.2.7. Valgono i due seguenti fatti riferiti alla Definizione 10.2.6.
1. La sommatoria contiene solo un numero finito di termini.
2. La definizione `e indipendente dalla scelta dellatlante (orientato positivamente) e
della partizione dellunit`a.
Dimostrazione.
1. Per ogni p M , esiste U intorno tale che solo un numero finito di
sono non nulle. Inoltre, per compattezza, possiamo ricoprire il supporto di
con un numero finito di tali intorni.
2. Sia (V , , ) unaltra partizione dellunit`a subordinata a B atlante orientato
positivamente. Allora le funzioni (
) soddisfano (p) = 0 tranne che per

P
un numero finito di indici. Inoltre , (p) = 1 per ogni p. Abbiamo

dove abbiamo usato

X
,

= 1 e

U U

X
,

U U

= 1.

Esercizio 10.2.8. Siano M, N orientate ed f : M N un diffeomorfismo


che preserva

n
lorientazione. Mostrare che, se (N ) ha supporto compatto, allora N = M f .
Esercizio 10.2.9. (Fubini) Siano M m , N n variet`a orientate e si orienti il prodotto M N
con lorientazione prodotto (tramite il prodotto wedge). Siano pM , pN : M N M, N
le proiezioni dal prodotto ai fattori. Siano m (M ) e n (N ) e definiamo

:=

(pM ) (pN ), che `e a supporto compatto. Mostrare che M N = ( M )( N ).


Nota 10.2.10. Data una scelta di orientazione [] su una m-variet`a M , diciamo che una
base v1 , . . . , vm di Tx M `e orientata positivamente se (v1 , . . . , vm ) 0.
61

Capitolo 10. Teorema di Stokes


` CON BORDO
10.3. VARIETA
Definizione 10.3.1. Siano E1 , E2 Rn semispazi chiusi. Siano U, V aperti di E1 , E2 .
Una mappa f : U V `e regolare se per ogni x U esiste U1 intorno di x in Rn e V1
intorno di f (x) in Rn ed esiste f1 : U1 V1 regolare tale che f |U U1 = f1 |U U1 . In questo
caso definiamo il differenziale di f in x come Df (x) := Df1 (x).
La mappa f `e detta diffeomorfismo se esiste g : V U regolare che `e linversa di f .
Nota 10.3.2.
1. Df non dipende dalla scelta dellestensione f1 . Questo `e ovvio se x
non sta sul bordo, mentre al bordo si ragiona per approssimazione.
2. Siano U aperto in E1 , V aperto in E2 , f : U V diffeomorfismo. Allora le
restrizioni Int f : Int U Int V e f : U V sono diffeomorfismi.
Definizione 10.3.3. Una variet`a con bordo `e un insieme M munito di un atlante di carte
di bordo, cio`e coppie (U, ) tali che U M aperto e (U ) E, con E semispazio chiuso
di Rn . Si richiede che valgano la propriet`a di ricoprimento e la regolarit`a delle mappe di
transizione (nel senso della Definizione 10.3.1).
Definizione
10.3.4. Data M variet`
a con bordo, definiamo la parte interna Int M =
S
S 1
1

(Int(
(U
)))
e
il
bordo
M
=
i
i
i i ((i (Ui ))) di M .
i i
Estendiamo ora alle variet`a con bordo alcune definizioni date per variet`a non con
bordo, per definire infine lorientazione.
Pensiamo al tangente come un sottospazio n-dimensionale anche per i punti sul bordo.
Una forma di volume `e una n-forma che non si annulla in nessun punto. Diciamo che
(U, ) carta di bordo `e orientata positivamente se T (u) preserva lorientazione per ogni
u U.
` stato conveniente poter scegliere semispazi arbitrari e non solo R+ =
Nota 10.3.5. E
n
{xn 0}. Per esempio `e comodo per orientare M = [ 0, 1 ].
Vediamo quindi ora come possiamo orientare il bordo.
Definizione 10.3.6. Sia M una m-variet`a orientata con bordo. Siano x M e :
U E una carta orientata positivamente, con x U ed E semispazio chiuso. Una base
v1 , . . . , vm1 di Tx (M ) `e detta orientata positivamente se {(Tx )1 (n), v1 , . . . , vm1 } `e
orientata positivamente in M per ogni vettore n Rm che punta allesterno di E in (x).
Nota 10.3.7. In Rm ogni semispazio chiuso si scrive come E = {x : (x) 0} per
qualche funzionale lineare su Rm . Una scelta canonica di n `e n = .
10.4. TEOREMA DI STOKES
Teorema 10.4.1 (Stokes). Sia M una variet`a n-dimensionale orientata. Inoltre sia
n1 (M ) una forma a supporto compatto e sia i : M M linclusione del bordo
in M . Allora

i =
d .
M

Il membro di sinistra si denota anche con


integrale sia 0.

62

e, se M = , intendiamo che tale

10.4. Teorema di Stokes


Dimostrazione. Per linearit`a in e per lesistenza di partizioni dellunit`a possiamo supporre che abbia supporto nel dominio U di ununica carta. Allora in coordinate
n
X
i . . . dxn .
=
(1)i1 i dx1 . . . dx
i=1

Di conseguenza
n
X
i

d =

i=1

e quindi

d =
U

xi

dx1 . . . dxn ,

n
X
(U )

i=1

i 1
dx . . . dxn ,
xi

che `e ben definito se M `e orientata.


Distinguiamo ora in casi a seconda che U intersechi o no il bordo di M :
1. (U = ) In questo caso li-esimo termine della sommatoria `e



i i
i 1
n
i . . . dxn = 0 ,
dx . . . dx =
dx dx1 . . . dx
i
i
x
x
n1
n
R
R
R
perche i ha supporto compatto.
Quindi in questo caso abbiamo quello che vole

vamo, perche ovviamente U i = 0.


2. (U 6= ) Possiamo supporre E = Rn+ , allora lintegrale diventa
n
X
i=1

Rn
+

i 1
dx . . . dxn .
xi

Se i < n ragioniamo come prima, altrimenti se i = n lintegrale diventa

n dx1 . . . dxn1 .
Rn1

Daltra parte abbiamo

=
=
U

Rn
+

(1)n1 n (x1 , . . . , xn1 , 0) dx1 . . . dxn1 .

Rn
+

Lorientazione di M non `e quella standard, infatti la normale esterna `e en =


(0, . . . , 0, 1). Perci`o, lorientazione del bordo ha il segno di {en , e1 , . . . , en1 } che
`e (1)n , quindi

2n1
n
1
n1
n
1
n1
dx . . . dx
=
dx . . . dx
=
d .
= (1)
U

Rn1

Rn1

Definizione 10.4.2. Sia una forma di volume su M orientata e sia X (M ). La


divergenza div X C (M ) di X `e definita da LX = (div X).
63

Capitolo 10. Teorema di Stokes


La divergenza si interpreta come espansione o contrazione del volume.
Teorema 10.4.3 (Gauss). Sia M orientata e con bordo. Sia X (M ) a supporto
compatto e sia una forma di volume su M . Allora

(div X) =

iX .
M

Dimostrazione. Sfruttando il punto 5 del Teorema 9.6.3 e il fatto che d = 0 poiche `e


una (n + 1)-forma, abbiamo che
(div X) = LX = d(iX ) + iX d = d(iX )
e di conseguenza la conclusione segue dal Teorema 10.4.1 (Stokes).
Se M ammette una metrica g esiste ununica normale unitaria (rispetto a g) che punta
esternamente a M e che chiamiamo nM . Inoltre g determina univocamente forme di
volume M , M su M, M .
Corollario 10.4.4. Se X (M ), allora

g(X, nM )M .

(div X)M =
M

Dimostrazione. Localmente, scegliamo una carta (U, ) tale che nM = xm . Perci`o, se


v1 , . . . , vm1 `e una base orientata di Tx M , vale
M (x)(v1 , . . . , vm1 ) = M (x)(

, v1 , . . . , vm1 ) .
xm

Segue allora che

, v1 , . . . , vm1 ) =
xm
= X m (x)M (x)(v1 , . . . , vm1 ) .

(iX M )(x)(v1 , . . . , vm1 ) = M (X i (x)vi + X m

Inoltre X m = g(X, nM ), quindi basta applicare il Teorema 10.4.3 (Gauss).


Esercizio 10.4.5. Sia M una variet`a compatta, orientabile e senza bordo, sia forma
di volume e sia infine X (M ) con div X = 0. Mostrare che per ogni f, g C (M )
vale

gX(f ) =
M

f X(g) .
M

Esercizio 10.4.6. Sia M una variet`a orientabile (n + 1)-dimensionale, sia f : M


N n+1 una mappa regolare e sia n (N ) con d = 0. Mostrare che se f si estende ad
M , allora M f = 0.
64

10.5. Formula di coarea


10.5. FORMULA DI COAREA
Sia (M, g) una variet`a orientabile (m + 1)-dimensionale. Sia f : M R una funzione regolare senza punti critici. Allora Mt = f 1 (t) `e una sottovariet`a regolare m-dimensionale
orientabile, che supponiamo compatta per ogni t. Inoltre per ogni t chiamiamo t la
forma di volume su Mt indotta da g, la forma di volume su M sempre indotta da g e
f
.
poniamo n = |f
|
g

Teorema 10.5.1 (Formula di coarea). Sia F : M R a supporto compatto, allora con


le notazione precedenti vale
!


F
F =
t dt .
M
R
Mt |f |g
Dimostrazione. Fissiamo t0 R e p Mt0 . Visto che df (p) 6= 0, per il teorema della
funzione implicita esistono x1 , . . . , xm tali che (f, x1 , . . . , xm ) sono coordinate di M in un
intorno di p. Quindi esiste funzione regolare positiva tale che = df dx1 . . . dxm .
Allora
t0 = in |Mt0 = in ( df dx1 . . . dxm )|Mt0 =
= in ( df ) dx1 . . . dxm |Mt0 df in ( dx1 . . . dxm )|Mt0 =
= in ( df ) dx1 . . . dxm |Mt0 = |f |g dx1 . . . dxm |Mt0 ,
dove abbiamo utilizzato che df |Mt0 = 0. A questo punto integrando abbiamo la conclusione.
Consideriamo come prima applicazione del Teorema 10.5.1 (Formula di coarea) il
calcolo dei volumi delle sfere.
Consideriamo limmersione S n , Rn+1 = {(t, x1 , . . . , xn )} e siano p = S n {t =
1} S n i due poli. Sia : S n R la proiezione su t, allora d 6= 0 se t 6= 1.
1
n1
Abbiamo 1 (t)
con r(t) = (1 t2 ) 2 , dove al pedice indichiamo il raggio della
= Sr(t)
1

sfera. Se ora `e langolo fra lasse t e Tp Sn , allora cos = |p p0 | = (1 t2 ) 2 , dove p0 la


1
proiezione su {t} {0}; perci`o |(p)| = (1 t2 ) 2 .
Per il Teorema 10.5.1 (Formula di coarea) vale
1

1
1
n2
1
1
2 n2
n = 2
t = 2n1
(1 t ) 2 dt = n1
(1 s) 2 s 2 ds ,
0 || Mt
0
0
da cui
n =

2( 12 )n+1
.
( n+1
)
2

Altre applicazioni includono:

n
1. disuguaglianze ottimali di Sobolev, tipo |u| n1 Cn |u|;
2. riarrangiamento sferico. Sia u : Rn R, sia At = {u > t}, u radiale decrescente
tale che |At | = |At | con At = {u > t}. Questa procedura serve a regolarizzare e
conserva la normale Lp

p
u = (u )p .
65

Capitolo 10. Teorema di Stokes


Con la formula di coarea si pu`o dimostrare

2
|u | |u|2 .

66

CAPITOLO 11

GRUPPI DI LIE

11.1. GRUPPI E ALGEBRE DI LIE


Definizione 11.1.1. Un gruppo topologico `e un insieme con struttura sia di gruppo che
di spazio topologico tale che le operazioni di prodotto ed inverso siano continue.
Definizione 11.1.2. Un gruppo di Lie `e un gruppo che ha una struttura di variet`a
differenziabile (di classe C ) tale che il prodotto e linverso sono C .
Esempio. Sono gruppi di Lie (Rn , +), (S 1 C, ), (C , ), il toro (T n , +), GL(n, R).
Proposizione 11.1.3. Sia G un gruppo topologico, allora la componente connessa K
contenente e = idG `e un sottogruppo normale e chiuso di G. Se G `e di Lie, allora K `e
un sottogruppo di Lie aperto.
Dimostrazione. Sia a K, allora a1 K `e connesso poiche b 7 a1 b `e un omeomorfismo.
Inoltre se e a1 K, allora a1 K K. Questo `e vero per ogni a K, quindi K 1 K K
e perci`o K `e un sottogruppo.
Sia ora b G, allora bKb1 `e connesso ed e bKb1 , quindi bKb1 K per ogni
b G e perci`o K `e normale. Inoltre K `e chiuso essendo una componente connessa.
Se G `e di Lie, allora `e localmente connesso e quindi K `e aperto. Perci`o K `e una
sottovariet`a e un sottogruppo e di conseguenza ha una struttura di gruppo di Lie.
Definizione 11.1.4. Dati G gruppo di Lie ed a G, definiamo le moltiplicazioni sinistra
e destra La , Ra : G G per a come La (b) = ab ed Ra (b) = ba.
Le due funzioni La , Ra sono diffeomorfismi con inverse La1 ed Ra1 . In particolare
(La ) : Tb G Tab G e (Ra ) : Tb G Tba G sono isomorfismi per ogni b G.
Definizione 11.1.5. Un campo X (G) `e detto invariante a sinistra se (La ) X = X
per ogni a G.
Nota 11.1.6. Per avere linvarianza a sinistra basta verificare che (La ) (X(e)) = X(a) per
ogni a G.
Dato Xe Te G, esiste X (G) invariante a sinistra definito dalla formula precedente
tale che X(e) = Xe .
Proposizione 11.1.7. Sia X un campo vettoriale (senza richieste di regolarit`a) invariante a sinistra, allora X `e di classe C .
67

Capitolo 11. Gruppi di Lie


Dimostrazione. Basta verificare la regolarit`a in un intorno dellidentit`a. Sia (U, ) carta
di G tale che e U e chiamiamo x le sue funzioni coordinate. Scegliamo V U che V
contiene e e tale che ab, a1 b U per ogni a, b V . Dato a V , abbiamo
X i (a) = X(xi )(a) = (La ) Xe (xi ) = Xe (xi La ) .
Poiche (a, b) 7 ab `e C , allora xi (ab) = xi (La (b)) = f i (x1 (a), . . . , xn (a), x1 (b), . . . , xn (b))

con f i funzioni di classe


Pn Cj .
Ponendo Xe = j=1 c xj |e , abbiamo
i

X (a) = Xe (x La ) =

n
X
j=1

i
X
La )
j f
|
=
c
(x(a), x(e)) ,
e
n+j
xj
x
j=1

j (x

quindi X i `e C e di conseguenza anche X.


Corollario 11.1.8. Un gruppo di Lie G ha sempre fibrato tangente banale e quindi `e
orientabile.
Dimostrazione. Sia X1,e , . . . , Xn,e base di Te G e siano X1 , . . . , Xn estensioni degli elementi della base a campi vettoriali invarianti a sinistra. Allora X1 , . . . , Xn sono
P i ovunque
n
linearmente indipendenti e possiamo definire f : T G G R tale che f ( c Xi (a)) =
(a, c1 , . . . , cn ), che risulta un diffeomorfismo.
Dalle propriet`a del push-forward (La ) [ X, Y ] = [ (La ) X, (La ) Y ]. In particolare,
se X, Y sono invarianti a sinistra, allora anche [ X, Y ] `e invariante a sinistra.
Y le loro estensioni invarianti a sinistra. Definiamo
Dati X, Y Te G, definiamo con X,
h
i
Y (e).
quindi unoperazione [ , ] su Te G tramite [ X, Y ] := X,
Definizione 11.1.9. Il tangente Te G con questa operazione `e detto algebra di Lie di G
ed `e indicato L(G) o g.
Lalgebra di Lie di un gruppo di Lie `e finito dimensionale e soddisfa [ X, X ] = 0 e
lidentit`a di Jacobi [ [ X, Y ] , Z ] + [ [ Y, Z ] , X ] + [ [ Z, X ] , Y ] = 0.
Definizione 11.1.10. Unalgebra di Lie `e detta commutativa se [ X, Y ] = 0 per ogni
X, Y Te G.
Nota 11.1.11. Lalgebra di Lie di (Rn , +) `e commutativa.
Sia H un sottogruppo di Lie del gruppo di Lie G e sia i : H , G linclusione.
Allora Te H si identifica con un sottospazio di Te G. Vediamo inoltre che Te H risulta una
sottoalgebra h di g, cio`e Te H `e chiuso rispetto a [ , ].
(H) invariante a sinistra in H e a X
(G)
Ogni X Te H si estende a X

invariante a sinistra in G. Sia a H e siano La : H H, La : G G le trasformazioni


a i = i La . Quindi
a sinistra, allora L

a ) (i X) = X(a)

i X(a)
= i (La ) X = (L
,
h
i
h
i
=X
in H. Dunque, se Y Te H, allora X,
Y (e) = i X,
Y
perci`o i X
(e), da
cui quanto cercato.
Vediamo ora che vale anche un viceversa, nella forma del seguente teorema.
68

11.2. Omomorfismi fra gruppi di Lie


Teorema 11.1.12. Siano G un gruppo di Lie e h una sottoalgebra di g. Allora esiste
unico un sottogruppo di Lie H di G connesso tale che L(H) = h.

Dimostrazione. Dato a G, sia a il sottospazio di Ta G generato dagli X(a)


con X h.
Poiche h `e una sottoalgebra, `e una distribuzione integrabile per la Proposizione 4.2.4.
Sia H una variet`a integrale massimale contenente e, la cui esistenza ci `e garantita dal
Teorema 4.3.1 (Frobenius). Se b G, allora (Lb ) (a ) = ba . Quindi (Lb ) lascia
invariante la distribuzione. Perci`o Lb permuta le variet`a integrali massimali di .
Se b H, Lb1 porta H nella variet`a integrale massimale contenente Lb1 (b) = e; di
conseguenza Lb1 H = H e perci`o H `e un sottogruppo di G. Manca ora verificare che
(a, b) 7 ab e a 7 a1 sono operazioni C . Per`o lo spazio tangente di H `e , che `e di
classe C poiche generata da campi vettoriali invarianti a sinistra e quindi C . Come
prima si dimostra la regolarit`a delle funzioni coordinate di prodotti.
Nota 11.1.13. Una sottovariet`a di un gruppo di Lie che `e anche un sottogruppo `e un
sottogruppo di Lie.
11.2. OMOMORFISMI FRA GRUPPI DI LIE
Siano G, H gruppi di Lie e : G H un omomorfismo di classe C . Allora `e definito
: Te G Te H.
come lestensione in (H) invariante a sinistra di X che
Se X Te G definiamo X

vale X in eH . Allora, poiche per ogni a G vale La = L(a) , abbiamo

X(a)
= (La ) X = (L(a) ) X = X((a))
(G) invariante a sinistra tale che X(e)

con X
= X.

= X
e perci`o ( )e := |Te G : g h `e un omomorfismo di algebra di
Quindi X
Lie, cio`e una mappa lineare che soddisfa ( )e [ X, Y ]g = [ ( )e X, ( )e Y ]h .
Teorema 11.2.1. Siano G, H gruppi di Lie e : g h un omomorfismo di algebre di
Lie. Allora esiste U intorno di e in G e una mappa : U H di classe C tale che
(ab) = (a)(b) per ogni a, b U con ab U e tale che ( )e X = X per ogni X g.
Inoltre, se esistono , : G H omomorfismi C tali che ( )e = ( )e = e se G `e
connesso, allora = .
Dimostrazione. Sia f g h linsieme f = {(X, (X)) : X g}. Dato che `e un
omomorfismo di algebre di Lie, allora f `e una sottoalgebra di g h = L(G H). Quindi
esiste K sottogruppo di Lie di GH tale che L(K) = f. Sia 1 : GH G la proiezione
sul primo fattore e = 1 |K , allora : K G `e un omomorfismo. Dato X g, abbiamo
(X, (X)) = X, quindi : T(e,e) K Te G `e un isomorfismo. Perci`o esiste V intorno
di (e, e) K tale che mappa V diffeomorficamente su U intorno di e G.
Se 2 : G H H `e la proiezione su H, definiamo := 2 1 su U . Quindi
realizza la prima condizione. Per la seconda, sia X g, abbiamo (X, (X)) = X,
allora X = (2 ) (X, (X)) = (X).
Dati , : G H omomorfismi, definiamo : G G H iniettivo come (a) =
(a, (a)). Limmagine G0 di `e un sottogruppo di Lie di G H e dato X g vale
(X) = (X, (X)), allora L(G0 ) = f, perci`o G0 = K e di conseguenza (a) = (a) per
ogni a G.
69

Capitolo 11. Gruppi di Lie


Corollario 11.2.2. Se due gruppi di Lie hanno algebre di Lie isomorfe, allora sono
localmente isomorfi (in un intorno dellidentit`a).
Dimostrazione. Dato : g h isomorfismo, sia la mappa data dal Teorema 11.2.1
Questa soddisfa ( )e = isomorfismo, quindi `e un diffeomorfismo in un intorno di
e G.
Corollario 11.2.3. Sia G un gruppo di Lie connesso con algebra di Lie commutativa,
allora G `e abeliano.
Dimostrazione. Per il Corollario 11.2.2, G `e localmente isomorfo ad Rn e quindi `e commutativo in un intorno di e G. Si vede che, dalla connessione, ogni intorno U di e
genera G tramite le operazioni di gruppo; perci`o anche G `e abeliano.
Definizione 11.2.4. Sia G un gruppo di Lie, allora un omomorfismo : R G di classe
C `e detto un sottogruppo ad un parametro di G.
Corollario 11.2.5. Per ogni X Te G, esiste un unico sottogruppo ad un parametro
| = X.
: R G tale che d
dt t=0
Dimostrazione. Sia f : G R e se : R G `e un omomorfismo C tale che
abbiamo che

d
|
dt t=0

= X,

f ((t + h)) f ((t))


f ((t)(h)) f ((t))
d
(f ) = lim
= lim
=
h
h
dt
h
h
d
d

=
(f L(t) (s))|s=0 = (L(t) )
|s=0 (f ) = ((L(t) ) X)(f ) = X((t))(f
).
ds
ds
(estensione
Quindi se esiste un tale omomorfismo , deve essere una curva integrale di X
di X a G), abbiamo quindi lunicit`a.
e consideriamo, fissato s, la mappa
Viceversa, sia : R G una curva integrale di X

t 7 (s) (t). Questa `e una curva integrale di X che passa per (s) al tempo 0. Per`o
la cosa vale anche per ( + s), perci`o (t + s) = (s)(t) per unicit`a. Di conseguenza
`e il sottogruppo ad un parametro cercato.
Nota 11.2.6. Le curve integrali esistono localmente, ma usando le propriet`a di gruppo si
pu`o mostrare lesistenza globale.
Definizione 11.2.7. Siano G un gruppo di Lie, X Te G e definita come sopra (cio`e
d
| = X). Definiamo la mappa esponenziale exp : g G tramite exp(X) := (1).
dt t=0
Nota 11.2.8. Questa mappa soddisfa exp((t1 + t2 )X) = exp(t1 X) exp(t2 X) e exp(tX) =
exp(tX)1 .
Proposizione 11.2.9. La mappa exp : g G `e di classe C e 0 `e un punto regolare,
cio`e esiste U intorno di 0 in Te G tale che exp |U `e un diffeomorfismo su un intorno di
e G.
Inoltre, se : G H `e un omomorfismo C , allora exp = exp.
Dimostrazione. Dati X Te G e a G, consideriamo T(X,a) (Te GG) che si identifica con

Te G Ta G. Definiamo un campo vettoriale Y (Te G G) tramite Y (X, a) = 0 X(a).

Allora Y genera un flusso : R (Te G G) Te G G di classe C . Si ha che exp X


`e la proiezione su G di (1, 0 X), quindi exp `e di classe C .
70

11.3. Forme invarianti


Dato v T0 (Te G), questo si identifica con un vettore in Te G e la curva c(t) = tv
d
(in Te G) ha vettore tangente v in 0. Quindi (exp )0 (v) = d exp(c(t))
|t=0 = dt
exp(tv)|t=0 ,
dt
perci`o (exp )0 `e lidentit`a e di conseguenza exp `e un diffeomorfismo in un intorno di
0 Te G.
| =X
Sia : G H un omomorfismo e sia : R G omomorfismo tale che d
dt t=0
g. Allora `e un omomorfismo e


d
d( )
|t=0 =
|t=0 = X .
dt
dt
Quindi exp( X) = ( )(1) = ((1)) = (exp(X)).
Corollario 11.2.10. Ogni omomorfismo iniettivo : G H di classe C `e unimmersione fra variet`a. In particolare limmagine `e un sottogruppo di Lie di H.

Dimostrazione. Per assurdo supponiamo che X(p)


= 0 per qualche X g, allora
X = 0. Di conseguenza, per la Proposizione 11.2.9, abbiamo (exp(X)) = exp( X) =
exp(0) = e, che contraddice liniettivit`a.
Corollario 11.2.11. Ogni omomorfismo continuo tra gruppi di Lie `e di classe C .
11.3. FORME INVARIANTI
Definizione 11.3.1. Una forma su G gruppo di Lie `e detta invariante a sinistra se
soddisfa (La ) = per ogni a G, cio`e (b) = (La ) ((ab)).
Forme di questo tipo sono determinate dal loro valore nellidentit`a.
1
n
Se 1 , . . . , n sono 1-forme invarianti a sinistra e tali che
P (e), . . . , (e)i1 generano

Te G, allora ogni k-forma invariante a sinistra si scrive come i1 <...<ik ai1 ...ik . . . ik
con coefficienti ai1 ...ik costanti.
Sia invariante a sinistra, allora (La ) d = d((La ) ) = d. Quindi d `e anchessa
Y (G)
invariante a sinistra. Inoltre se `e una 1-forma invariante a sinistra e X,
(Y ) sono invarianti
sono campi vettoriali invarianti a sinistra, allora le funzioni (X),
a sinistra e quindi costanti (perche G `e connesso). Sfruttando quanto appena
h dettoie la
Y ) = X(
Y ) Y (X)
( X,
Y ) =
Proposizione 9.6.5, abbiamo dunque che d(X,
h
i
Y ), otteniamo quindi d(e)(X, Y ) = (e)([ X, Y ]).
( X,
Siano 1 (e), . . . , n (e) come sopra e consideriamo
base duale X1 , . . . , Xn di Te G.
Pn una
k
k
Esistono delle costanti cij tali che [ Xi , Xj ] =
k=1 cij Xk . Questo implica anche che
h
i P
n
k
i, X
j =
k .
X
c X
k=1 ij

Definizione 11.3.2. I coefficienti ckij sono detti costanti di struttura di G rispetto alla
base X1 , . . . , Xn .
Grazie allantisimmetria della parentesi di Lie e Jacobi dati dalla Proposizione 3.2.1,
le costanti di struttura rispettano:
1. ckij = ckji ;
Pn
l
l
l
2.
=1 cij ck + cjk ci + cki cj = 0.
71

Capitolo 11. Gruppi di Lie


Inoltre, per quanto detto prima, abbiamo d k =

i<j

ckij i j = 21

i,j

ckij i j .

Teorema 11.3.3. Sia G gruppo di Lie con base di 1-forme invarianti a sinistra 1 , . . . , n
a differenziabile con 1-forme 1 , . . . , n
e costanti di struttura ckij . Sia M n una variet`
P
linearmente indipendenti tali che dk = i<j ckij i j . Allora per ogni p M esiste
U intorno di p ed f : U G diffeomorfismo tale che i = f i .
Dimostrazione. Siano i : M G M, G le proiezioni sui fattori e siano k = 1 k e

k = 2 k . Allora
X
X
d(k
k) =
ckij ([i j ] [
i
j ]) =
ckij [i (j
j ) + (i
i)
j] .
i<j

i<j

(11.3.1)
Consideriamo la distribuzione in M G (che si dimostra avere dimensione n) generata da tutti i campi vettoriali che sono annullati da ogni k
k . Vediamo che
lEquazione (11.3.1), ci d`a lintegrabilit`a di questa distribuzione.
Infatti, siano X, Y campi nella distribuzione, allora
(k
k )([ X, Y ]) = d(k
k )(X, Y ) + X((k
k )(Y )) Y ((k
k )(X)) =
= d(k
k )(X, Y ) = 0 ,
dove lultima uguaglianza `e data proprio dallEquazione (11.3.1). Questo ci dice proprio
che se X, Y stanno nella distribuzione, anche [ X, Y ] appartiene a tale distribuzione.
Quindi, per il Teorema 4.3.1 (Frobenius), dato a G troviamo una variet`a integrale
che passa per (p, a).
Le forme 1 , . . . , n ,
1, . . . ,
n sono linearmente indipendenti in M G, quindi sia
1 , . . . , n che
1, . . . ,
n sono linearmente indipendenti su . Di conseguenza 1 : M
e 2 : G sono diffeomorfismi locali e perci`o `e il grafico di un diffeomorfismo f da
U in un intorno di a in G. Sia f : U M G tale che f(q) = (q, f (q)) . Visto che
(k
k )| = 0, allora 0 = f (k
k ) = f 1 k f 2 k = (1 f) k (2 f) k =
k
k
f .
Esercizio 11.3.4. Mostrare che il fibrato tangente T G di G gruppo di Lie ammette
struttura di gruppo di Lie.
Esercizio 11.3.5. Siano X, Y Te G tali che [ X, Y ] = 0. Mostrare che
1. exp(sX) exp(tY ) = exp(tY ) exp(sX);
2. exp(X + Y ) = exp X exp Y .

72

Indice analitico

algebra
dei tensori, 36
delle forme differenziali, 52
di Lie, 68
commutativa, 68
esterna, 47
atlante, 1
naturale, 5

diffeomorfismo, 3
differenziale, 5
distribuzione
k-dimensionale, 19
integrabile, 20
unidimensionale, 19
divergenza, 63
duale, 30

bordo, 62

elementi di volume, 49
embedding, 6

cambio di carta, 1
campo
tensoriale, 35
operazioni, 35
vettoriale, 7
(M ), 7
r (M ), 7
DX , 9
completo, 9
flusso generato, 9
invariante a sinistra, 67
carta, 1
commutatore, 12
contrazione, 29
controvarianza, 4
curva
tangente, 4
curva integrale, 7
massimale, 9

fibrato
cotangente, 35
dei tensori, 35
tangente, 4
tensoriale, 33
atlante, 34
mappa, 34
vettoriale, 23
isomorfismo, 24
isomorfismo locale, 24
mappa, 24
mappa locale, 24
flusso, 9
locale, 8
forma
di volume, 59
differenziale, 35, 52
esterna, 45
formula
di Cartan, 55
di coarea, 65
funzioni coordinate, 1

delta di Kronecker, 29
derivata
di Lie, 11
su tensori, 41
direzionale, 11
esterna, 52
derivazione, 4
determinante, 49

gradiente, 36
grassmanniana, 2
gruppo
di Lie, 67
73

Capitolo 11. Gruppi di Lie


fibrato tensoriale, 34
tensore, 31
controvariante, 32
vettore, 5

moltiplicazione, 67
topologico, 67
identit`a di Jacobi, 13
immersione, 5
integrale, 61

sezione
globale, 24
locale, 24
sfere esotiche, 2
sottogruppo ad un parametro, 70
sottovariet`a, 5
spazio
localmente euclideo, 1
tangente, 4
spazio orientato, 49
spazio topologico
paracompatto, 3
struttura differenziabile, 1

mappa
Cr, 3
alternante, 45
antisimmetrica, 45
di transizione, 23
esponenziale, 70
tangente, 5
mescolamento, 46
metrica, 36
base ortonormale, 49
nastro di Mobius, 59

tensore, 27
componenti, 28
controvariante, 27
covariante, 27
metrico, 36
simmetrico, 28
teorema
Cauchy-Lipschitz, 7
di Frobenius, 21
di Gauss, 64
di Stokes, 62
differenziabilit`a del flusso, 7
esistenza e unicit`a di flussi locali, 8
mappe composte, 5
traccia, 30
trasporto, 30

operatore
di abbassamento, 29
di Hodge star, 51
di innalzamento, 29
bemolle [, 29
diesis ], 29
differenziale, 39
orientazione, 49
parentesi di Lie, 12
parte interna, 62
prodotto
interno, 28
tensore, 27
wedge, 46
proiezioni stereografiche, 2
pull-back
campo tensoriale, 37
covettore, 30
tensore, 31
covariante, 32
push-forward
campo tensoriale, 37

variet`a
con bordo, 62
differenziabile, 1
integrale, 19
orientabile, 59
orientata, 59
prodotto, 3

74

You might also like