Professional Documents
Culture Documents
Universita
` di Ingegneria
Facolta
Giuseppe De Cecco
Raffaele Vitolo
NOTE
DI
GEOMETRIA ED ALGEBRA
INDICE
Introduzione
1
1.1
1.2
1.3
1.4
Premesse
Strutture algebriche . . . . .
1.1.a
Legge di composizione
1.1.b
Gruppo . . . . . . . .
1.1.c
Relazioni binarie . . .
1.1.d
Anello . . . . . . . . .
1.1.e
Campo . . . . . . . .
Matrici . . . . . . . . . . . .
1.2.a
Definizioni . . . . . .
1.2.b
Operazioni su matrici
Determinanti . . . . . . . . .
1.3.a
Permutazioni . . . . .
1.3.b
Determinante . . . . .
1.3.c
Matrici invertibili . . .
1.3.d
Rango di una matrice
Sistemi lineari . . . . . . . . .
Parte I:
2
2.1
2.2
2.3
2.4
6
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Geometria analitica
9
9
9
10
11
12
13
14
14
15
19
19
19
21
22
24
28
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
29
29
29
30
30
30
30
30
31
31
33
34
2.4.a
2.4.b
2.4.c
3
3.1
3.2
3.3
3.4
Parte II:
4
4.1
4.2
Prodotto scalare . . . . . . . . . . . . . . . . . . . . . . . . . . 34
Prodotto vettoriale . . . . . . . . . . . . . . . . . . . . . . . . . 36
Prodotto misto . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Algebra Lineare
Spazi vettoriali
Spazi vettoriali . . . . . . . . . . . . . . . .
4.1.a
Definizione . . . . . . . . . . . . . .
4.1.b
Sottospazi vettoriali . . . . . . . . .
4.1.c
Somma e somma diretta . . . . . . .
4.1.d
Dipendenza ed indipendenza lineare
4.1.e
Sottospazi generati . . . . . . . . . .
4.1.f
Basi e dimensione . . . . . . . . . .
4.1.g
Relazione di Grassmann . . . . . . .
4.1.h
Rango di un insieme di vettori . . .
Funzioni tra spazi vettoriali . . . . . . . . .
4.2.a
Preliminari . . . . . . . . . . . . . .
38
38
38
39
39
40
40
41
42
42
43
44
45
46
48
51
52
54
54
55
56
57
58
59
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
60
60
60
62
63
64
65
65
67
68
69
69
4.3
5
5.1
5.2
5.3
4.2.b
Applicazioni lineari . . . . . .
4.2.c
Isomorfismi . . . . . . . . . .
4.2.d
Matrici ed applicazioni lineari
4.2.e
Cambiamenti di base . . . . .
4.2.f
Sistemi ed applicazioni lineari
Autovalori ed autovettori . . . . . . .
4.3.a
Definizioni . . . . . . . . . .
4.3.b
Polinomio caratteristico . . .
4.3.c
Endomorfismi semplici . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Bibliografia
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
71
75
76
79
80
82
82
84
87
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
90
90
90
93
95
96
98
99
100
100
102
103
109
109
111
113
115
INTRODUZIONE
I confini tra matematica pura ed applicata sono labili.
Alla matematica pura si domanda la coerenza interna
dei suoi enunciati, alla matematica applicata la capacit`a
di rappresentare diverse realt`a esterne alla matematica
stessa. La distinzione tra matematica pura ed applicata non risiede nella diversa qualit`a dei teoremi che vi
si dimostrano, ma nei diversi criteri di interesse che
inizialmente le ispirano.
E. De Giorgi
La geometria . . . `e evidentemente una scienza naturale:
possiamo infatti considerarla come la pi`
u antica parte
della fisica.
A. Einstein
Queste note vogliono essere solo una guida alla preparazione dellesame di Geometria
ed Algebra, e non intendono sostituire i testi consigliati, ai quali si rimanda per una
completa preparazione.
Le presenti note si dividono in due parti. La prima parte `e dedicata alla Geometria
Analitica, i cui fondamenti furono elaborati da R. Descartes nel trattato La Geometrie,
pubblicato (nel 1637) come appendice al famoso Discours de la methode. In quel piccolo trattato si usa sistematicamente lalgebra simbolica e se ne d`a una interpretazione
geometrica.
La seconda parte `e dedicata allAlgebra Lineare, nata alla fine del 1700 per lo studio
dei sistemi di n equazioni lineari in n incognite. Il primo esempio di calcolo esplicito per
n = 2 e n = 3 fu dato da Maclaurin nel 1748, mentre il metodo generale risale a G.
Cramer nel 1750. In tutta la teoria un ruolo determinante `e svolto dai determinanti di
matrici. LAlgebra Lineare e Multilineare `e diventato uno strumento potente largamente
usato nelle applicazioni, dal momento che ogni fenomeno non lineare pu`o approssimarsi
ad uno lineare.
Contrariamente alle usuali presentazioni, noi abbiamo preferito premettere allAlgebra
Lineare la Geometria Analitica, poiche gli studenti conoscono gi`a dalle Scuole superiori i
primi rudimenti di Geometria analitica sui quali si innesta il corso, che fin dallinizio fa
uso del metodo vettoriale, che prepara cos` con esempi alla seconda parte pi`
u astratta,
6
Introduzione
Introduzione
Ringraziamenti.
Ringraziamo lUniversit`a di Lecce ed il Dipartimento di Matematica per aver concesso
luso delle proprie strutture ed apparecchiature. Ringraziamo anche tutti gli studenti che
hanno contribuito a questo testo correggendone molti errori e sviste. R. Vitolo ringrazia
A. Blandolino per aver messo a disposizione i propri appunti presi a lezione.
Queste note sono state scritte in LATEX2e con lestensione amsmath della American
Mathematical Society e lestensione diagrams scritta da P. Taylor.
CAPITOLO 1
PREMESSE
1.1
Strutture algebriche
1.1.a
Legge di composizione
a (b c) = (a b) c ,
10
Capitolo 1. Premesse
Esempi ed esercizi.
La sottrazione non `e una legge di composizione associativa poiche
a (b c) 6= (a b) c.
Se a b = ab , loperazione `e associativa?
Considerata in R la seguente legge di composizione interna
a b = (a + b)/2 ,
vedere se `e associativa e calcolare an = a . . . a (n volte).
Come `e noto a R
a+0=0+a=a
a 1 = 1 a = a,
au = a,
1.1.b
Gruppo
propriet`a associativa.
ab = ba,
propriet`a commutativa,
11
1.1.c
Relazioni binarie
12
Capitolo 1. Premesse
r s = ;
r s oppure r s = .
sono di equivalenza?
Le relazioni R e R
Sia n un numero naturale fissato ed a, b Z. Diremo che
a b (mod n)
b a = kn ,
k Z.
1.1.d
Anello
13
2. la legge `e associativa;
3. per ogni a, b, c A valgono le uguaglianze a(b+c) = ab+ac, (b+c)a = ba+ca
(propriet`a distributiva).
Lanello A `e detto commutativo se `e commutativa, `e detto unitario se possiede un
elemento neutro.
Esempi.
(Z, +, ) `e un anello.
Un polinomio p(x) a coefficienti in C `e unespressione del tipo
p(x) = an xn + + a1 x + a0 ,
ai C,
n N.
p(x) q(x) =
h=0
n+m
X
h=0
i+j=h
ai b j x h .
1.1.e
Campo
Un campo (K, +, ) `e un insieme K (non vuoto) con due leggi di composizione interna
indicate con + e tali che
1. (K, +) `e un gruppo abeliano (il cui elemento neutro indichiamo con 0).
2. (K , ) `e un gruppo abeliano (dove K = K r {0}).
14
Capitolo 1. Premesse
(b + c) a = b a + c a .
1.2
1.2.a
Matrici
Definizioni
A=
. . . . . . . . . . . . . . . . . . .
am1 am2 . . . amn
i = 1, 2, . . . , m;
j = 1, 2, . . . , n.
aij = bij
i, j .
1.2. Matrici
15
Una sottomatrice B Kp,q di una matrice A = (aij ) Km,n `e una matrice i cui elementi
appartengono a p righe e a q colonne prefissate di A.
Un minore `e una sottomatrice quadrata.
Esempio.
3 5
0
3 ,
A = 1 2
0 1 5
B=
5
0
1 5
i = 1, 3
.
j = 2, 3
2 3
A = 1 0 ,
5
A = (aji ) .
A=
2 1 5
3 0
simmetrica
antisimmetrica
triangolare superiore
triangolare inferiore
diagonale
unit`a, o identica
se
se
se
se
se
se
aij
aij
aij
aij
aij
aij
= aji
= aji
= 0, i > j
= 0, i < j
= 0, i 6= j
= 0, i 6= j; aii = 1.
1.2.b
Operazioni su matrici
16
Capitolo 1. Premesse
A ,
n
X
aij bjk
j=1
0 1
1 0
A=
,
B=
,
0 0
0 0
0 0
0 1
AB =
6=
= BA .
0 0
0 0
Si osservi che si pu`o avere AB = O senza che A o B siano matrici nulle. In tal caso A e
B si dicono divisori dello zero.
Si vede facilmente che la matrice unit`a I `e tale che
AI = A = IA
A .
1.2. Matrici
17
1
t
A = 0 e AtA = (10) ,
3
1 0 3
t
AA = 0 0 0 .
3 0 9
AA = I = AtA .
Esercizi.
Trovare tutte le potenze della matrice C =
1 1
0 0
1/2 0
3/2
1
0
A = 0
3/2 0 1/2
Provare che la matrice del punto precedente `e ortogonale.
18
Capitolo 1. Premesse
Siano A =
0 1
0 0
,B=
1 0
0 0
. Vedere se
(A + B)2 = A2 + 2AB + B 2 .
(A1 )1 = A .
Se A `e invertibile, allora
AB = O B = O ,
AB = AC B = C .
Esercizi.
Data la matrice A =
1 1
0 1
, stabilire se A `e invertibile e in tal caso trovare linversa.
0 0 1
J = 0 1 0
1 0 0
Date le matrici
0 1 0
A = 0 0 1 ,
0 0 0
1 1 1
U = 1 1 1
1 1 1
U=
1 1
.
1 1
1.3. Determinanti
19
Nota. Le matrici sono molto utili in matematica: permettono di semplificare complicate espressioni considerando tutta la tabella come un unico ente. Le matrici intervengono
nella schematizzazione di molti fenomeni, dipendenti da un numero finito di parametri.
Sono nella pratica molto usate nei problemi di decisione, nei quali `e necessario procedere
ad una scelta tra diversi modi di agire, ossia tra pi`
u strategie.
Come vedremo pi`
u avanti, se vogliamo risolvere un sistema di equazioni lineari, basta
conoscere la matrice associata, cio`e la matrice ci d`a tutte le informazioni necessarie per
risolverlo. La matrice `e quindi la mater matris, la parte essenziale. La denominazione
matrice `e dovuta al matematico inglese J. J. Sylvester (18141897).
1.3
Determinanti
1.3.a
Permutazioni
1.3.b
Determinante
20
Capitolo 1. Premesse
e se n = 3
det A = a11 a22 a33 a11 a23 a32 + a13 a21 a32 a13 a22 a31 + a12 a23 a31 a12 a21 a33 ,
che molti riconosceranno come formula di Sarrus (valida solo per n = 3). Per n qualsiasi
il calcolo `e laborioso. Soccorre per`o una regola di calcolo dovuta a Laplace.
Fissato un elemento aij di A, si chiama minore complementare di aij la sottomatrice
di A di ordine n 1, ottenuta cancellando la i-esima riga e la j-esima colonna. Si chiama
complemento algebrico di aij o cofattore di aij
Aij = (1)i+j det(minore complementare di aij ) .
Teorema 1.1 (Laplace). Sia A una matrice quadrata di ordine n. Allora
det A = ar1 Ar1 + + arn Arn ,
dove r `e una fissata riga (scelta arbitrariamente), oppure
det A = a1c A1c + + anc Anc ,
dove c `e una fissata colonna (scelta arbitrariamente).
Questa regola pu`o essere assunta anche come definizione ricorsiva di determinante:
(
a11
se n = 1
|A| = det A = P
P
se n > 1
j aij Aij
i aij Aij =
1.3. Determinanti
21
1.3.c
Matrici invertibili
1
Adj(A) ,
det A
22
Capitolo 1. Premesse
Esempi ed esercizi.
Se
1/2 0 1
A = 0 4 1 ,
3 0 2
si ha det A = 8 6= 0 e
8
0
4
Adj(A) = 3 2 1/2
12 0
2
Sia data la matrice
A1
1
0
1/2
= 3/8 1/4 1/16
3/2
0 1/4
0 1 1
A = 1 0 1 .
1 1 0
1. Verificare che A2 A 2I = 0.
A0 = P 1 AP
P A0 = AP .
1.3.d
1.3. Determinanti
23
det A 6= 0
A invertibile,
3 2
2 4
1 3 2 5
A = 6 2 4 3
2 6 4 10
3 2
A= 2 1 ,
B= 1
1 4
1
di ,
1 1
1 .
1
24
Capitolo 1. Premesse
Una matrice S Km,n si dice matrice a scalini (per righe)se `e la matrice nulla oppure
se `e della forma
0 . . . 0 a1j1 . . . . . . . . . . . . . . . . . . . . a1n
0 . . . . . . . . . . . 0 a2j2 . . . . . . . . . . . a2n
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
0 . . . . . . . . . . . . . . . . . . . . 0 apjp . . . apn ,
0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 0
0 ................................. 0
1.4
Sistemi lineari
o, in forma pi`
u compatta,
n
X
aij xj = bi ,
i = 1, 2, . . . , m ,
j=1
dove aij sono detti coefficienti e bi K termini noti . Se bi = 0 il sistema si dice omogeneo.
In forma matriciale:
AX = B
(1.4.1)
dove A = (aij ) Km,n `e la matrice dei coefficienti, X `e la colonna delle incognite e B
quella dei termini noti, cio`e
t
X = (x1 , . . . , xn ) ,
B = (b1 , . . . , bm ) .
25
con A =
1 1
,
1 1
A =
1 1 0
1 1 1
= 2.
`e chiaramente incompatibile. Infatti 1 = rg(A) 6= rg(A)
= p. Si hanno i seguenti casi.
Problema 2. Sia rg(A) = rg(A)
p=n
p<n
X = A1 B.
Lespressione esplicita delle soluzioni `e fornita dal seguente teorema, di notevole importanza.
Teorema 1.4 (Teorema di Cramer). Sia AX = B un sistema di p equazioni in p
incognite, e sia det A 6= 0. Allora il sistema ammette ununica soluzione (x 1 , . . . , xp ), le
cui componenti sono date da
|A(k) |
xk =
,
|A|
26
Capitolo 1. Premesse
(1.4.3)
ammettono sempre la soluzione nulla X = O (ed `e lunica se |A| 6= 0). Siamo perci`o
interessati alle soluzioni non nulle, dette anche autosoluzioni o soluzioni proprie . Se X 0
`e una soluzione di (1.4.3), allora X 0 `e anchessa una soluzione di (1.4.3) ; se X 0 e X 00
sono soluzioni di (1.4.3), allora anche X 0 + X 00 `e una soluzione di (1.4.3). Chiaramente
e se p = rg(A) allora le soluzioni sono np .
rg(A) = rg(A),
Ad ogni sistema lineare non omogeneo (1.4.1) si pu`o associare il sistema lineare
omogeneo (1.4.3).
una soluzione generica
Si osservi che se X0 `e una soluzione particolare di (1.4.1) e X
+ X0 `e una soluzione generica di (1.4.1); infatti
di (1.4.3), allora X
+ X0 ) = A X
+ AX0 = O + B = B.
A(X
Nota. Il metodo di risoluzione di Cramer ha grande interesse teorico, ma bisogna
la qual cosa richiede il calcolo di molti
conoscere preliminarmente il rango di A e di A,
determinanti di matrici; il determinante di una matrice di ordine k comporta k! operazioni.
Il metodo di eliminazione di Gauss prescinde dalla conoscenza a priori di quei ranghi
ed inoltre `e facilmente programmabile sui calcolatori; perci`o `e frequentemente usato nelle
applicazioni. Esso si basa sullosservazione che matrici equivalenti per righe corrispondono a sistemi di equazioni equivalenti, cio`e che hanno lo stesso insieme di soluzioni. Il
procedimento di Gauss consiste sostanzialmente nel ridurre la matrice completa A ad
equivalente per righe ad A.
Ci`o fatto, se il sistema `e compatiuna matrice a scalini S,
bile, si procede con la sostituzione successiva a ritroso nel sistema. Il metodo di Gauss
minimizza il numero di operazioni necessarie a risolvere un sistema lineare.
` necessario stabilire la termiAppendice: variabili, incognite e parametri. E
nologia usata per le quantit`a variabili . Queste quantit`a sono indicate da una lettera, e
rappresentano uno o pi`
u elementi in un fissato insieme V , detto spazio delle variabili. Le
variabili possono essere di due tipi:
le incognite, che sono variabili soggette ad una o pi`
u condizioni (di solito equazioni );
i parametri, che sono variabili non soggette a condizioni, il cui valore pu`o essere
uno degli elementi di V ad arbitrio.
Un sottoinsieme S V pu`o essere rappresentato in uno dei seguenti modi:
27
i suoi elementi possono essere tutti e soli gli elementi di V soddisfacenti una o pi`
u
condizioni (di solito equazioni); questa si dice (impropriamente) rappresentazione
cartesiana di S;
i suoi elementi possono essere noti in funzione di uno o pi`
u parametri; questa si dice
rappresentazione parametrica di S.
Pi`
u in l`a sar`a introdotto il concetto di indipendenza lineare (paragrafo 2.2). Da un punto
di vista intuitivo, si pu`o affermare che una rappresentazione cartesiana di S `e costituita
da condizioni indipendenti se queste sono in numero minimo; una rappresentazione parametrica `e costituita da parametri indipendenti se questi sono in numero minimo. Questo
numero `e alla base del concetto di dimensione, come si vedr`a.
Esercizi.
Discutere il seguente sistema, al variare di R, e risolverlo nei casi in cui `e
compatibile
xy =1
y + z = 0
2x z = 1
x+y+z =1
Determinare il polinomio
P (1) = 2,
P (1) = 6,
d=1
a + b + c + d = 2
a + b c + d = 6
8a + 4b + 2c + d = 3
P (2) = 3.
x1 + x2 + x3 + 2x4 = 5
x1 + x 2 + x 4 = 3
PARTE I
GEOMETRIA ANALITICA
28
CAPITOLO 2
2.1
2.1.a
Definizioni
Spazio V3
Segue che AB `e parallelo a CD (che si denota AB k CD) e kABk = kCDk, dove kABk
indica il modulo o lunghezza del segmento AB. Le classi di equivalenza si chiamano vettori
~ e da tutti quelli ad esso equipollenti (come CD)
~
(liberi). Il vettore ~u individuato da AB
~ = [CD].
~
~ di un vettore ~u si dice
soddisfa luguaglianza ~u = [AB]
Il rappresentante AB
vettore ~u applicato in A e si indica (~u, A). Il vettore ~u determina una traslazione dello
spazio, da cui la parola, che proviene dal latino vehere = trasportare.
A + ~u = B
~
~u = B A = AB.
30
2.1.b
Somma di vettori
2.1.c
Differenza di vettori
Se ~u = B A e ~v = C A, allora ~u ~v = B C.
2.1.d
2.2
2.2.a
I vettori ~v1 , ~v2 , . . . , ~vn V3 si dicono linearmente dipendenti se e solo se esiste una
n-pla (1 , . . . , n ) 6= (0, . . . , 0) tale che
1~v1 + 2~v2 + + n~vn = ~0.
Infatti se n 6= 0,
~vn =
31
n1
1
~v1
~vn1 ,
n
n
2.2.b
Indipendenza lineare
I vettori ~v1 , ~v2 , . . . , ~vn V3 si dicono linearmente indipendenti se e solo se non sono
linearmente dipendenti, cio`e
1~v1 + + n~vn = ~0
i = 0 i = 1, 2, . . . , n.
Chiaramente vale sempre (sia nel caso dellindipendenza, sia nel caso della dipendenza)
i = 0 per ogni i
2.2.c
1~v1 + + n~vn = ~0 .
Significato geometrico
~v = ~0
~v1 k ~v2
~v1 , ~v2 , ~v3 complanari.
Quindi, se ~v1 , ~v2 , ~v3 sono indipendenti essi sono non complanari e possono considerarsi
come vettori di un sistema di riferimento dello spazio. Ne segue che n 4 vettori
di V3 sono sempre dipendenti, quindi in V3 il massimo numero di vettori linearmente
indipendenti `e 3.
Sia V2 linsieme dei vettori del piano; in V2 il massimo numero di vettori linearmente
indipendenti `e 2.
Sia V1 linsieme dei vettori della retta; in V1 il massimo numero di vettori linearmente
indipendenti `e 1.
Si dice anche che la dimensione della retta `e 1 ed una sua base `e data da un vettore non
nullo {~e1 }; la dimensione del piano `e 2 ed una sua base `e data da 2 vettori indipendenti
{~e1 , ~e2 }; la dimensione dello spazio `e 3 ed una sua base `e data da 3 vettori indipendenti
{~e1 , ~e2 , ~e3 }.
Sia B = {~e1 , ~e2 , ~e3 } una base di V3 . Allora {~v , ~e1 , ~e2 , ~e3 } sono dipendenti e
~v = 1~e1 + 2~e2 + 3~e3 .
32
~v (v1 , v2 , v3 ),
w(w
~ 1 , w2 , w3 ),
~v = t(v1 v2 v3 ),
w
~ = t(w1 w2 w3 ).
u1 v 1 w 1
A = u2 v 2 w 2 .
u3 v 3 w 3
33
2.3
Cambiamenti di base
Siano B = {~e1 , ~e2 , ~e3 } e B 0 = {e~0 1 , e~0 2 , e~0 3 } due basi di V3 . Se (a1i , a2i , a3i ) sono le
coordinate di e~0 i rispetto alla base B, la matrice A = (aij ) (i, j = 1, 2, 3) avr`a determinante
diverso da 0, ed `e detta matrice del cambiamento dalla base B alla base B 0 . Naturalmente,
la matrice del cambiamento dalla base B 0 a B sar`a A1 .
Se ~v V3 , allora
3
3
X
X
vi0 e~0 i .
vi~ei ,
~v =
~v =
i=1
i=1
34
(Suggerimento: per il punto 2, scrivere ~v = 3~v1 ~v2 + 2~v3 e poi sostituire ~vi .)
In generale, siano (a, b, c) le coordinate di ~v rispetto a B e (a0 , b0 , c0 ) le coordinate di ~v
rispetto a B 0 . Allora risulta
0
a
a
b = A b0 ,
c0
c
quindi le coordinate cambiano con linversa della matrice del cambiamento di base.
2.4
Altre operazioni in V3
2.4.a
Prodotto scalare
g(~u, ~v ) = ~u ~v
0
c
k~uk k~v k cos ~u
~v
se ~u = ~0 o ~v = ~0
altrimenti.
Il prodotto scalare gode delle seguenti propriet`a (la cui dimostrazione `e lasciata al
lettore):
1. ~u ~v = ~v ~u, commutativit`a
2. (~u) ~v = ~u (~v ) = (~u ~v ) R, omogeneit`a
3. ~u (~v + w)
~ = ~u ~v + ~u w,
~ distributivit`a
4. ~u ~v = 0
~u ~v .
Sia B = {~, ~, ~k} una base ortonormale di V3 (cio`e i tre vettori sono mutuamente
ortogonali ed hanno modulo unitario); allora
~ ~ = 1,
~ ~ = 0,
~k ~k = 1,
~ ~k = 0.
~ ~ = 1,
~ ~k = 0,
Posto ~u = u1~ + u2~ + u3~k, ~v = v1~ + v2~ + v3~k, usando le propriet`a, si ha:
~u ~v = u1 v1 + u2 v2 + u3 v3 .
(2.4.2)
Si osservi che se B non fosse ortonormale, lespressione precedente non sarebbe cos`
semplice. Inoltre, si vede facilmente che
~u ~u = k~uk2 = u21 + u22 + u23 ,
c
cos ~u
~v =
~u ~v
.
k~uk k~v k
(2.4.3)
35
c
v3 = ~v ~k = k~v k cos ~v~k.
v2
= cos ~vb~,
k~v k
v3
c
= cos ~v~k,
k~v k
~v ~
1
=
k~v k k~k
3
1
~vb~ = arccos .
3
disug. di CauchySchwarz
disug. triangolare.
36
Verificare lidentit`a
k~u + ~v k2 + k~u ~v k2 = 2(k~uk2 + k~v k2 )
ed esprimerne il significato geometrico.
2.4.b
Prodotto vettoriale
(
~0
~u ~v =
w
~
h(~u, ~v ) = ~u ~v
se ~u k ~v
dove w
~ ha direzione perpendicolare a ~u e ~v , verso tale che la terna (~u, ~v , w)
~ sia equiversa
c
a (~, ~, ~k) e modulo kwk
~ = k~uk k~v k sin ~u
~v .
Il prodotto vettoriale verifica le seguenti propriet`a (la cui dimostrazione `e lasciata al
lettore):
1. ~u ~v = ~v ~u, anticommutativit`a,
2. (~u) ~v = ~u (~v ) = (~u ~v ) R, omogeneit`a,
3. ~u (~v + w)
~ = ~u ~v + ~u w,
~ distributivit`a.,
~k
u3
v3
2.4.c
Prodotto misto
Infatti, basta calcolare le coordinate di ~u ~v come detto nel paragrafo precedente e tener
conto dellespressione analitica del prodotto scalare.
37
Esercizi.
Confrontare le definizioni di prodotto scalare e vettoriale con quelle impartite nei
corsi di Fisica.
Provare che k~u ~v k = A, area del parallelogramma costruito sui vettori ~u e ~v .
Provare che |(~u ~v ) w|
~ = V, volume del parallelepipedo costruito sui vettori ~u, ~v
e w.
~
Naturalmente, il volume del tetraedro costruito sui vettori ~u, ~v , w
~ `e 1/6 V.
Dati i vettori ~v1 (1, 2, 0), ~v2 (1, 1, 2), ~v3 (3, 0, 2), determinare il vettore w
~ = (~v1
~v2 ) ~v3 . Verificare che {~v1 , ~v2 , w}
~ sono linearmente dipendenti ed esprimere w
~ come
combinazione lineare di ~v1 e ~v2 .
Provare che il prodotto vettoriale non soddisfa la propriet`a associativa, ossia che
~v (w
~ ~z) 6= (~v w)
~ ~z.
Interpretare geometricamente il risultato.
CAPITOLO 3
3.1
Piano
3.1.a
x y z
x1 y1 z 1
x2 y2 z 2
x3 y3 z 3
1
1
= 0.
1
1
(3.1.1)
(3.1.2)
3.1. Piano
39
3.1.b
da cui
u, v R,
(3.1.4)
x = x1 + u(x2 x1 ) + v(x3 x1 )
y = y1 + u(y2 y1 ) + v(y3 y1 )
z = z1 + u(z2 z1 ) + v(z3 z1 )
che sono dette equazioni parametriche del piano. Eliminando i parametri u e v si perviene
allequazione cartesiana.
Esempio. Dati i punti P1 (1, 0, 0), P2 (1, 1, 1), P3 (1, 0, 1) troviamo le equazioni parametriche e cartesiana del piano. Si ha P1~P2 = (0, 1, 1), P1~P3 = (0, 0, 1), dunque
x=1
y=u
,
z =u+v
da cui lequazione cartesiana x = 1.
3.1.c
Risulta
sistema incompatibile
sistema compatibile
rg(A) 6= rg(A)
rg(A) = rg(A)
0 = ,
0 6= .
40
Inoltre
=2
rg(A) = rg(A)
=1
rg(A) = rg(A)
1 soluzioni
2 soluzioni
0 = oppure 0
0 = r,
0 ,
(a, b, c) (a0 , b0 , c0 ),
3.2
Retta
3.2.a
x x1 y y1 z z 1
rg
x2 x 1 y2 y 1 z 2 z 1
=1
x x1 y y1 z z 1
x2 x1 y2 y1 z2 z1
= 0,
cio`e sono nulli i determinanti di tutti i minori di ordine 2 estratti dalla matrice. Ci`o,
solo se ha senso la scrittura seguente, equivale a
x x1
y y1
z z1
=
=
,
x2 x 1
y2 y 1
z2 z 1
3.2. Retta
41
(attenzione: al denominatore non pu`o comparire 0) che si pu`o porre nella forma seguente
(confronta 3.1.c, caso 0 6= ).
ax + by + cz + d = 0
r:
a0 x + b0 y + c0 z + d0 = 0.
Queste ultime sono dette equazioni cartesiane della retta. Quindi, ogni retta r si pu`o
scrivere come intersezione di due piani ed 0 , di equazioni cartesiane
: ax + by + cz + d = 0,
e tali che
0 : a0 x + b0 y + c0 z + d0 = 0,
a b c
rg 0 0 0
a b c
= 2.
Si osservi che la retta r non determina univocamente i piani ed 0 : due altri piani
distinti passanti per r (ce ne sono 1 ) individuano la stessa retta.
Si chiamano parametri direttori di r le coordinate di un arbitrario vettore ~v parallelo
ad r. Ovviamente, se P1 , P2 r e P1 6= P2 , allora ~v = P1~P2 `e parallelo ad r e quindi
parametri direttori di r sono
l = x 2 x1 ,
m = y 2 y1 ,
n = z 2 z1 .
che
cos2 rc
x + cos2 ry
b + cos2 rz
b = 1.
Si noti che i parametri direttori di r possono anche essere ricavati come soluzioni del
sistema omogeneo associato ad r: `e facile rendersi conto del fatto che il vettore P2 P1
soddisfa le equazioni di tale sistema.
3.2.b
Si ha
da cui
t R,
x = x1 + t(x2 x1 ) = x1 + lt
y = y1 + t(y2 y1 ) = y1 + mt
z = z1 + t(z2 z1 ) = z1 + nt
42
che sono dette equazioni parametriche della retta. Eliminando il parametro t si perviene
alle equazioni cartesiane.
3.2.c
= 0, si avr`a
y 1
y1 1 = 0,
y2 1
3.2.d
Si ritiene noto (se non lo `e, acquisirlo) fin dalle scuole secondarie, il concetto di angolo
tra due semirette e tra due rette, e quindi il concetto di angolo tra due piani e tra una
retta ed un piano.
Ad ogni piano associamo il vettore ~n = (a, b, c), perpendicolare ad , di coordinate i
parametri di giacitura; ad ogni retta r associamo il vettore ~r = (l, m, n), parallelo ad r, di
coordinate i parametri direttori. Cos` si esprimono facilmente le condizioni di parallelismo
e perpendicolarit`a tra rette e piani.
k 0
0
r
kr
r r0
r k r0
~n k n~0
~n n~0
~n k ~r
~n ~r
~r k r~0
~r r~0
(a, b, c) (a0 , b0 , c0 )
(l, m, n) (l0 , m0 , n0 )
ll0 + mm0 + nn0 = 0
3.2. Retta
43
~r r~0
ll0 + mm0 + nn0
p
=
.
k~rk kr~0 k
l 2 + m 2 + n2 l 0 2 + m 0 2 + n0 2
|al + bm + cn|
c~r| = |~n ~r| =
sin
cr = | cos ~n
2
k~nk k~rk
a + b2 + c 2 l 2 + m 2 + n2
3.2.e
Rette sghembe
Due rette r ed r 0 sono sghembe se non esiste alcun piano che le contiene. In tal caso
si pu`o provare che esistono due piani e 0 tra loro paralleli tali che
r ,
r 0 0 .
n 0 = n r 0 = Q0 ,
si ha dist(r, r 0 ) = dist(Q, Q0 ). In definitiva, la distanza tra rette, tra rette e piani, e tra
piani, `e sempre ricondotta alla distanza tra punti.
44
3.3
Fasci e stelle
45
k R.
3.4
Superficie e curve
Abbiamo visto che (nello spazio) un piano si rappresenta con unequazione, mentre
una retta con due equazioni. Ogni equazione, ponendo un vincolo tra le incognite, riduce
di uno il grado di libert`a delle incognite. Ci`o traduce il fatto che il piano `e un ente di
dimensione 2, mentre la retta `e un ente di dimensione 1.
46
3.4.a
Definizioni
Chiamiamo superficie il luogo dei punti P (x, y, z) dello spazio le cui coordinate
verificano unequazione del tipo
f (x, y, z) = 0,
che `e detta equazione cartesiana di .
Se f `e un polinomio, la superficie si dir`a algebrica: le superfici algebriche di grado 1
sono i piani, quelle di grado 2 si chiamano quadriche.
Una superficie si pu`o rappresentare parametricamente tramite equazioni del tipo
x = x(u, v),
y = y(u, v),
z = z(u, v),
(u, v) A R2
dove A `e un aperto del piano; quindi (x(u, v), y(u, v), z(u, v)) dipende da due
parametri.
Un punto P descrive una curva C dello spazio se esso dipende da un solo parametro:
x = x(t),
y = y(t),
z = z(t),
t I R,
2 : f2 (x, y, z) = 0.
f1 (x, y, z) = 0,
f2 (x, y, z) = 0,
1 2 : f1 (x, y, z) f2 (x, y, z) = 0.
47
Le equazioni
x = 3u2 uv
y = eu + v
:
z = v2
rappresentano una superficie. Se fissiamo uno dei parametri, otteniamo una curva.
Ponendo, ad esempio, u = 1, si ha
Cv :
x = 3 v,
y=
1
+ v,
e
z = v2.
Analogamente se v = 0 si ha la curva
Cu :
x = 3u2 ,
y = eu ,
z = 0,
: x = u,
y = 2u2 v,
z=v
1 : x2 + y 2 + z 2 = 1,
z = 2t.
2 : x2 + y 2 x = 0
x2 + y 2 + z 2 = 1
x2 + y 2 x = 0
y = sin cos ,
z = cos ,
48
3.4.b
Curve piane
Una curva C dello spazio si dice piana se esiste un piano che la contiene. Naturalmente
una sezione di una superficie con un piano d`a una curva piana.
Esempio. Data la curva
C : x = t2 1,
y = t2 + 1,
z = 2t,
(a, b, c) 6= (0, 0, 0)
(a + b)t2 + 2tc + d a + b = 0,
2c = 0,
d a + b = 0,
z2
1,
4
y=
z2
+ 1,
4
oppure
4x z 2 + 4 = 0,
x y + 2 = 0.
Se una curva C giace nel piano z = 0, la sua equazione cartesiana in questo piano `e
del tipo f (x, y) = 0, ed una rappresentazione parametrica `e
x = x(t),
y = y(t);
t R.
Si noti che C pu`o essere ben lontana dallidea di curva che abbiamo.
Osservazioni. Il simmetrico rispetto allasse x del punto P (x, y) `e P 0 (x, y); analogamente, il simmetrico rispetto allasse y `e P 00 (x, y) ed il simmetrico rispetto ad O `e
P (x, y). Quindi, una curva C `e
simmetrica rispetto allasse x P, P 0 C,
simmetrica rispetto allasse y P, P 00 C,
simmetrica rispetto allorigine P, P C.
49
Esempi.
f (x, y) = x2 + y 2 + 1 = 0 non ha punti reali.
f (x, y) = x2 + y 2 = 0 ha il solo punto reale (0, 0) R2 , mentre in C2 si scrive come
unione delle due rette {y = ix} e {y = ix}.
f (x, y) = (x2 + y 2 )[(x 1)2 + (y 1)2 ] = 0 ha solo i punti reali {(0, 0), (1, 1)} R2 .
Sia C una curva del piano z = 0 di equazione f (x, y) = 0. Provare che se f (x, y) =
0 f (x, y) = 0 allora C `e simmetrica rispetto allasse x; se f (x, y) = 0
f (x, y) = 0 allora C `e simmetrica rispetto allasse y; se f (x, y) = 0 f (x, y) =
0 allora C `e simmetrica rispetto allorigine.
Una curva algebrica di grado 1 `e una retta, una curva algebrica di grado 2 `e una
conica. Nella scuola secondaria sono gi`a state incontrate le seguenti coniche:
x2 + y 2 + 2ax + 2by + c = 0
x2 y 2
+ 2 =1
a2
b
x2 y 2
2 =1
a2
b
y = ax2 + bx + c
circonferenza,
ellisse,
iperbole,
parabola.
Vedremo pi`
u avanti che le ellissi, iperboli e parabole esauriscono tutti i possibili tipi di
coniche. Il nome coniche (anticamente sezioni coniche) deriva dal fatto che esse sono
le sezioni piane di un cono circolare (retto o obliquo). Come inventore delle coniche si
ritiene generalmente Menecmo (circa 350 a.C.), mentre chi le ha studiate in profondit`a
`e Apollonio di Perga (II sec. a.C.). Le coniche sono molto importanti nelle applicazioni.
SI pensi che noi vediamo attraverso sezioni di coni visivi.
Osservazione. La distinzione tra curve algebriche e curve non algebriche (o trascendenti) riguarda le coordinate cartesiane.
Esempio. Lequazione y = 3x + 1 `e algebrica, mentre in coordinate polari (, ) la
stessa retta si rappresenta con una equazione non algebrica
sin = 3 cos + 1.
Le coordinate polari risultano molto convenienti per rappresentare curve che si avvol-
50
c > 0, 0 +
= ae , a > 0
c
= , c > 0, 0 +
spirale logaritmica,
spirale iperbolica.
t2
2t
,
+1
y=
t2
1
,
+1
t R.
x = sin t
,
y = sin t
t R.
= cos(2),
= cos(3)
C : x4 + 3x2 y 2 4y 4 = 0
51
x+y
.
x
3.4.c
Sfere e circonferenze
~ k = R, dove C `e un
Chiamiamo sfera linsieme dei punti P dello spazio tali che kCP
~ k = R si ha
punto fisso e R un numero reale positivo. Se C(, , ) e P (x, y, z), da kCP
(x )2 + (y )2 + (z )2 = R2 ,
che d`a lequazione cartesiana di una sfera generica
x2 + y 2 + z 2 2x 2y 2z + = 0,
dove = 2 + 2 + 2 R2 . Viceversa, ogni equazione del tipo
x2 + y 2 + z 2 + 2ax + 2by + 2cz + d = 0
rappresenta
una sfera di centro (, , ), dove = a, = b, = c, e di raggio
R = a2 + b2 + c2 d. Si ha:
a2 + b 2 + c 2 d > 0
a2 + b 2 + c 2 d = 0
a2 + b 2 + c 2 d < 0
sfera ordinaria,
sfera di raggio nullo,
sfera immaginaria.
52
~ 0 dove C `e il centro
Si osservi che r passer`a per P0 e sar`a ortogonale al vettore CP
di C. Quindi r sar`a del tipo
a(x x0 ) + b(y y0 ) = 0,
~ 0 = (x0 , y0 ). Nel nostro caso C(1, 1) e quindi r : x y + 2 = 0.
con (a, b) k CP
Nel piano Oxy scrivere lequazione della circonferenza che passa per lorigine O ed
`e tangente nel punto P0 (1, 2) alla retta r : x y + 1 = 0.
3.4.d
Coni e cilindri
53
x = x(u),
y = y(u),
z = z(u).
Se V (x0 , y0 , z0 ) e w(l,
~ m, n) allora, posto P (x, y, z) e Q C si ha
x = x0 + v(x(u) x0 )
x = x(u) + lv
y = y0 + v(y(u) y0 )
y = y(u) + mv
K:
:
z = z0 + v(z(u) z0 )
z = z(u) + nv
basta considerare, nel caso del cono, P~V = v V~Q, nel caso del cilindro P~Q = v w.
~
Esempi ed esercizi.
Riconoscere che la superficie seguente `e costituita da rette
x = u + u2 v,
Sia data la sfera
y = (u2 + 1)v,
z=
1
+ v.
u
: x2 + y 2 + z 2 3x y + 2 = 0.
y = t2 ,
z = t3 .
: x2 + y 2 x = 0
z = 0,
x2 + y 2 x = 0.
54
3.4.e
Superficie di rotazione
x = x(u),
y = y(u),
z = z(u).
3.4.f
Sia C una curva dello spazio e P0 un fissato punto di C. Si chiama retta tangente in
P0 a C la retta r, se esiste, posizione limite della secante congiungente i punti P0 e P di
C, al tendere di P a P0 .
Se
C : x = x(t), y = y(t), z = z(t)
(3.4.5)
allora r sar`a la retta per P0 = P (t0 ) di parametri direttori (x00 , y00 , z00 ). Quindi in P0 esiste
la retta tangente se le funzioni (3.4.5) sono derivabili e P 0~(t0 ) = (x00 , y00 , z00 ) 6= ~0. In tal
caso P0 si dice regolare o non singolare.
Esempio. Trovare la retta tangente in P0 (0, 0, 1) alla curva
x = sin2 ,
y = sin cos ,
z = cos .
55
Poiche
x0 = 2 sin cos , y 0 = cos2 sin2 , z 0 = sin ,
e P0 si ottiene per = 0, si ha P~00 = (0, 1, 0), quindi la retta tangente `e x = 0, z = 1.
3.4.g
Sia una superficie e P0 . Consideriamo linsieme {C} delle curve passanti per P0
ed appartenenti a . Per ognuna di queste curve si consideri (se esiste) la retta tangente
in P0 . Se le rette tangenti a tutte le curve per P0 appartengono ad uno stesso piano,
allora questo sar`a chiamato piano tangente in P0 a .
Sia : f (x, y, z) = 0 una superficie. Il punto P0 `e detto regolare o semplice se
~
= (f )0 = (fx0 , fy0 , fz0 ) 6= (0, 0, 0),
gradf
0
dove fx0 , fy0 , fz0 sono le derivate parziali di f calcolate in P0 . In tal caso esiste il piano
tangente ed ha equazione
fx0 (x x0 ) + fy0 (y y0 ) + fz0 (z z0 ) = 0.
` intuitivo che nel vertice di un cono non esiste il piano tangente. Se `e una sfera, il
E
piano tangente in P0 a `e il piano per P0 ed ortogonale a P~0 C, dove C `e il centro di .
Esempi ed esercizi.
Trovare il piano tangente in P0 (0, 0, 1) alla sfera : x2 + y 2 + z 2 = 1. Si ha fx = 2x,
fy = 2y, fz = 2z, quindi il piano tangente `e z = 1.
Trovare il piano tangente in P0 (0, 0, 1) al cilindro : x2 + y 2 x = 0.
Se
:
x = x(u, v),
y = y(u, v),
z = z(u, v),
56
x = x(u, v0 ),
y = y(u, v0 ),
z = z(u, v0 ),
x = x(u0 , v),
y = y(u0 , v),
z = z(u0 , v).
f (x, y) = 0,
z = 0,
z = 0.
Dunque nel piano xy la retta tangente a C in P0 esiste se P0 `e semplice, cio`e (fx0 , fy0 ) 6=
(0, 0).
Esempio. Abbiamo gi`a visto che la curva
C:
x = sin2 ,
y = sin cos ,
z = cos ,
2 : x2 + y 2 x = 0.
3.4.h
2 : x = 0.
Coordinate cilindriche
Sia un piano ed r una retta perpendicolare ad (detta asse delle quote). Posto
O = r, consideriamo nel piano un riferimento polare (, ) e nella retta r un
riferimento cartesiano.
Se P `e un punto dello spazio, consideriamo P 0 , la sua proiezione ortogonale su , e
P 00 , proiezione ortogonale di P su r. Denotiamo (, ) le coordinate polari di P 0 in ed
h la coordinata di P 00 su r. I tre numeri (, , h), associati a P , si chiamano coordinate
cilindriche di P . Fuori dallasse r, la corrispondenza `e biunivoca. Le coordinate si
57
x = cos 0 < 2
y = sin
R+
hR
z=h
3.4.i
Coordinate sferiche
d
~ ~r colatitudine, 0 ( = /2 latitudine).
= OP
R+
x = sin cos
y = sin sin 0 < 2
z = cos
0
58
3.4.j
Cambiamenti di riferimento
PARTE II
ALGEBRA LINEARE
59
CAPITOLO 4
SPAZI VETTORIALI
4.1
Spazi vettoriali
4.1.a
Definizione
Definizione 4.1. Si definisce spazio vettoriale sul campo K una terna (V, +, ), dove
V 6= `e un insieme e
+ : V V V,
: K V V,
(d) v + w = w + v
61
(x1 , . . . , xn ) =(x1 , . . . , xn ).
Si noti che le operazioni al primo membro sono definite tramite le operazioni componente per componente al secondo membro, e che queste ultime sono le operazioni
di K.
Si verifica facilmente che le operazioni sopra definite assegnano una struttura di
spazio vettoriale su Kn
Esempi notevoli nella classe dellesempio precedente sono Rn e Cn , ed in particolare
R(= R1 ), R2 , R3 .
Linsieme Km,n delle matrici di tipo m, n a coefficienti in K `e uno spazio vettoriale
rispetto alle operazioni di somma tra matrici e di moltiplicazione di una matrice
per uno scalare (vedi 1.2.b).
Linsieme K[t] dei polinomi a coefficienti in K `e uno spazio vettoriale rispetto alle
operazioni di somma di polinomi e moltiplicazione di un polinomio per uno scalare.
Sia X un insieme non vuoto e V uno spazio vettoriale su K. Linsieme
def
M(X, V ) ={f : X V }
(4.1.1)
def
(f )(x) = f (x),
62
4.1.b
Sottospazi vettoriali
~x = (x1 , . . . , xn ),
con
x1 + y1 = 0 + 0 = 0,
x1 = 0 = 0.
Sia Z2 ={~x R2 | x21 + x22 = 1}. Dimostrare che Z2 non `e un sottospazio vettoriale
di R2 .
63
def
4.1.c
Sia V uno spazio vettoriale, e siano S, T due suoi sottospazi. Si dimostra facilmente
che S T `e un sottospazio vettoriale di V , mentre, in generale, S T non `e un sottospazio
vettoriale di V . Posto
def
S + T ={~x + ~y | ~x S, ~y T } S T,
`e immediato verificare che S + T `e un sottospazio vettoriale di V , detto somma di S e di
T . Inoltre:
S + T `e il pi`
u piccolo sottospazio di V contenente S T ;
S T `e il pi`
u grande sottospazio di V contenuto in S e T .
def
S1 + + Sh ={~v1 + + ~vh | vi Si , i = 1, . . . , h}
def
64
Si osservi che
W = S1 S h
Si Sj = {~0} i 6= j,
~x0 + S ={ ~x = ~x0 + ~s | ~s S }.
Si osservi che, per ~x0 6= ~0, ~x0 + S non `e un sottospazio vettoriale di V se ~x0 6 S; se ~xo S
allora ~x0 + S = S.
4.1.d
Sia V uno spazio vettoriale su K e {~vi }1in un suo sottoinsieme finito. Si dice che
un vettore ~v V `e combinazione lineare di {~vi } se esistono 1 , . . . , n K tali che
~v = 1~v1 + + n~vn .
Sia I un insieme non vuoto, anche infinito, e {~vi }iI un sottoinsieme di vettori di V .
Si dice che ~v V `e combinazione lineare di {~vi } se esiste un sottoinsieme finito J I ed
un insieme {j }jJ di scalari di K tali che
~v =
j ~vj .
jJ
j ~vj = ~0
j = 0 j J;
2. dipendente se non `e indipendente, ovvero se almeno uno dei vettori {~vi }iI `e combinazione lineare dei restanti.
4.1.e
65
Sottospazi generati
4.1.f
Basi e dimensione
66
n0 n,
n n0 ,
quindi n = n0 = dim V .
Se dim V = n (ossia, se la cardinalit`a di una base di V `e n), allora
n `e il massimo numero di vettori linearmente indipendenti in V ;
n `e il minimo numero di generatori di V .
Se B = {~ei }1in , allora per ~x V
~x = x1~e1 + + xn~en ,
con (x1 , . . . , xn ) n-pla univocamente individuata. Gli scalari x1 , . . . , xn sono chiamati
coordinate di ~x rispetto alla base B.
Esempi ed esercizi.
Si ha dim Kn = n. Infatti, se 0 `e lelemento neutro di K rispetto alladdizione e 1 `e
lelemento neutro di K rispetto alla moltiplicazione, la base standard `e
def
def
67
4.1.g
Relazione di Grassmann
Teorema 4.4. Sia V uno spazio vettoriale di dimensione finita, e siano S, T due
suoi sottospazi. Allora
dim(S + T ) + dim(S T ) = dim S + dim T.
La formula precedente prende il nome di relazione di Grassmann.
Dimostrazione. Sia {~u1 , . . . , ~uh } una base di S T . Essa si pu`o completare ad
una base {~u1 , . . . , ~uh , ~v1 , . . . , ~vp } di S e ad una base {~u1 , . . . , ~uh , w
~ 1, . . . , w
~ q } di T . Se si
dimostra che
def
B ={~u1 , . . . , ~uh , ~v1 , . . . , ~vp , w
~ 1, . . . , w
~ q}
68
(4.1.2)
si vede che w
~ = c1 w
~ 1 cq w
~ q T S, quindi
w
~ = 1~u1 + + h~uh ,
per opportuni i . Segue
1~u1 + + h~uh + c1 w
~ 1 + + cq w
~ q = ~0,
che implica i = cj = 0 poiche {~u1 , . . . , ~uh , w
~ 1, . . . , w
~ q } `e una base. Quindi la (4.1.2)
diventa
a1~u1 + + ah~uh + b1~v1 + + bp~vp = ~0,
che implica ai = bj = 0, da cui la tesi.
QED
4.1.h
a1n
a11
69
le colonne di A.
Si pu`o provare che
rg{~c1 , . . . , ~cn } rg{~
r1 , . . . , r~m },
rg{~
r1 , . . . , r~m } rg{~c1 , . . . , ~cn },
da cui
rg{~
r1 , . . . , r~m } = rg{~c1 , . . . , ~cn } = rg A,
dove rg A `e il rango della matrice A precedentemente incontrato in 1.3.d. Quindi, se
X = {v1 , . . . , vm } `e un insieme di vettori tale che vi V e dim V = n, allora
rg(X) = rg(A),
dove A `e la matrice le cui colonne (o righe) sono costituite dalle coordinate di v i rispetto
ad una base di V .
Esercizio. Sia U il sottospazio di R4 generato da
~u1 = (1, 1, 1, 1),
e W il sottospazio generato da
w
~ 1 = (1, 2, 0, 2),
w
~ 2 = (1, 2, 1, 2),
w
~ 3 = (3, 1, 3, 1).
4.2
In questa sezione saranno studiate le funzioni tra spazi vettoriali che conservano le
operazioni di somma e prodotto, dunque le funzioni che conservano la struttura di spazio
vettoriale.
4.2.a
Preliminari
70
f 1 (~y ) 6= .
f 1 (~y0 ) = V,
f 1 (~y ) = ~y 6= ~y0 .
Sia dim V = n e B = {~e1 , . . . , ~en } una base di V . Sia dim W = m e B 0 = {e~0 1 , . . . , e~0 m }
una base di W . Allora
~x V
~y W
i = 1, . . . , m.
Supponiamo ora che le fi siano polinomi omogenei di primo grado nelle variabili
x1 , . . . , xn . Allora
y1 = a11 x1 + + a1n xn
...
ym = am1 x1 + + amn xn
o, in forma matriciale,
Y = AX
oppure f (X) = Y.
In tal caso,
f (~x + ~x0 ) = f (~x) + f (~x0 ),
f (~x) = f (~x).
A(X + X 0 ) = AX + AX 0 ,
A(X) = AX.
Infatti,
Le propriet`a precedenti hanno suggerito la definizione astratta di applicazione lineare.
4.2.b
71
Applicazioni lineari
Definizione 4.5. Siano V , W due spazi vettoriali sullo stesso campo K. Sia f : V
W . Si dice che f `e lineare o un omomorfismo se
f (~x + x~0 ) = f (~x) + f (x~0 ) ~x, x~0 V
f (~x) = f (~x) ~x V, K,
o, equivalentemente,
f (~x + x~0 ) = f (~x) + f (x~0 ) ~x, x~0 V, , K.
Come si vede, le applicazioni lineari conservano le operazioni vettoriali. Segue facilmente che f (~0V ) = ~0W .
Esempi.
0 : V W , ~v 7 ~0, applicazione nulla `e lineare. Si noti che una qualunque
applicazione costante non `e lineare a meno che la costante non sia il vettore nullo.
pr : R3 R2 , (x, y, z) 7 (x, y), proiezione, `e lineare, suriettiva, ma non iniettiva.
i : R2 R3 , (x, y) 7 (x, y, 0), inclusione, `e lineare, iniettiva, ma non suriettiva.
Sia ~a V un vettore fissato e T~a : V V tale che ~x 7 ~x + ~a, traslazione. Allora
T~a `e lineare se e solo se ~a = ~0.
Si prova facilmente che, se f : V W e g : W Z sono due applicazioni lineari,
allora
def
g f : V Z, ~x 7 g f (~x) = g(f (~x))
`e lineare.
Se V = W , allora lapplicazione lineare `e detta endomorfismo. Un endomorfismo
notevole `e lapplicazione identit`a
IdV : V V, ~x 7 ~x.
Un endomorfismo f : V V `e detto involutivo se f 2 = Id, `e detto proiettore se
f = f , `e detto nilpotente se esiste m N tale che f m = 0, endomorfismo nullo.
Se f, g : V W , si pone per definizione
2
def
f : V W, ~x 7 (f )(~x) = f (~x).
72
f (~x) = x1 w
~ 1 + + xn w
~ n,
f (~vi ) = w
~ i.
Osservazione. In generale per conoscere unapplicazione f : V W bisogna conoscere f (~x) per ogni ~x V . Il vantaggio delle applicazioni lineari `e che per conoscere f
basta conoscere solo f (~vi ) dove {~vi } `e una base di V , quindi basta un numero finito di
vettori.
Unaltra notevole propriet`a `e la seguente (la cui dimostrazione completa `e lasciata al
lettore)
Proposizione 4.4. Siano V , W due spazi vettoriali sul campo K, ed f : V W
unapplicazione lineare. Allora:
S sottosp. di V
T sottosp. di W
f (S) sottosp. di W ,
f 1 (T ) sottosp. di V .
Dimostrazione. Se ~y1 , ~y2 f (S), allora ~y1 = f (~x1 ), ~y2 = f (~x2 ) con ~x1 , ~x2 S. Per
la linearit`a
~y1 + ~y2 = f (~x1 ) + f (~x2 ) = f (~x1 + ~x2 ) f (S),
poiche ~x1 + ~x2 S. Analogamente ~y1 = f (~x1 ) f (S) per K.
QED
73
Im f ={f (~x) W | ~x V } = f (V ),
che, quindi, risultano sottospazi vettoriali.
Esercizio. Si verifichi direttamente, usando la proposizione 4.1, che Ker f ed Im f
sono sottospazi vettoriali.
Pi`
u precisamente,
Ker f `e un sottospazio vettoriale di V e dim Ker f dim V ;
Im f `e un sottospazio vettoriale di W e dim Im f dim W .
x~0 ~x Ker f
x~0 = ~x + Ker f.
Dimostrazione. Infatti,
f (~x) = f (x~0 )
f (x~0 ) f (~x) = ~0
f (x~0 ~x) = ~0
x~0 ~x Ker f.
QED
Quindi, in generale,
f 1 (f (~x)) = ~x + Ker f = {~x + ~u | ~u Ker f },
e dunque
f `e iniettiva
f `e suriettiva
74
f (1~v1 + + n~vn ) = ~0
1~v1 + + n~vn = ~0
i = 0.
(4.2.3)
b1 = = b q = 0
QED
Chiamiamo
dim(Ker f ) = nl(f ) = nullit`a di f ,
4.2.c
75
Isomorfismi
dim V = dim W.
Dimostrazione. Sia V
= W . Allora esiste un isomorfismo f : V W , e risulta
~
Ker f = {0} e Im f = W . Dal teorema fondamentale segue
dim(W ) = dim(Im f ) = dim V.
Viceversa, sia dim V = dim W = n. Sia B = {~e1 , . . . , ~en } una base di V e B 0 =
{e~0 1 , . . . , e~0 n } una base di W . Definiamo unapplicazione lineare f : V W ponendo
def
f (~ei ) = e~0 i . La proposizione 4.3 assicura che f `e univocamente definita. Per la linearit`a,
~x = x1~e1 + + xn~en
~vi 7 ~ei ,
(4.2.4)
dove C = {~ei }1in `e la base canonica di Kn . Dal lemma 4.1 si vede subito che Im cB = Kn ,
dunque per il teorema fondamentale cB `e un isomorfismo. Lapplicazione cB `e detta
applicazione coordinata di V in Kn rispetto a B. Essa associa ad ogni ~v V il vettore
delle sue coordinate rispetto alla base B. In altre parole, Kn `e un modello per tutti gli
spazi vettoriali di dimensione n.
Esempi ed esercizi.
Lo spazio dei polinomi Rn [t]`e isomorfo allo spazio Rn+1 tramite lisomorfismo cB
indotto dalla base B = {tn , . . . , t, 1} tale che cB (an tn + + a1 t + a0 ) = (an , . . . , a0 ).
76
D=
d
: R3 [t] R3 [t]
dt
`e tale che D(th ) = hth1 per h 1 e D(1) = 0. Si verifica che D `e lineare e che
Im D = R2 [t], quindi D non `e suriettiva. D non `e nemmeno iniettiva, poiche
D(p(t)) = D(p(t) + k),
k R.
4.2.d
Siano V , W , due spazi vettoriali di dimensione finita, con dim V = n, dim W = m. Sia
f : V W unapplicazione lineare. Siano B = {~ei }1in una base di V e B 0 = {e~0 j }1jm
una base di W . Allora
f (~ei ) = a1i e~0 1 + + ami e~0 m .
(4.2.5)
Viene cos` introdotta una matrice A = (aij ) di tipo m n dove la colonna i-esima `e
costituita dalle coordinate di f (~ei ) rispetto alla base B 0 .
In simboli,
0
A = MBB (f ),
detta matrice associata ad f rispetto alle basi B e B 0 . Si noti che variando le basi la
matrice cambia.
Viceversa, partendo da una matrice A Km,n `e possibile costruire unapplicazione
lineare
fA : Kn Km , X 7 AX.
77
Ovviamente, A = MCC (fA ), dove C e C 0 sono le basi canoniche di Kn e Km , rispettivamente. La relazione tra f ed fA `e schematizzata dal seguente diagramma
f: V
cB - n
K
c1
B0 W
fA - m
K
o, in altri termini, f = c1
B0 fA cB . Infatti,
1
v ) = c1
c1
B0 fA (X) = cB0 (AX),
B0 fA cB (~
g: W Z
def
h=gf: V Z
`e lineare e per le matrici associate vale
00
00
00
MBB (f ) = A Km,n ,
allora
C = BA.
Infatti, usando un simbolismo compatto, posto
Y = AX,
Z = BY,
Z = CX,
si ha
Z = B(AX) = (BA)X
C = BA
78
Lemma 4.2.
X
F X = GX
F = G.
rg(F G) = 0
F = G.
QED
Nota. La matrice associata ad unapplicazione lineare d`a tutte le informazioni sullapplicazione lineare stessa. Ad esempio,
dim(Im f ) = rg(f ) = rg A,
dim(Ker f ) = dim V rg A.
Se A `e una matrice invertibile, allora f `e un isomorfismo.
I risultati sin qui esposti possono essere riassunti dal seguente teorema.
Teorema 4.7. Siano V , W , due spazi vettoriali di dimensione finita, con dim V = n,
dim W = m. Sia f : V W unapplicazione lineare. Siano B = {~ei }1in una base di V
e B 0 = {~e0j }1jm una base di W . Allora lapplicazione
0
MBB (f ) = MBB (f ).
Inoltre, MBB `e iniettiva perche la matrice nulla `e la corrispondente della sola applicazione
0
lineare nulla tra V e W . Infine, MBB `e suriettiva poiche `e stato visto che per ogni matrice
0
QED
A `e possibile costruire unapplicazione lineare f : V W tale che MBB (f ) = A.
Esempi ed esercizi.
Sia f : R3 R3 , (x, y, z) 7 (x + z, y, x + z). Allora la matrice di f rispetto alla
base canonica C di R3 (in dominio e codominio) `e
1 0 1
MCC (f ) = 0 1 0 .
1 0 1
79
0 1 0 0
0 0 2 0
MPP (D) =
0 0 0 3 .
0 0 0 0
Si provi che D `e nilpotente.
4.2.e
Cambiamenti di base
B = {~e1 , . . . , ~en },
due basi distinte (anche solo per lordine degli elementi). Allora
e~0 k =
n
X
bjk~ej ,
~ej =
n
X
crj e~0 r .
r=1
j=1
xj =
X
i
bji x0i
X = BX 0 ,
e, naturalmente X 0 = B 1 X.
Osservazione 4.1. Il cambio di base si pu`o interpretare in due modi:
1. si vedono gli stessi vettori rispetto a due basi (sistemi di riferimento) diversi;
2. si interpreta il cambio di base come una trasformazione di tutto lo spazio in se stesso
che porta i vettori di una base nei vettori di unaltra base.
80
Questi due punti di vista sono detti punto di vista passivo ed attivo, e ricorrono spesso
nelle Scienze applicate quali la Fisica e lIngegneria.
Siano V , W , due spazi vettoriali di dimensione finita, con dim V = n, dim W = m. Sia
f : V W unapplicazione lineare. Siano B = {~vi }1in una base di V e C = {w
~ j }1jm
una base di W . Allora, se ~y = f (~x) si ha
Y = AX,
def
con A = MCB (f ).
le coordinate
Consideriamo due nuove basi B di V e C di W . Allora, indicate con X
X = B X,
quindi
C Y = A(B X)
Y = C Y ,
Y = C 1 AB X.
con A def
Ma risulta Y = AX,
= MBC (f ), quindi
A = C 1 AB.
quindi B = C e
Nel caso in cui f `e un endomorfismo, si pu`o scegliere B = C e B = C,
A = B 1 AB,
cio`e A e A sono matrici simili.
Resta cos` provato il seguente notevole teorema.
Teorema 4.8. Matrici associate ad uno stesso endomorfismo rispetto a basi diverse
sono simili.
Nota. Poiche dim(Im f ) non dipende ovviamente dalla scelta delle basi, segue che
rg(A) = rg(A).
4.2.f
~x Ker fA .
81
~0 `e lunica soluzione,
esistono autosoluzioni.
Pi`
u precisamente, per il teorema fondamentale,
dim(Ker fA ) = n rg(A).
Consideriamo ora un sistema lineare generale (omogeneo o no)
(A~x = ~b).
AX = B
(4.2.7)
fA (~x) = ~b
~x fA1 (~b);
fA1 (~b) 6=
~b Im fA .
Ora
rg(fA ) = dim(Im fA ) = rg(A) = p.
Indichiamo con ~ci1 , . . . , ~cip p colonne linearmente indipendenti di A (che generano Im fA ).
Allora
(4.2.7) compatibile ~b Im fA ~b L(~ci1 , . . . , ~cip )
{~b, ~ci1 , . . . , ~cip } dipendenti rg{~b, ~ci1 , . . . , ~cip } = p.
dove A = (A|B) `e la matrice completa del sistema.
Ma rg{~b, ~ci1 , . . . , ~cip } = rg(A),
Abbiamo cos` provato il seguente teorema.
Teorema 4.9 (Rouch
eCapelli). Il sistema AX = B `e compatibile se e solo se
rg(A) = rg(A).
Descriviamo ora lo spazio S delle soluzioni di (4.2.7). Se ~x0 `e tale che f (~x0 ) = ~b, cio`e
una soluzione del sistema non omogeneo, e ~x `e tale che f (~x) = ~0, allora
f (~x0 + ~x) = ~b
S = ~x0 + Ker f,
(4.2.8)
quindi se ~x0 6= ~0 lo spazio S non `e uno spazio vettoriale, ma lo spazio ottenuto traslando
lo spazio vettoriale Ker f mediante il vettore ~x0 , in simboli
S = t~x0 (Ker f ).
82
dim S = dim U.
Ad esempio, le rette ed i piani passanti per lorigine sono sottospazi vettoriali di R 3 , tutte
le rette ed i piani sono sottospazi affini di dimensione 1, 2 di R3 .
Infine, chiamiamo applicazione affine unapplicazione
: V W, = t~a f,
~a W,
4.3
Autovalori ed autovettori
Questa sezione `e dedicata allo studio di alcune propriet`a degli endomorfismi che sono indipendenti dalla scelta di una particolare base. Tali propriet`a rivestono notevole importanza nelle applicazioni perche corrispondono a propriet`a fisiche del modello
studiato.
4.3.a
Definizioni
K,
83
84
4.3.b
Polinomio caratteristico
PA () = det(A Id).
Nota 4.1. Altri autori pongono come polinomio caratteristico
def
A () = det( Id A).
Allora A () = (1)n PA ().
Sviluppando il determinante si vede che
PA () = cn (A)n + cn1 (A)n1 + + c1 (A) + c0 (A),
dove ch (A) sono funzioni degli elementi della matrice A:
cn (A) = (1)n ,
cn1 (A) = (1)n1 tr(A),
...
c0 (A) = det(A).
Essendo cn (A) 6= 0, PA () `e un polinomio di grado n.
Si chiama autovalore della matrice A uno scalare K in corrispondenza del quale
esiste un vettore non nullo X Kn,1 tale che
AX = X.
Teorema 4.11. Gli autovalori di A sono le radici in K dellequazione P A () = 0.
Dimostrazione.
AX = X
(A Id)X = O.
QED
Lequazione PA () = 0 `e detta equazione caratteristica. Se K = C, campo algebricamente chiuso, lequazione PA () = 0 ha n radici in C, pertanto A ha in C n autovalori
contati con la loro molteplicit`a. Se K = R, gli autovalori di A sono le radici reali di
PA () = 0. Se K `e uno zero di PA () di molteplicit`a k (si veda losservazione 1.1 per
la definizione), si dice che `e un autovalore di molteplicit`a algebrica k.
85
Nota. Per trovare gli autovalori di una matrice, troviamo gli zeri di un polinomio.
Questa metodologia `e in un certo senso reversibile. Il calcolo degli zeri di un qualunque
polinomio
p(t) = tn + an1 tn1 + + a1 t + a0
si pu`o ricondurre al calcolo degli autovalori della matrice compagna di p, cio`e della
matrice
0
1
0 ...
0
0
0
1 ...
0
A=
. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
0
0
0 ...
1
a0 a1 a2 . . . an1
Infatti det(A Id) = p(), dunque le radici di p(t) = 0 sono gli autovalori di A. Tuttavia, esistono infinite matrici che hanno il polinomio p(t) come polinomio caratteristico.
Teorema 4.12. Se A ed A0 sono due matrici simili, allora PA () = PA0 ().
Dimostrazione. Sia A0 = B 1 AB. Allora
PA0 () = det(A0 Id) = det(B 1 AB B 1 B)
= det(B 1 (A Id)B) = det(A Id) = PA ().
QED
f (~x) = ~x
che in forma matriciale, fissata una base, `e rappresentato dal sistema omogeneo
(A Id)X = O,
dove f (X) = AX. La conclusione si ottiene ricordando precedenti teoremi, tenendo conto
QED
che un autovettore `e un vettore non nullo.
86
0 1 0
A = MCC (f ) = 1 0 0 , det(A Id) = (2 )(2 + 1) = 0.
0 0 2
Dunque A ammette come unico autovalore reale = 2. Troviamo ora lautospazio V (2) =
Ker(A 2 Id).
2 1 0
x
0
1 2 0
y = 0
(A 2 Id)X = O
0
0 0
z
0
2x y = 0
~u1 = (i, 1, 0)
~u2 = (i, 1, 0)
~u3 = (0, 0, 1).
i
B
A = MB (f ) = 0
0
0 0
i 0 .
0 2
4.3.c
87
Endomorfismi semplici
1 0 . . . 0
0 2 . . . 0
MBB(f ) =
. . . . . . . . . . . . . . . ,
0 0 . . . n
cio`e f ha una rappresentazione semplice costituita da una matrice diagonale, Per questo
si dice anche che f `e diagonalizzabile.
Se f `e semplice e B = {~e1 , . . . , ~en } `e unaltra base, allora, come `e noto, MBB (f ) `e simile
a MBB(f ).
Una matrice A Kn,n `e detta diagonalizzabile se esiste una matrice D diagonale simile
ad A.
Vedremo subito che non tutti gli endomorfismi sono semplici e quindi che non ogni
matrice `e diagonalizzabile.
Teorema 4.14 (Criterio di semplicit`
a). Lendomorfismo f : V V `e semplice se
e solo se
1. tutti gli zeri 1 , . . . , r di Pf () appartengono a K;
2. mi = si i = 1, 2, . . . , r n, dove mi `e la molteplicit`a algebrica (osservazione 1.1)
ed si quella geometrica dellautovalore i .
Si pu`o dimostrare che, in generale,
1 si mi ,
quindi in particolare se Pf () ha n zeri tutti distinti, appartenenti a K, allora mi = 1
i, quindi f `e semplice poiche si = mi = 1 per ogni i. Daltra parte se 1 , . . . , n sono
distinti allora autovettori corrispondenti ~u1 , . . . , ~un sono indipendenti e quindi costituiscono una base. Si noti che lavere n autovalori distinti `e condizione solo sufficiente ma
non necessaria. Ad esempio, I `e certamente diagonalizzabile (essendo diagonale) ma gli
autovalori sono tutti coincidenti.
Se f `e semplice, indicato con V (i ) lautospazio relativo allautovalore i , si ha
V = V (1 ) V (r ).
Una base di autovettori di V `e ottenuta scegliendo in ogni autospazio una base. Da qui
segue anche
f semplice
88
Ak = B 1 Dk B,
Esempi ed esercizi.
Sia V = R3 e W = L(~v1 , ~v2 ) dove ~v1 = (0, 3, 1) e ~v2 = (1, 4, 1).
1. Provare che f : W R3 definita da
f (~v1 ) = (1, 5, 2),
`e un endomorfismo.
2. Trovare gli autovalori di f : W W .
1. Bisogna dimostrare che f (W ) W ; basta che f (~v1 ), f (~v2 ) L(~v1 , ~v2 ), cio`e
esistono a, b, c, d R tali che
f (~v1 ) = a~v1 + b~v2 ,
= 1, 2.
89
CAPITOLO 5
In questo capitolo sar`a introdotta unulteriore struttura algebrica sugli spazi vettoriali.
Questa struttura permette di introdurre il concetto di lunghezza di un vettore e di angolo
tra due vettori in spazi vettoriali generici, generalizzando gli analoghi concetti gi`a visti
per V3 .
Nota. In tutto il capitolo gli spazi vettoriali saranno di dimensione finita sul campo
dei numeri reali R.
5.1
5.1.a
Forme bilineari
Sia V uno spazio vettoriale (di dimensione n sul campo R). Unapplicazione lineare
f : V R si dice forma lineare. Lo spazio vettoriale
def
V = Lin(V, R)
`e detto duale di V . Per il teorema 4.7 si ha dim V = n 1 = n, quindi V
= V.
Definizione 5.1. Sia V uno spazio vettoriale, dim V = n. Unapplicazione
: V V R
si dice bilineare se `e lineare in entrambi gli argomenti, cio`e
(~x + x~0 , ~y ) = (~x, ~y ) + (x~0 , ~y ),
(~x, ~y + y~0 ) = (~x, ~y ) + (~x, y~0 ),
per ogni ~x, x~0 , ~y , y~0 V e R.
90
(~x, ~y ) = (~x, ~y ),
(~x, ~y ) = (~x, ~y ),
91
~x, ~y V ;
~x, ~y V.
(i, j = 1, . . . , n),
allora
(~x, ~y ) = (
X
i
xi~ei ,
yj ~ej ) =
XX
i
xi yj (~ei , ~ej ) =
aij xi yj = tXAY,
ij
MB () simmetrica,
MB () antisimmetrica.
92
~y V,
(~x, ~y ) = 0
~x = ~0.
~y V
(~x, ~y ) = 0
~x = ~0
Se
~x 6= ~0 : (~x, ~ei ) = 0 i = 1, . . . , n.
xi (~ei , ~ej ) = 0
i=1
n
X
det A 6= 0.
aij xi = 0,
i=1
e cio`e
non degenere
5.1.b
93
Forme quadratiche
Definizione 5.2. Sia V uno spazio vettoriale (di dimensione n sul campo R), e
: V V R una forma bilineare simmetrica. Si dice forma quadratica associata
a l applicazione
def
Q : V R, Q(~x) = (~x, ~x).
In una base si ha lespressione
aij xi xj = tXAX,
ij
0
1 0 . . . . . . . . . . . . . . . . . . . . .
0 20 . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
0
,
A =
0
0
.
.
.
.
.
.
.
.
.
.
.
.
0
p
0 . . . . . . . . . . . . . . . . . 0 . . .
0 ...................... 0
94
Il teorema afferma che, considerata una matrice simmetrica A, esiste almeno una
matrice invertibile B ad elementi reali tali che A0 = tBAB sia diagonale.
Si osservi che la forma canonica non `e unica. Se troviamo unaltra base B 00 per cui
(e~00 i , e~00 j ) = 0 per i 6= j, allora la forma canonica indotta potr`a avere coefficienti i00 6= i0 ,
ma resta costante il numero dei coefficienti positivi, il numero dei coefficienti negativi, e
quello dei coefficienti nulli (teorema di Sylvester). Anzi, quei coefficienti non nulli si
possono scegliere in modo tale che i0 = 1.
Innanzitutto ordiniamo i vettori di B 0 in modo che
i0 > 0
i0 < 0
i0 = 0
1 i s,
s + 1 i p,
p + 1 i n.
~ i } in questo modo:
Allora, a partire da B 0 costruiamo una nuova base {E
e~0 i
~ i def
E
=p 0
i
e~0 i
~ i def
E
=p 0
i
~ i def
E
= e~0 i
se i0 > 0
se i0 < 0
se i0 = 0
Ids
O
O
O Idps
O
O
O
Onp
dove Idh Rh,h `e la matrice identit`a e Onp quella nulla. Il cambiamento di coordinate
ha, dunque, la forma
Xi =
i0 x0i
Xi = i0 x0i
Xi = x0i
se i0 > 0,
se i0 < 0,
se i0 = 0.
95
Q(~x) 0 ~x V
Q(~x) > 0 ~x V r ~0
Q(~x) 0 ~x V
Q(~x) < 0 ~x V r ~0
definita positiva
semidefinita negativa
definita negativa
indefinita
Equivalentemente
semidefinita positiva
definita positiva
semidefinita negativa
definita negativa
indefinita
5.2
Prodotti scalari
In questa sezione sono oggetto di studio le propriet`a dei prodotti scalari, cio`e delle
forme bilineari simmetriche definite positive. Questi oggetti generalizzano la nozione
analoga introdotta nello spazio V3 ad uno spazio vettoriale arbitrario e permettono quindi
la generalizzazione della geometria euclidea a spazi vettoriali arbitrari.
96
5.2.a
Definizione
Definizione 5.3. Sia V uno spazio vettoriale (di dimensione n) sul campo R. Si
chiama prodotto scalare o metrica su V unapplicazione
g: V V R
bilineare, simmetrica e definita positiva.
Se si usa la notazione pi`
u usuale ~u ~v = g(~u, ~v )1 , allora le propriet`a di g si traducono
nelle seguenti:
1. distributivit`a:
~u (~v + v~0 ) = ~u ~v + ~u v~0 ,
2. omogeneit`a:
~u (~v ) = (~u ~v ),
(~u) ~v = (~u ~v );
3. commutativit`a: ~u ~v = ~v ~u;
4. essere def. positiva: ~u ~u > 0 per ogni ~u 6= ~0, da cui ~u ~u = ~0 ~u = ~0.
Definizione 5.4. Si dice spazio vettoriale euclideo uno spazio vettoriale V sul campo
R, di dimensione finita, dotato di un prodotto scalare g.
Nota 5.1. Dalla propriet`a 4 segue anche che
~v
~u ~v = 0
~u = ~0;
~u ~v = u1 v1 + + un vn
def
V = Rn,n , g(A, B) =
1
97
def
Il numero
def
k~ukg =
p
g(~u, ~u) 0
In poche parole,
k~uk2g = Q(~u),
def
~ e ~v = OQ,
~ allora distg (~u, ~v ) =
distanza di ~u da ~v (rispetto a g). Infatti, se ~u = OP
distg (P, Q) = kP Qkg .
Teorema 5.2 (Disuguaglianza di Schwarz). Se V `e uno spazio vettoriale euclideo
con prodotto scalare g e ~u, ~v V , allora
|g(~u, ~v )| k~ukg k~v kg ,
|g(~u, ~v )| = k~ukg k~v kg ~u k ~v .
Dimostrazione. Se ~v = ~0 o ~u = ~0, la disuguaglianza `e banale. Se ~u 6= ~0 e ~v 6= ~0 si
consideri ~u + ~v , per R. Allora
() = k~u + ~v k2g = k~uk2g + 2g(~u, ~v ) + 2 k~v k2g 0.
Da propriet`a delle disequazioni (o da semplici considerazioni geometriche sulle parabole)
si deduce
g(~u, ~v )2 k~uk2g k~v k2g 0,
da cui la conclusione.
QED
98
QED
Come sopra,
k~u + ~v kg = k~ukg + k~v kg
~u = k~v , k > 0.
1,
k~ukg k~v kg
k~ukg k~v kg
c
~v (se ~u, ~v 6= ~0) cos`
quindi possiamo definire il coseno dellangolo ~u
def
c
cos ~u
~v =
g(~u, ~v )
.
k~ukg k~v kg
Naturalmente la definizione `e stata suggerita dal caso dei vettori geometrici dove il
prodotto scalare `e quello standard (si veda il paragrafo 2.4.a).
5.2.b
Ortonormalizzazione
99
Geometricamente, ci`o significa che i vettori sono perpendicolari tra loro e di lunghezza
unitaria.
Teorema 5.4. Ogni spazio vettoriale euclideo ammette una base ortonormale.
Dimostrazione. La dimostrazione `e costruttiva. Si fa vedere come da ogni base
{~ui }1in si pu`o costruire una base ortonormale {~ei }1in con un procedimento detto
ortonormalizzazione di GramSchmidt.
Sia, dunque, {~ui }1in una base in uno spazio vettoriale euclideo con prodotto scalare
g. Basta porre
def
~e1 =
~u1
,
k~u1 kg
def
~vh = ~uh
h1
X
~e2 =
def
~eh =
i=1
~v2
,
k~v2 kg
~vh
.
k~vh kg
QED
Le basi ortonormali sono molto utili anche perche, rispetto a tali basi, la matrice
associata `e la matrice identit`a ed il prodotto scalare assume la forma standard
g(~x, ~y ) =
n
X
xi yi = XY,
i=1
5.2.c
k~xk2g
n
X
x2i = tXX.
i=1
Complemento ortogonale
Sia V uno spazio vettoriale euclideo con prodotto scalare g ed U V un suo sottospazio. Il seguente sottoinsieme di V
def
(5.2.1)
100
n
X
i~ei
i=1
i = g(~x, ~ei );
p
X
i~ei ,
~xU =
n
X
i~ei ,
i=p+1
i=1
con i = g(~x, ~ei ). Il vettore ~xU `e detto proiezione ortogonale di ~x su U : infatti ~xU U e
~x ~xU U , cio`e `e ortogonale a U .
Lapplicazione lineare
pU : V V, ~x 7 ~xU
(5.2.2)
5.2.d
Applicazione aggiunta
~x V, ~y W.
5.2.e
Endomorfismi simmetrici
~x, ~y V.
Se B `e una base ortonormale, allora la matrice A associata ad f (cio`e tale che f (X) = AX)
`e simmetrica, essendo tA = A.
101
def
102
e quindi
Qf (~x) = g(f (~x), ~x) = 1 x21 + + n x2n .
Abbiamo cos` un metodo standard per ridurre a forma canonica una forma quadratica:
basta trovare gli autovalori della matrice simmetrica associata. Gli autovettori corrispondenti ad autovalori distinti risulteranno ortogonali, mentre per autovettori indipendenti corrispondenti ad uno stesso autovalore pu`o rendersi necessario il procedimento di
ortonormalizzazione.
5.2.f
MBB (f )
a11 a12
=
.
a21 a22
Allora Qf (~x) = a11 x21 + 2a12 x1 x2 + a22 x22 . Per quanto sopra detto, esiste una base
ortonormale di autovettori B = {e~0 1 , e~0 2 } rispetto alla quale Qf assume la forma canonica
2
Qf (~x) = 1 x0 1 + 2 x0 2 .
Quanto detto `e utile per la riduzione a forma canonica di una conica
C : a11 x2 + 2a12 xy + a22 y 2 + 2a13 x + 2a23 y + a33 = 0.
Posto ~v = (x, y) e Q(~v ) = a11 x2 + 2a12 xy + a22 y 2 si pu`o trovare una base ortonormale di
autovettori rispetto alla quale Q assume la forma canonica, quindi
2
C : 1 x0 + 2 y 0 + 2a0 x0 + 2b0 y 0 + c0 = 0.
Distinguiamo due casi.
1. Sia 1 2 6= 0. Tramite la traslazione
x = x0 x0 ,
y = y 0 y0 ,
103
C ellisse,
C iperbole.
a2 d
b2 d
a2
b
5.2.g
104
Quanto detto `e utile per la riduzione a forma canonica di una quadrica, che si pu`o
scrivere nella forma
: Qf (~x0 ) + 2a014 x0 + 2a024 y 0 + 2a034 z 0 + a044 = 0.
Se 1 2 3 6= 0, tramite una traslazione nel centro della quadrica (punto in cui fx = fy =
fz = 0) si ottiene la forma canonica
1 x2 + 2 y2 + 3 z2 + d = 0.
(5.2.3)
y2
b2
y2
+ 2
b
y2
+ 2
b
y2
2
b
+
z2
c2
z2
+ 2
c
z2
2
c
z2
2
c
+
=1
ellissoide reale
= 1
ellissoide immaginario
=1
=1
paraboloide ellittico
paraboloide iperbolico
=0
a2
b2
c2
105
=1
a2
b2
x2 = 2p
y
cilindro ellittico
cilindro iperbolico
cilindro parabolico
Se tutti gli zeri del polinomio sono reali, allora il numero degli zeri strettamente positivi coincide con
il numero delle variazioni di segno della successione ordinata dei coefficienti.
106
107
108
5.3
109
Trasformazioni ortogonali
In questa sezione verranno studiate le funzioni tra spazi vettoriali euclidei che conservano i prodotti scalari. Tali funzioni conservano anche le distanze, le lunghezze e gli
angoli.
5.3.a
Definizione
Sia (V, g) uno spazio vettoriale euclideo. Un endomorfismo f : V V si dice trasformazione ortogonale se
g(f (~x), f (~y )) = g(~x, ~y )
~x, ~y V,
f (f (~y )) = ~y ~y .
(3) (1). Per definizione g(f (~x), ~z) = g(~x, f (~z)) per ogni ~x, ~z V . Posto ~z = f (~y )
e ricordando che f = f 1 si ha la tesi.
QED
(2) (3). Segue tenendo conto le equivalenze sopra dimostrate.
Dal punto (2) segue che
dist(f (~x), f (~y )) = kf (~x) f (~y )kg = k~x ~y kg = dist(~x, ~y ),
cio`e f `e una isometria (lineare), cio`e f conserva le distanze.
110
Dal punto (3) segue che, indicata con A = MBB (f ) la matrice di f rispetto ad una
base ortonormale B, si ha
t
AA = Id = AtA
A = A1 ,
QED
Lapplicazione
~ 12 ) = ~e2 ,
f (E
~ 21 ) = ~e3 ,
f (E
~ 22 ) = ~e4 ,
f (E
111
Esercizio. Sia U un piano di R3 . La proiezione pU : R3 R3 non `e una trasformazione ortogonale poiche non `e una isometria.
5.3.b
Gruppo ortogonale
Il sottoinsieme
def
}
2
V (1) = {(x, y) R2 | y = x tg
+
}
2
2
V (1) = {(x, y) R2 | y = x tg
112
Le rette V (1) e V (1) sono tra loro ortogonali, e V (1) `e il luogo dei punti fissi. f A si dice
ribaltamento o simmetria assiale (rispetto alla retta V (1)). Lendomorfismo f A `e semplice
ed A = S() `e simile alla matrice S(0), che esprime il ribaltamento intorno allasse x,
mentre, ovviamente, S() esprime il ribaltamento rispetto alla retta y = x tg(/2).
Esercizi.
Si verifichi che R() S(0) = S(), e si interpreti geometricamente il risultato.
Calcolare S(0) R().
Dire se O(2; R) e O+ (2; R) sono gruppi commutativi.
` vero che R() = R()?
E
Provare che le simmetrie assiali generano tutti gli elementi di O(2; R).
Caso particolare n = 3. Sia f : R3 R3 una trasformazione ortogonale e consideriamo il sottospazio dei vettori fissi
U = {~x R3 | f (~x) = ~x}.
Si pu`o dimostrare che
dim U
dim U
dim U
dim U
=3
=2
=1
=0
f
f
f
f
identit`a
simm. ort. risp. U
rotaz. intorno U
rotosimmetria
dove per rotosimmetria si intende la composizione di una rotazione intorno ad una retta
e di una simmetria rispetto ad un piano. Se B `e una base ortonormale contenente una
base di V (1) e A = MBB (f ), allora, posto U = V (1), nel caso U 6= {~0},
dim U = 3
dim U = 2
dim U = 1
dim U = 0
A = Id
1 0 0
A 0 1 0
0 0 1
1
0
0
1
0
A 0 cos sin =
= R()
0 R()
0 sin cos
1
0
= S()
A
0 R()
113
Nota. Sia V uno spazio vettoriale euclideo con prodotto scalare g. Il sottoinsieme
def
5.3.c
Movimenti
Sia V uno spazio euclideo di dimensione n con prodotto scalare g. Si dice movimento
di V unapplicazione m ottenuta componendo una trasformazione ortogonale f di V con
una traslazione t~b , ossia
m = t~b f : V V, ~x 7 f (~x) + ~b,
oppure m = f t~c con ~c = f 1 (~b).
Si osservi che, se ~b 6= ~0, allora m non `e una trasformazione lineare.
Se f O+ (V, g), allora m si dice movimento diretto.
Si prova immediatamente che m `e unisometria, infatti
dist(m(~x), m(~y )) = km(~x) m(~y )kg == kf (~x ~y )kg = k~x ~y kg = dist(~x, ~y ).
Questa propriet`a `e caratteristica dei movimenti (come mostra il seguente teorema, che
non sar`a dimostrato), per cui i movimenti sono chiamati anche trasformazioni rigide.
Teorema 5.8. Sia V uno spazio euclideo di dimensione n con prodotto scalare g. Se
m `e unisometria di V , allora m `e un movimento.
Vogliamo ora trovare la rappresentazione di un movimento in coordinate. Sia B =
{~e1 , . . . , ~en } una base ortonormale di V e MBB (f ) = A O(n; R). Posto ~x = (x1 , . . . , xn ),
m(~x) = (x01 , . . . , x0n ), ~b = (b1 , . . . , bn ), si ha
x0i =
X
j
aij xj + bi
oppure X 0 = AX + B.
114
m rototraslazione,
m glissosimmetria,
dove per glissosimmetria si intende la composizione di una traslazione con una simmetria.
Osservazione. Per ogni n, le simmetrie (o ribaltamenti) rispetto ad iperpiani (sottospazi vettoriali di dimensione n 1) generano tutto il gruppo delle trasformazioni
ortogonali di Rn .
BIBLIOGRAFIA
115
INDICE ANALITICO
complemento ortogonale, 99
conica, 49, 102
cono, 52
direttrice, 52
generatrice, 52
quadrico, 104
vertice, 52
controimmagine, 69
coordinate, 32, 66, 75
cilindriche, 56
polari, 49
sferiche, 57
coseno di un angolo, 98
curva, 46
conica, vedi conica
coordinata, 46
equazione parametrica, 46
equazioni cartesiane, 46
piana, 48
proiezione, 52
punto regolare, 54
L(X), 65
V3 , 29, 95
LATEX2e, 8
Algebra Lineare, 6
Algebra Lineare, 59
anello, 12
commutativo, 13, 14
unitario, 13
applicazione
affine, 82
aggiunta, 100
costante, 70
lineare, 71
iniettiva, 73
matrice, 76
spazio delle, 72
suriettiva, 73
nulla, 71
automorfismo, 75
autospazio, 83
autovalore, 82
autoval. distinti, 87
autovettore, 82
De Giorgi, E., 6
determinante, 19, 22
dimensione, 27, 31, 66
dipendenza, 30, 64
significato geometrico, 31
distanza, 97
disuguaglianza
di CauchySchwarz, 35
triangolare, 35
base, 31, 65
cambiamento di, 33, 79
contraversa, 33
equiversa, 33
ortonormale, 34, 98
Binet, 21
regola di, 21
Einstein, A., 6
elemento neutro, 10
elemento simmetrico, 10
ellisse, 49, 103
endomorfismi diagonalizzabili, vedi endomorfismi semplici
endomorfismi semplici, 87
campo, 13
cilindro, 53
generatrice, 53
quadrico, 105
circonferenza, 12, 49, 50, 51, 53, 54, 104
combinazione lineare, 31, 64
116
Indice analitico
endomorfismo, 71
involutivo, 71
nilpotente, 71
proiettore, 71
simmetrico, 100
equivalenza
classe di, 12
relazione di, vedi relazione
fascio, 44
forma bilineare, 90
cambiam. di base, 92
antisimmetrica, 91
definita, 96
matrice associata, 91
non degenere, 92
simmetrica, 91, 96
forma canonica, vedi forma quad., forma canonica
forma quadratica, 93
ass. ad una conica, 102
ass. ad una quadrica, 103
ass. ad una appl. lin., 101
definita, 95
e forma bilineare, 93
forma canonica, 93
forma normale, 94
indefinita, 95
indice, 94
semidefinita, 95
Fourier, coefficienti di, 100
Gauss
metodo di, 26
generatori, 65
Geometria Analitica, 6
Geometria Analitica, 6, 38
Grassmann, vedi teorema di Grassmann
gruppo, 10
abeliano, vedi commutativo, 60
commutativo, 11
ortogonale, 111
sottogruppo, 11
Hamilton, W. R., 29
identit`a, 71
117
immagine, 69
immagine inversa, vedi controimmagine
inclusione, 71
incognita, 26
indipendenza, 27, 31, 64
significato geometrico, 31
insieme quoziente, 12
iperbole, 49, 103
isomorfismo, 75
Laplace, P. L., 20
regola di, 20
legge di composizione, 9
lunghezza, vedi vettore, modulo
matrice, 14
a scalini, 24
aggiunta classica, 21
antisimmetrica, 15
appl. lineari, 76
associata, 76
cambiamento di base, 79
complemento algebrico, 20
completa, vedi sistema, matrice completa
congruenza, 92
covettore, vedi complemento algebrico
determinante, vedi determinante
di permutazione, 15
diagonale, 15, 101
divisore dello zero, 16
equivalente per righe, 23
idempotente, 18
identica, 15
invertibile, 18, 21
minore, 15, 22
complementare, 20
moltiplicazione
per scalari, 15
righe per colonne, 16
nilpotente, 18
opposta, 16
ortogonale, 17, 110
permutabile, 16
quadrata, 14
rango, vedi rango
118
rettangolare, 14
simile, 22
simmetrica, 15
somma, 15
sottomatrice, 15
spazio delle matrici, 67
spazio delle matrici, 61
trasformazioni elementari, 23
trasposta, 15
triangolare
inferiore, 15
superiore, 15
unit`a, vedi matrice, identica
metrica, vedi prodotto, scalare
molteplicit`a
algebrica, 13, 84, 87
geometrica, 83, 87
morfismo, vedi applicazione lineare
movimento, 113
norma, vedi vettore, modulo
nullit`a, 74
omomorfismo, vedi applicazione lineare
ortogonale
componente, 35
proiezione, 35
ortonormalizzazione, 98
parabola, 49, 103
parametro, 26
permutazione, 19
piano, 38, 105
equazione cartesiana, 38
equazione parametrica, 39
giacitura, 39
posizione, 39, 42
tangente, 55
polinomi, 13, 61, 62
anello dei, 14
pol. caratteristico, 84
spazio dei polinomi, 67
prodotto
di matrici, vedi matrice
misto, 36
scalare, 34, 95
Indice analitico
vettoriale, 36
proiezione, 71
proiezione ortogonale, 100
propriet`a
associativa, 9
commutativa, 10, 34, 96
di anticommutativit`a, 36
di omogeneit`a, 34, 36, 96
distributiva, 13, 34, 36, 96
riflessiva, 11
simmetrica, 11
transitiva, 11
quadrica, 46, 103
ellissoide, 104
iperboloide, 104
paraboloide, 104
rango
appl. lineare, 74
di una matrice, 22
di vettori, 68
rappresentazione
cartesiana, 27
parametrica, 27
relazione
binaria, 11
dequipollenza, 29
dequivalenza, 11, 92
retta, 40
coseni direttori, 41
equazioni cartesiane, 40
equazioni parametriche, 41
nel piano, 42
parametri direttori, 41
posizione, 42, 43
rette sghembe, 43
tangente, 54
ribaltamento, 58, 111
riferimento cartesiano, 32
rotazione, 58, 111
Sarrus, formula di, 20
scalare, 30, 61
sfera, 51
simmetria, vedi ribaltamento
Indice analitico
sistema
autosoluzioni, 26
coefficienti, 24
compatibile, 25
ed appl. lineare, 80
forma delle soluzioni, 81
lineare, 24
matrice completa, 25
omogeneo, 26, 80
soluzione, 25
soluzioni proprie, vedi sistema, autosoluzioni
termini noti, 24
somma diretta, 63
sottospazio vettoriale, 62
generato da X, 65
spazio affine, 82
spazio vettoriale, 60
delle appl. lineari, 72
euclideo, 90, 96
finitamente generato, 65
intersezione, 63
somma, 63
somma diretta, vedi somma diretta
stella, 44
struttore algebriche, 9
superficie, 46
equazione cartesiana, 46
algebrica, 46
di rotazione, 54
equazioni parametriche, 46
punto regolare, 55
punto semplice, 55
quadrica, vedi quadrica
rigata, 53
Sylvester, J. J., 19
teorema di, vedi teorema, di Sylvester
teorema
autoval. e pol. caratteristico, 84
autovalori distinit, 83
autovalori trasf. ortog., 110
cambiamento di base, 80
completamento di una base, 65
criterio di semplicit`a, 87
dellisomorfismo, 75
119
di Grassmann, 67
di Cramer, 25
di Eulero, 113
di GramSchmidt, 99
di Pitagora, 97
di RoucheCapelli, 25, 81
di Sylvester, 94
disug. di Minkowski, 98
disug. di Schwarz, 97
disug. triangolare, vedi disug. di Minkowski
fond. appl. lineari, 74
fond. dellalgebra, 14
isometrie e movimenti, 113
matrici ed appl. lineari, 78
pol. caratt. e basi, 85
semplicit`a endom. simm., 101
trasf. ortogonali, 109
Ting, S., 7
trasformazioni ortogonali, 109
traslazione, 71
variabile, 26
variet`a lineare, 82
versore, 35
vettore, 29, 61
applicato, 29
colonna, 14
coseni direttori di un, 35
libero, 29
lunghezza, vedi vettore, modulo
modulo, 29, 97
ortogonalit`a, 97
riga, 14
Viviani, finestra di, 47