Professional Documents
Culture Documents
(Giambattista Marini)
Queste note costituiscono gli appunti del I modulo di geometria e sono rivolte agli studenti
che seguono attivamente il corso.
Capitolo 1.
Lesempio pi`
u elementare di sistema lineare `e il sistema di una equazione in una incognita
ax = b, a, b R .
In questo caso la discussione delle soluzioni `e molto semplice: ci sono tre possibilit`a
i) se a 6= 0 esiste una unica soluzione x = ab ;
ii) se a = b = 0 ogni valore di x `e una soluzione del sistema;
iii) se a = 0 e b 6= 0 il sistema non ha soluzioni.
Esempio. Discutiamo le soluzioni del sistema lineare di una equazione in due incognite
(1) ax + by = c, a, b, c R .
Anche in questo caso lesistenza di soluzioni dipende dai valori dei coefficienti a, b, c .
Assumiamo a 6= 0 e lasciamo allo studente il problema di discutere gli altri casi possibili.
Dividendo per a si ottiene
x = c by /a .
(4) ( ad bc ) y = a c .
Si potrebbe obiettare che potremmo aver moltiplicato per zero (se a = 0). Vero, comunque
luguaglianza scritta resta valida.1 Un calcolo simile mostra che
(5) ( ad bc ) x = d b .
d b a c
(6) x = , y =
ad bc ad bc
Dimostrazione. Dividendo sia (4) che (5) per troviamo le espressioni di x ed y che
abbiamo scritto. Questo dimostra che c`e al pi` u una soluzione, quella indicata.
Lesistenza `e un facile conto: basta sostituire le espressioni trovate nel sistema (3).
f (x, y) := a x + b y e g(x, y) := c x + d y
sono proporzionali: una delle due funzioni `e un multiplo dellaltra. Infatti, se assumiamo
ab 6= 0 (lasciamo allo studente lesercizio di studiare i rimanenti casi possibili), dividendo
la relazione ad = bc per ab troviamo db = ac . Posto k := db , abbiamo
cx + dy = k (ax + by) .
Anche nel caso che abbiamo lasciato per esercizio ab = 0 si presenta lo stesso fenomeno:
il sistema (3) non ammette soluzioni oppure ne ammette infinite. In definitiva vale la propo-
sizione che segue.
Nel paragrafo precedente abbiamo introdotto i sistemi lineari ed abbiamo visto alcune
tecniche atte a trovarne le eventuali soluzioni. In questo paragrafo, procedendo in maniera
pi`
u sistematica e formale, spieghiamo un procedimento, lalgoritmo di Gauss, che consente
di ridurre un qualsiasi sistema lineare dato ad un sistema a scala, e quindi di risolverlo.
Cominciamo con lintrodurre un po di terminologia.
dove gli ai,j ed i bi sono numeri reali (detti coefficienti del sistema), mentre x1 , ..., xn
sono dei simboli detti incognite del sistema.
Una soluzione del sistema `e una npla di numeri x01 , ..., x0n che soddisfano tutte le equazioni.
Definizione. Se i coefficienti b1 , ..., bm (detti anche termini noti) sono tutti nulli diciamo
che il sistema `e omogeneo.
sono equivalenti. Ma non `e necessario risolverli per rendersi conto che sono equivalenti: le
equazioni di S2 le abbiamo ricavate da quelle di S1 (ricopiando le prime due equazioni
e sommando, alla terza equazione, la prima equazione pi` u il doppio della seconda), quindi
4
4x + 3y + 5z = 7
2x + 4y + 2z = 3
`e lequazione
14x + 18y + 16z = 23 ,
ottenuta sommando il doppio della prima equazione al triplo della seconda equazione.
Prima di concludere questo paragrafo torniamo al sistema (?) ed osserviamo che le infor-
mazioni che lo identificano sono racchiuse nei numeri ai,j e bi , numeri che raccoglieremo
in delle tabelle ponendo
a1,1 ... a1,n a1,1 ... a1,n b1
. . . . . . .
A := ai,j := , e: = . .
. . . A . . .
. . . . . . .
am,1 ... am,n am,1 ... am,n bm
LE.G. per righe (quella per colonne `e analoga) `e il procedimento che semplifica una
matrice mediante le seguenti operazioni elementari:
Per risolverlo, il primo passo da fare consiste nello scrivere la matrice completa associata
1 3 1 2
4 9 3 8 .
3 5 2 7
terza, 4) alla prima riga abbiamo sommato la seconda e sottratto il triplo della terza, 5)
abbiamo diviso la seconda riga per -3 ed abbiamo moltiplicato la terza riga per tre. Il sistema
associato allultima matrice che abbiamo scritto `e il sistema
1x + 0y + 0z = 2
x = 2
0 x + 1 y + 0 z = 1 ovvero y = 1
0x + 0y + 1z = 3 z = 3
In virt`
u dellosservazione fondamentale (9) questultimo sistema `e equivalente a quello da
cui siamo partiti, pertanto le soluzioni cercate sono proprio x = 2 , y = 1 , z = 3 .
Le cose non vanno sempre cos` bene, se non altro perche potremmo partire da un sistema
che ammette infinite soluzioni o che non ne ammette affatto.
Definizione. Una matrice a scala superiore `e una matrice A = (ai,j ) Mm,n (R) in
cui (i) , che per definizione `e lindice massimo tale che ai,1 = ... = ai, = 0 , `e
una funzione strettamente crescente dellindice di riga i , con lovvia eccezione che se una
riga `e tutta nulla ci limiteremo a richiedere che le successive siano anchesse nulle (...non
potrebbero avere pi` u di n zeri, poverine hanno solo n elementi!).
Esercizio. Indicare quali matrici tra quelle che seguono sono a scala superiore.
1 3
4 3 1 1 2 3 1 1 0 0 0
0 0 1
2 2 , 0 0 2 1 , 0 0 2 0 ,
0 5
0 0 0 0 0 1 1 0 0 0 0
0 0
0 2 3 1 1 3 3 1 2 1
0 0 2 1 0 0 9 4 0 0 0 0 0
, , ,
0 0 1 5 0 0 0 4 0 0 0
0 0
0 0 0 1 0 0 0 0
Osservazione. I sistemi lineari la cui matrice completa associata `e a scala superiore, che
chiameremo sistemi a scala, si risolvono rapidamente per sostituzione partendo dallultima
equazione e tornando indietro:
si risolve nel modo che segue: si considera lultima equazione e si considerano come parametri
liberi tutte le variabili che seguono w , quindi si scrive
w = 5s + 10 ,
(in questo passaggio non sono apparsi altri parametri liberi oltre s, che abbiamo gi`a consi-
derato) si sostituisce quanto ottenuto nella prima equazione e si isola la variabile x (ripeto,
`e sempre la prima variabile quella che prendiamo), quindi si scrive
x = y s + 5 /2
tenendo le eventuali altre2 variabili, in questo caso solamente la y , come parametri liberi.
In definitiva, lo spazio delle soluzioni del sistema (10) `e
x = y s + 5 /2
(11) x, y, z, w, s z = 7s + 13 / 3 ,
w = 5s + 10
dove, lo ripeto, y ed s sono parametri liberi, ovvero sono variabili che possono assumere
qualsiasi valore.
Lesempio esposto non ha nulla di particolare, ogni sistema lineare la cui matrice completa
associata `e a scala superiore si risolve nello stesso modo. Lunica cosa che potrebbe accadere
2 Oltre quelle gi`
a considerate.
8
`e che lultima equazione `e qualcosa del tipo 0 = 3 , in questo caso il nostro sistema lineare
`e palesemente incompatibile.
Il primo coefficiente non nullo di ogni equazione viene chiamato pivot. Si osservi che i
parametri liberi sono le variabili che non corrispondono ad un pivot. Nellesempio consi-
derato i pivot sono 2, 3, 1 (coefficienti di x, z, w , rispettivamente della prima, seconda e
terza equazione) ed i parametri liberi sono le restanti variabili: y ed s .
Inciso 12. E ` opportuno usare i simboli t1 , t2 , ... per indicare, ed evidenziare, i parametri
liberi. In questo modo le soluzioni del sistema dellesempio vengono scritte nella forma
x = t1 t2 + 5 / 2
y = t
1
0
(12 )
x, y, z, w, s z = 7t2 + 13 / 3 ,
w = 5t + 10
2
s = t
2
detta anche rappresentazione parametrica dellinsieme delle soluzioni del sistema dato.
Visto che sappiamo risolvere i sistemi a scala resta da imparare a ridurre un qualsiasi
sistema ad un sistema a scala, ed in virt`
u dellosservazione (9), resta da illustrare lalgoritmo
che trasforma una qualsiasi matrice in una matrice a scala. Questo algoritmo viene descritto
nella prossima dimostrazione e si chiama algoritmo di riduzione a scala (ovvero di Gauss).
Proposizione 13. Sia A = ai,j Mm,n (R) una qualsiasi matrice rettangolare.
LE.G. per righe consente sempre di trasformarla in una matrice a scala superiore.
Dimostrazione. Sia k lintero pi` u grande tale che la sottomatrice B costituita dalle prime
k colonne di A `e a scala. Ovviamente k pu`o essere zero (per lesattezza, k 6= 0 se e solo
se a2,1 = ... = am,1 = 0 ). Se B non ha righe identicamente nulle, A `e a scala ed abbiamo
concluso. Altrimenti, assumiamo k < n (se k = n la matrice A `e gi`a a scala e non c`e
nulla da dimostrare). Posto r uguale allindice della prima riga identicamente nulla di B
(se k = 0 scegliamo r = 1 ), consideriamo ar,k+1 , ..., am,k+1 . Questi numeri non sono
tutti nulli perche altrimenti la sottomatrice delle prime k + 1 colonne di A sarebbe a scala.
A meno di cambiare lordine delle righe di indice r, ..., m possiamo assumere a r,k+1 6= 0 ,
quindi per ogni i > r sottraiamo alla iesima riga il prodotto della r esima riga per
ai,k+1
ar,k+1 . In questo modo sotto ar,k+1 otteniamo tutti zeri, quindi la sottomatrice delle prime
k + 1 colonne della nuova A (stiamo modificando la nostra matrice) `e a scala.
Iterando questo procedimento arriveremo ad avere k = n ed avremo quindi concluso la
riduzione a scala di A .
0 2 0 5 8 1 0 2 0 5 8 1
0 0 2 2 0 4 0 0 2 2 0 4
C := (3) D := .
0 0 0 3 9 6 0 0 0 3 9 6
0 0 0 7 0 4 0 0 0 0 21 18
In questesempio, consideriamo la prima colonna. Poiche questa, come matrice 4 1 , `e a
scala, andiamo avanti e consideriamo la sottomatrice 4 2 delle prime due colonne che `e
9
anchessa a scala. Quindi guardiamo la sottomatrice delle prime tre colonne. Questa non `e
a scala e purtroppo a2,3 = 0 , ma scambiando la seconda riga con la terza riga, passo (1),
possiamo fare in modo che lelemento della seconda riga e terza colonna diventi diverso da
zero (in questo modo arriviamo alla matrice B ). La sottomatrice delle prime tre colonne
di B non `e ancora a scala perche sotto b2,3 non ci sono tutti zeri. Sottraendo alla quarta
riga i tre mezzi della seconda, passo (2), otteniamo la matrice C , che `e una matrice le cui
prime tre colonne sono a scala. Andiamo avanti: consideriamo la sottomatrice delle prime
quattro colonne di C . Questa non `e a scala ma lo diventa se sottraiamo alla quarta riga
i sette terzi della terza riga, passo (3). In questo modo otteniamo la matrice a scala D ed
abbiamo concluso.
Esercizio. Risolvere i sistemi lineari le cui matrici complete associate sono quelle
dellesercizio precedente. In particolare, discutere la compatibilit`a ed indicare i parametri
liberi.
Esercizio. Risolvere i sistemi lineari che seguono specificando quali incognite sono
parametri liberi ed indicando lo spazio delle soluzioni nella forma
x1 = c1,1 t1 + ... + c1,` t`
(14) x1 , x2 , ... ...
x = cn,1 t1 + ... + cn,` t` ...
n
x3 x4 + x5 + x6 x7 = 3
x1 x2 + 3x5 + 4x6 + x7 = 4
x1 + 3x2 + 2x5 + x6 + x7 = 1
x1 + 4x2 + 7x3 + x4 + 2x5 x6 x7 = 2
10
4. Matrici.
Esempio.
4 3 1 0 1 2 3 11 5 5 4 11
0 2 2 0 + 3 7 2 19 = 3 9 4 19 .
2 5 0 1 3 0 1 57 5 5 1 58
Definizione 16. Siano A = (ai,j ) Mm,n (R) e C = (ci,j ) Mn,k (R) due matrici (si
osservi che il numero delle colonne di A `e uguale al numero delle righe di C ). Si definisce
il prodotto righe per colonne
A C Mm,k (R)
ponendo
n
X
(160 ) AC i,j
:= ai,h ch,j .
h=1
Si osservi che secondo questa formula, lelemento di posto i, j della matrice prodotto
`e il prodotto della iesima riga di A per la j esima colonna di C . Ad esempio,
? ? ?
? ? ? ? ? ? ?
? ? ? = .
a b c ? ? a + b + c ?
? ? ?
Esempio 17.
1 2 0 3
4 0 1 0 7 8 1 11
7 2 1 = .
2 5 0 2 31 10 1
3 0 1 1
otteniamo proprio (si noti che le matrici associate sono quelle del prodotto nellesempio)
(
x1 = 7z1 + 8z2 z3 + 11z4
x2 = 2z1 31z2 10z3 + z4
Osservazione 18. Quanto visto nellesempio vale in generale: il prodotto (righe per
colonne) tra matrici codifica loperazione di sostituzione. Infatti, date A e C come nella
definizione (16), se x1 , ..., xm , y1 , ..., yn e z1 , ..., zk soddisfano le relazioni
Xn k
X
xi = ai,1 y1 + ... + ai,n yn = ai,h yh e yh = ch,1 z1 + ... + ch,k zk = ch,j zj ,
h=1 j=1
(dove i = 1, ..., m e h = 1, ..., n ), allora risulta n !
Xn Xn Xk k
X X
xi = ai,h yh = ai,h ch,j zj = ai,h ch,j zj
h=1 h=1 j=1 j=1 h=1
Si osservi che tra le parentesi c`e la definizione (vedi 160 ) dellelemento di posto i, j del
prodotto A C .
dove ovviamente si richiede che le dimensioni delle matrici in questione siano compatibili
con le operazioni scritte: A, B, C Mm,n (R) , D Mn,k (R) ed E Mk,h (R)
Osservazione 21. Un modo compatto per denotare il sistema lineare (?) introdotto
allinizio del paragrafo 2 consiste nello scrivere
A ~x = ~b ,
x1 b1
. .
dove, per definizione, ~x = .. , ~b = .. , A `e la matrice incompleta associata al
xn bm
sistema lineare dato ed il prodotto `e il prodotto righe per colonne della definizione (16).
Infatti, usando la definizione (16) di prodotto righe per colonne si ottiene proprio
a1,1 x1 +... + a1,n xn
a1,1 . . . a1,n
. . . . . x1 ...
.
A ~x = . . . . . .. =
... Mm,1 (R) .
. . . . . xn ...
am,1 . . . am,n
am,1 x1 +... + am,n xn
12
le relazioni
n
X k
X
xi = ai,h yh , yh = ch,j zj
h=1 j=1
possono essere scritte nella forma compatta
~x = A ~y , ~y = C ~z .
~x = (A C) ~z ,
k
n !
X X
che `e esattamente la forma compatta della relazione xi = ai,h ch,j zj ottenuta
j=1 h=1
nellosservazione (18).
Definizione 23. Sia A = (ai,j ) Mm,n (R) una matrice. La matrice che si ottiene
scambiando le righe con le colonne si chiama trasposta di A e si indica con t A . Osserviamo
che t t
A i,j = aj,i , A Mn,m (R) .
2 5
2 1 3
Esempio. Se A = , allora t A = 1 7 .
5 7 4
3 4
5. Matrici quadrate.
Il prodotto tra matrici in Mn,n (R) ha certamente senso ed il risultato che si ottiene `e
sempre in Mn,n (R) . In effetti Mn,n (R) , con le due operazioni di somma e prodotto, `e un
esempio di anello unitario (un anello `e un oggetto algebrico che noi non studieremo). Non
entrer`o troppo in questioni algebriche, per`o due osservazioni le voglio fare.
Definizione. La matrice nn che ha tutti 1 sulla diagonale principale e tutti zeri altrove
1 0 0 0
0 1 0 0
In := 0 0 1 0
.. .. .. .. ..
. . . . .
0 0 0 1
Osservazione.
A In = In A = A, A Mn,n (R)
Torniamo al sistema lineare (?) del paragrafo 2, ovvero al sistema (vedi osservazione 21):
(26) A ~x = ~b
Assumiamo che esiste linversa di A . In questo caso possiamo moltiplicare ambo i membri
delluguaglianza (26) per A1 , ottenendo A1 (A ~x) = A1 ~b . Per lassociativit`a del
prodotto, A1 (A ~x) = (A1 A) ~x = In ~x = ~x , quindi
(27) ~x = A1 ~b .
6. Determinante.
det (A) := a.
a b
Se A = `e una matrice 2 2 si pone
c d
det (A) := ad bc .
...ma vediamo la definizione generale! La definizione che segue `e induttiva, nel senso che si
definisce il determinante di una matrice di ordine n utilizzando il determinante di matrici
di ordine pi`u basso. Premettiamo una notazione.
Notazione 28. Sia A Mn,n (R) una matrice. Indichiamo con Ci,j Mn1,n1 la
matrice che si ottiene prendendo A e cancellando la iesima riga e la j esima colonna. Ad
esempio,
3 5 1
7 4
se A = 7 2 4 , si ha C1,2 = .
8 9
8 6 9
Definizione 29. Sviluppo di Laplace del determinante. Come abbiamo gi`a menzionato, se
A = (a) `e una matrice di ordine 1 si pone det A := a . Sia quindi n 2 e consideriamo
A = (ai,j ) Mn,n (R) . Si definisce
n
X
(290 ) det A := (1)1+j a1,j det C1,j ,
j=1
Si osservi che la definizione data ha senso, in effetti luguaglianza (29 0 ) definisce in maniera
ricorsiva il determinante: si sa calcolare il determinante delle matrici di ordine 1, quindi si
sa calcolare il determinante di quelle di ordine 2, ne segue che si sa calcolare il determinante
di quelle di ordine 3, ...di quelle di ordine 4, eccetera.
Esempio. Si ha
2 5 3
2 7 3 7 3 2
det 3 2 7 := 2 det 5 det + 3 det
4 6 1 6 1 4
1 4 6
= 2 (12 28) 5 (18 7) + 3 (12 2) = 57 .
Vedremo comunque che il calcolo del determinante di una matrice `e una operazione molto
pi`
u semplice di quanto si possa immaginare ...e temere!
Si osservi che questo risultato, coerentemente col fatto che le permutazini di n elementi
sono n! (n fattoriale), quindi col fatto che tutti i possibili prodotti di n elementi che stanno
sia su righe che su colonne distinte sono in numero uguale a n!, `e in linea con losservazione
precedente sul numero dei monomi che costituiscono il determinante di A .
Con un pizzico di lavoro in pi` u, che a questo punto per`o ce lo risparmiamo per non
appesantire il discorso, non `e difficile comprendere anche quali sono i segni davanti a tali
monomi e in definitiva provare la proposizione che segue.
dove Sn `e linsieme delle permutazioni dei primi n interi {1, ..., n} , e dove () `e il
segno della permutazione .
dispari (`e possibile dimostrare che il segno di una permutazione `e ben definito). Ad esempio,
la permutazione (1) = 3, (2) = 2, (3) = 1, (4) = 5, (5) = 4 , che verr`a denotata con
(3,2,1,5,4) si ottiene scambiando 3 con 1 nonche 5 con 4. Pertanto si realizza effettuando
2 scambi (i.e. `e pari), quindi () = 1 .
Lo studente non si deve spaventare perche non dovr`a mai impelagarsi con il formalismo
di questa formula. Il motivo per cui ho voluto enunciarla `e per ribadire lo straordinario
ordine della funzione determinante. In particolare, per ribadire, usando il linguaggio di
una formula, la (31) appunto, il fatto gi`a menzionato che il determinante `e il polinomio
(omogeneo, di grado n) nelle variabili ai,j i cui monomi che lo costituiscono sono (a meno
del segno) i prodotti di n elementi della matrice che stanno sia su righe che su colonne
distinte. Una conseguenza della (31) `e che lo sviluppo di Laplace del determinante pu`o
essere effettuato rispetto ad una riga a piacere (a dirla tutta, anche rispetto ad una qualsiasi
colonna): sia k un indice che fissiamo, si ha
n
X
(32) det A := (1)k+j ak,j det Ck,j ,
j=1
dove come al solito Ck,j `e la matrice che si ottiene prendendo A e sopprimendo la k esima
riga e la j esima colonna.
Definizione 33. Il prodotto (1)i+j det Ci,j si chiama complemento algebrico di ai,j .
Lemma 34. Il determinante `e una funzione antisimmetrica delle righe della matrice: se
scambiamo tra loro due righe di A il determinante cambia segno.
Dimostrazione. Dalla (32) segue immediatamente che se scambiamo due righe adiacenti
il determinante cambia segno: se A0 `e la matrice che si ottiene scambiando la k esima con
la (k + 1)esima riga di A , lo sviluppo di Laplace di det A rispetto alla k esima riga
coincide con lo sviluppo di Laplace di det A0 rispetto alla (k + 1)esima riga eccetto che per
il fatto che in questo secondo sviluppo il segno davanti ak,j det Ck,j `e (1)k+1+j invece di
(1)k+j (vedi 32).
Poiche `e possibile scambiare due righe qualsiasi effettuando un certo numero di scambi di
righe adiacenti e poiche questo numero `e necessariamente dispari (questo `e un dettaglio di
teoria degli insiemi e delle permutazioni che qui non dimostro), il risultato `e vero in generale.
Lemma 35. Il determinante `e una funzione multilineare delle righe della matrice: sia k
un indice di riga, un numero reale e siano A , A0 , A00 e B quattro matrici tali che
(cio`e coincidono ovunque tranne che per il fatto che la k esima riga di A00 `e la somma
della k esima riga di A con quella di A0 , mentre la k esima riga di B `e il prodotto della
17
Questo enunciato sembra poco digeribile per via delluso degli indici. In realt`a il lemma `e
molto semplice, ci sta dicendo che se fissiamo tutti gli elementi di una matrice eccetto quelli
di una data riga, la funzione determinante, come funzione di quella riga, `e lineare. ...ma `e
meglio dirlo con due esempi:
2 5 2 5
Esempio. det = det .
7 3 7 3
2+3 5+1 2 5 3 1
Esempio. det = det + det .
4 7 4 7 4 7
Esercizio. Calcolare i determinanti delle matrici indicate negli esempi.
Esercizio 36. Sia A una matrice di ordine n e sia A la matrice che si ottiene
moltiplicando tutti gli elementi di A per la costante . Verificare che det (A) = n det A .
Dimostrazione (del lemma 35). Poiche le matrici coincidono fuori della k esima riga,
calcolando il determinante utilizzando lo sviluppo di Laplace proprio rispetto alla k esima
riga (formula 32), si ottiene
n
X n
X
det A + det A0 = (1)k+j ak,j det Ck,j + (1)k+j a0k,j det Ck,j
j=1 j=1
n
X
= (1)k+j ak,j + a0k,j det Ck,j
j=1
= det A00 .
Analogamente,
n
X
det B = (1)k+j bk,j det Ck,j
j=1
n
X
= (1)k+j ak,j det Ck,j
j=1
= det A00 .
det A = det t A
Questa proposizione segue immediatamente dalla formula (31). Osserviamo che, come
corollario, i lemmi (34) e (35) continuano a valere qualora si sostituisca (ovunque) la parola
riga alla parola colonna.
18
Osservazione 38. Ricapitoliamo alcune propriet`a utili per il calcolo del determinante di
una matrice:
38a ) se scambiamo tra loro due righe di A il determinante cambia segno (quindi se A
ha due righe uguali il suo determinante `e nullo);
38b ) se ad una riga (ovvero colonna) sommiamo una combinazione lineare delle altre il
determinante non cambia;
38c ) se moltiplichiamo una riga (ovvero colonna) per una costante , il corrispondente
determinante risulta moltiplicato per ;
38d ) se A ha una riga (ovvero colonna) nulla, allora det A = 0 ;
38e ) il determinante di una matrice triangolare superiore `e uguale al prodotto degli
elementi sulla diagonale.
Le propriet`a (38a ) e (38c ) le abbiamo gi`a dimostrate (lemmi 34 e 35). Quanto alla (38d ),
se A0 `e la matrice ottenuta moltiplicando la riga nulla per due (si noti che A0 = A),
allora F (A) = F (A0 ) = 2F (A) , dove questultima uguaglianza segue dalla (38c ), quindi
F (A) = 0 (perche lunico numero uguale al suo doppio `e lo zero). La (38b ) `e anchessa una
conseguenza immediata dei lemmi (34) e (35): se si somma ad una riga un multiplo di unaltra
(se poi si vuole sommare una combinazione lineare delle altre righe basta iterare questo
passaggio), il corrispondente determinante viene sommato a un multiplo del determinante
di una matrice che ha due righe uguali (e che per questo motivo `e nullo); chiariamo quello
che abbiamo appena detto con un esempio
3+9 2+4 5+8 3 2 5 9 4 8
det 1 6 7 = det 1 6 7 + det 1 6 7
9 4 8 9 4 8 9 4 8
3 2 5 9 4 8 3 2 5
= det 1 6 7 + det 1 6 7 = det 1 6 7
9 4 8 9 4 8 9 4 8
3 7 1 8
0 4 2 3
det = 3 4 (6) 2 = 144 .
0 0 6 5
0 0 0 2
Osservazione. Le operazioni di cui ai punti (38a ) e (38b ) sono sufficienti per ridurre
in forma triangolare superiore la matrice A , infatti basta eseguire lalgoritmo di Gauss
descritto nella dimostrazione della proposizione (13) del paragrafo 3. Daltro canto, per la
(38e ), sappiamo calcolare facilmente il determinante di una matrice triangolare superiore.
Quanto appena osservato permette di calcolare il determinante di una matrice, nellesempio
che segue vediamo concretamente come.
19
1 2 1 2 1 2 1 2 1 2 1 2
0 7 3 8 0 7 3 8 0 7 3 8
(3) (4) ,
0 7 0 3 0 0 3 5 0 0 3 5
0 14 12 29 0 0 6 13 0 0 0 3
dove: 1) abbiamo scambiato le prime due righe, 2) alla terza riga abbiamo sottratto quattro
per la prima riga ed alla quarta riga abbiamo sommato il triplo della prima, 3) alla terza riga
abbiamo sommato la seconda ed alla quarta abbiamo sottratto il doppio della seconda, 4)
alla quarta riga abbiamo sottratto il doppio della terza. Il determinante dellultima matrice
`e 1733 = 63 . Poiche abbiamo effettuato uno scambio di righe, abbiamo det A = 63 .
Proposizione 40. Esiste una unica funzione F definita su Mn,n (R) tale che
i) F `e multilineare rispetto alle righe di Mn,n (R) ;
ii) F `e antisimmetrica rispetto alle righe di Mn,n (R) ;
iii) F (In ) = 1 , dove In `e la matrice identica.
Dimostrazione. Per quel che riguarda lesistenza di una tale F `e stato gi`a detto tutto: la
funzione determinante soddisfa i), ii) e iii).
Lunicit`a segue dal fatto che `e possibile calcolare il determinante di una matrice qualsiasi
utilizzando unicamente le propriet`a i), ii) e iii). Vediamo come: sia dunque A una matrice
e sia F una funzione che soddisfa le propriet`a i), ii) e iii). In particolare, le varie propriet`a
che sono soddisfatte dalla funzione F ci dicono come cambia F (A) quando effettuiamo uno
dei passi delleliminazione di Gauss (80 , paragrafo 3). A questo punto losservazione che
conclude la dimostrazione `e il fatto che tramite i passi di Gauss (80 ) `e possibile trasformare
qualsiasi matrice in una matrice che ha una riga di zeri oppure nella matrice identica. Nel
primo caso si ha F (A) = 0 (segue dalla multilinearit`a, il ragionamento `e quello fatto quando
abbiamo dimostrato la 38d ). Nel secondo caso siamo ugualmente in grado di dire quanto
vale F (A) : basta che ci ricordiamo delle costanti (non nulle) che avremo fatto intervenire
nellapplicare lE.G. che trasforma A nella matrice identica e del numero degli eventuali
scambi di righe effettuati. Si osservi che usiamo lipotesi F (In ) = 1 . Poiche in entrambi
(tutti) i casi siamo stati capaci di calcolare F (A) utilizzando solo le propriet`a che avevamo
a disposizione, F `e unica.
Teorema 41 (Binet).
det A B = (det A) (det B) , A, B Mn,n (R) .
20
Ci sono molte dimostrazioni di questo teorema. In questa sede non ne vedremo nessuna.
Comunque, non posso non dire che questo teorema `e essenzialmente ovvio alla luce di una
interpretazione geometrica del determinante della quale dar`o qualche cenno nel paragrafo
18. Naturalmente, visto che in fin dei conti il determinante `e un polinomio che sappiamo
scrivere esplicitamente, ai fini della dimostrazione del teorema di Binet `e possibile fare un
conto che utilizza una delle definizioni o caratterizzazioni del determinante.
Osserviamo che, come conseguenza del teorema di Binet, una matrice il cui determinante
`e nullo non pu`o essere invertibile: se A fosse una matrice invertibile e si avesse det A = 0 ,
si avrebbe
1 = det In = det A A1 = det A det A1 = 0.
Viceversa, se det A 6= 0 , allora A `e invertibile ed esiste una formula che ne calcola linversa.
Tale formula `e contenuta nel teorema che segue:
Osservazione. La formula del teorema (42) ci dice che A1 `e la trasposta della matrice
dei complementi algebrici (vedi def. 33, pag. 16) divisi per il determinante di A .
Avendo gi`a provato che se A `e invertibile allora det A 6= 0 , per concludere la di-
mostrazione del teorema `e sufficiente calcolare il prodotto di A per la matrice indicata
nel teorema e verificare che il risultato `e la matrice identica. Tale calcolo lo svolgiamo nel
paragrafo 18.
1 12 4
Esempio. Determiniamo linversa della matrice A = 3 1 0 .
4 5 2
Poiche det A = 2 , la matrice A `e invertibile. La matrice dei complementi algebrici `e la
matrice
1 0 3 0 3 1
det det det
5 2 4 2 4 5
2 6 19
12 4 1 4 1 12
det det det = 4 14 43 .
5 2 4 2 4 5
4 12 37
12 4 1 4 1 12
det det det
1 0 3 0 3 1
1 3 19/2
Dividendo per det A si ottiene la matrice 2 7 43/2 . Infine, trasponendo
2 6 37/2
questultima matrice si ottiene
1 2 2
A1 = 3 7 6 .
19/2 43/2 37/2
21
La formula del teorema (42) non `e molto pratica, per calcolare linversa di una matrice di
ordine tre abbiamo dovuto fare molte operazioni. Nel 8 vedremo che utilizzando lalgoritmo
di Gauss `e possibile calcolare linversa di una matrice abbastanza rapidamente.
1 12 4 1 2 2 1 0 0
Esercizio. Verificare che 3 1 0 3 7 6 = 0 1 0 .
4 5 2 19/2 43/2 37/2 0 0 1
2 7 5
Esercizio. Si calcoli linversa della matrice 3 1 8 utilizzando la formula del
1 11 3
teorema (42). Si verifichi la correttezza del risultato ottenuto svolgendo il prodotto righe
per colonne della matrice data per la matrice inversa trovata.
Esercizio. Calcolare il determinante (in funzione del parametro k) delle matrici che
seguono ed indicare per quali valori di k non sono invertibili.
k 3k k k 1 5 2k 3k7 k+71
k k+1
; 1 2 1 ; 3k 2 6 ; 0 k 2 11 23k 3 .
2k 3k5
5 6 1 k 1 1 0 0 k8
Esercizio. Calcolare linversa delle matrici
2 1 3 1
2 0 2 2 2 0 3 3 3
7 2 6 2 6 2
, 7 1 8 , 7 8 1 , 4 4 5 , ,
3 5 5 0 3 1
4 8 9 1 6 7 3 2 7
4 3 1 0
e verificare la correttezza dei risultati ottenuti (ricordiamo che per verificare che due ma-
trici sono luna linversa dellaltra `e sufficiente moltiplicarle tra loro, come risultato si deve
ottenere la matrice identica).
22
7. Teorema di Cramer.
Osservazione 43. Sia A Mn,n (R) una matrice quadrata a scala. Dalla propriet`a
(38e ), il determinante det A `e il prodotto degli elementi sulla diagonale. Inoltre, se a k0 ,k0 =
0 per un qualche indice k0 , si ha anche ak,k = 0 per ogni k > k0 (altrimenti A non
sarebbe a scala). Pertanto le condizioni
Lemma. Sia A Mn,n (R) una matrice quadrata a scala. Il sistema lineare A~x = ~b
ha una unica soluzione se e solo se det A 6= 0 .
Dimostrazione. Poiche A `e a scala, abbiamo a che fare con un sistema lineare a scala del
tipo
a1,1 x1 + ... ... = b1
a2,2 x2 + ... = b2
.
...
an,n xn = bn
Se det A 6= 0, per losservazione (43), tutti gli elementi sulla diagonale principale a 1,1, ..., an,n
sono non nulli. E ` evidente che tale sistema si risolve (partendo dallultima equazione e
tornando indietro) senza produrre parametri liberi ne incompatibilit`a.
Viceversa, nel caso risulti det A = 0 , e quindi an,n = 0 (sempre per losservazione 43),
ci sono due possibilit`a: il sistema `e incompatibile oppure `e compatibile. Nellipotesi che
si verifichi questo secondo caso, lultima equazione deve essere lequazione 0 = 0 (se fosse
bn 6= 0 il nostro sistema sarebbe incompatibile) ed il sistema in questione `e in realt`a un
sistema, compatibile per ipotesi, di al pi` u n 1 equazioni in n incognite; il metodo visto
nel paragrafo 3 di soluzione allindietro di un tale sistema a scala produce almeno un
parametro libero e quindi infinite soluzioni.
In definitiva, abbiamo provato che nel caso risulti det A = 0 , il sistema `e incompatibile
oppure ammette infinite soluzioni.
Teorema 44. Sia A Mn,n (R) una matrice quadrata (non richiediamo che sia a
scala). Il sistema lineare A~x = ~b ha una unica soluzione se e solo se det A 6= 0 .
In particolare, questo teorema ci dice che la propriet`a di avere una unica soluzione non
dipende da ~b, cio`e basta conoscere la matrice incompleta A per poter dire quale delle due
seguenti eventualit`a si verifica:
i) il sistema ammette una unica soluzione;
ii) il sistema `e incompatibile oppure ammette infinite soluzioni.
Caso 1: det A 6= 0 . Lesistenza e lunicit`a della soluzione del sistema lineare A~x = ~b
segue anche3 dal teorema (42): nel paragrafo 5 abbiamo osservato che lesistenza dellinversa
di A garantisce lesistenza e lunicit`a della soluzione del sistema lineare: si ha ~x = A 1~b .
Osservazione 46. Nel caso n = 2 , ad esempio nel caso del sistema (3) del paragrafo 1
a b x
= ,
c d y
dove la seconda uguaglianza segue dalla formula del teorema (42) (come al solito, C j,i `e
la matrice ottenuta da A sopprimendo la j -esima riga e la i-esima colonna). Lespressione
trovata `e esattamente il quoziente tra lo sviluppo di Laplace del determinante della matrice
A~b/col i rispetto alla i-esima colonna (quella dove appare il vettore dei termini noti ~b) e
det A .
dove I~x/col i `e la matrice che si ottiene sostituendo la i-esima colonna della matrice identica
I con il vettore delle incognite ~x . Daltro canto det I~x/col i = xi . Quindi prendendo
il determinante dellequazione (47) si ottiene
(det A) xi = (det A) (det I~x/col i ) = det A I~x/col i = det A~b/col i .
utilizzando
i) il metodo di Gauss;
ii) il calcolo dellinversa della matrice incompleta A nonche la formula (27);
iii) il teorema di Cramer.
1 2 5 1 0 0 1 2 5 1 0 0
0 1 3 3 1 0 (3) 0 1 0 6 2 3 (4)
0 0 1 1 1 1 0 0 1 1 1 1
1 0 0 8 1 1
0 1 0 6 2 3 ,
0 0 1 1 1 1
dove: 1) alla seconda riga abbiamo sottratto il triplo della prima riga ed alla terza riga
abbiamo sommato il quadruplo della prima riga; 2) alla terza riga abbiamo sommato la
seconda; 3) alla seconda riga abbiamo sottratto il triplo della terza; 4) alla prima riga
abbiamo sottratto il doppio della seconda
ed il quintuplo della terza. Linversa della matrice
8 1 1
data `e la matrice 6 2 3 .
1 1 1
Esercizio. Verificare luguaglianza
1 2 5 8 1 1 1 0 0
3 7 18 6 2 3 = 0 1 0 .
4 9 22 1 1 1 0 0 1
Osservazione 50. Il motivo per cui questo metodo funziona `e abbastanza semplice: alla
matrice a blocchi ( A | I ) , dove I denota la matrice identica, associamo il sistema lineare
A ~x = I ~b ; ai passi che trasformano la matrice ( A | I ) nella matrice ( I | B ) corrisponde
il fatto di trasformare il sistema lineare A ~x = I ~b nel sistema lineare I ~x = B ~b ;
poiche i passi delleliminazione di Gauss non cambiano la classe di equivalenza di un sistema
lineare, i due sistemi lineari A ~x = I ~b e I ~x = B ~b , cio`e
A ~x = ~b e ~x = B ~b ,
sono equivalenti. Poiche questa equivalenza vale per ogni scelta di ~b , la matrice B deve
necessariamente essere linversa di A (questultima affermazione oltre ad essere molto ra-
gionevole si dimostra facilmente: dallequivalenza dei due sistemi lineari si deduce, sosti-
tuendo la seconda equazione nella prima, A B ~b = ~b , sempre per ogni scelta di ~b; ne
segue che deve essere A B = I , cio`e che B `e linversa di A ).
27
9. Spazi Vettoriali.
Accade spesso che oggetti molto diversi tra loro hanno una certa struttura matema-
tica comune, in questo caso ci si inventa un nome per quella struttura e la si studia. Tra i
vantaggi di questo modo di lavorare: in colpo solo si studiano pi`
u oggetti, si impara a capire
cosa dipende da cosa il che consente una visione pi`u profonda.
Esempio 51. Spazio Rn delle n-ple di numeri reali. In questo caso i vettori sono
elementi del tipo (x1 , ..., xn ) , la somma `e definita ponendo (x1 , ..., xn ) + (y1 , ..., yn ) :=
(x1 + y1 , ..., xn + yn ) , ed il prodotto per gli scalari `e definito ponendo (x1 , ..., xn ) :=
(x1 , ..., xn ) . Questo esempio `e fondamentale perche nello studio degli spazi vettoriali di
dimensione finita ci si riconduce sempre ad esso. Pi` u avanti vedremo come e perche.
Nellindicare un elemento di Rn abbiamo utilizzato una notazione per righe (x1 , ..., xn ) .
In realt`a la notazione giusta consiste nello scrivere le n-ple di numeri reali come vettori
colonna:
x1
..
`e opportuno scrivere . invece di (x1 , ..., xn ) .
xn
Si osservi che questa notazione diventa obbligata se si vuole che il prodotto righe per colonne
A ~v , dove A Mm,n (R) e ~v Rn , abbia senso.
Esempio 52. Spazio delle soluzioni di un sistema lineare omogeneo. In questo caso gli
elementi del nostro insieme, cio`e i vettori, sono le soluzioni del sistema lineare omogeneo
x1 0
~ .
. ~ ..
A ~x = 0 , dove A Mm,n (R) , ~x = . e dove 0 := . . Per la propriet`a
xn 0
distributiva del prodotto tra matrici, se (s1 , ..., sn ) e (t1 , ..., tn ) sono soluzioni del sistema
dato, anche la somma (s1 + t1 , ..., sn + tn ) nonche il prodotto ( s1 , ..., sn ) ne sono
soluzioni. Queste naturali operazioni di somma tra vettori e prodotto per uno scalare sono,
per definizione, le operazioni che definiscono la struttura di spazio vettoriale dellinsieme
considerato. Il lettore sagace avr`a intuito che questo spazio `e un sottospazio di R n (vedi
esempio 51).
Esempio 53. Spazio delle funzioni continue definite su un intervallo I . Nel corso di
analisi avete visto, o state per vedere, che la somma di due funzioni continue `e ancora una
funzione continua e che anche il prodotto f (x) ha senso ed `e una funzione continua,
dove R ed f (x) `e una funzione continua. Di nuovo, queste operazioni definiscono la
struttura di spazio vettoriale dellinsieme considerato.
Esempio 54. Spazio delle successioni. Chiaramente, se {an }nN e {bn }nN sono
successioni, anche {an + bn }nN e {an }nN sono successioni... .
Nellesempio che segue utilizzo la struttura di spazio vettoriale per risolvere un problema.
` opportuno che lo studente legga ora questo esempio, accettando le considerazioni che
E
inevitabilmente non hanno ancora una giustificazione formale, e che lo analizzi in maniera
pi`
u critica dopo aver studiato gli spazi vettoriali in astratto.
Soluzione. Per risolvere questo problema consideriamo lo spazio delle successioni, dette
successioni di Fibonacci, {a0 , a1 , a2 , ... } che soddisfano la legge
(56.2) an+2 = an+1 + an , n 0.
Non `e difficile verificare che questo `e uno spazio vettoriale, in particolare la somma di
successioni che soddisfano (56.2) `e ancora una successione che soddisfa (56.2) nonche il
prodotto per uno scalare di una tale successione soddisfa anchesso (56.2) . Linsieme,
o meglio lo spazio vettoriale, di tali soluzioni lo chiameremo V . Chiaramente (56.1) `e
un vettore di V . Premesso ci`o, dimentichiamoci di (56.1) e concentriamoci sullo spazio
vettoriale, o meglio, sulla legge (56.2) che ne definisce gli elementi. Qualche vettore di
V siamo in grado di trovarlo: tentiamo con una successione del tipo {an := xn } , con x
numero reale. La propriet`a (56.2) si traduce nella richiesta xn+2 = xn+1 + xn , n 0 ,
cio`e nella richiesta (portiamo al primo membro xn+1 + xn quindi raccogliamo xn a fattore
comune) (x2 x + 1) xn = 0 , n 0 . Aquesto punto, risolvendo lequazione di secondo
grado x2 x + 1 = 0 troviamo x = (1 5)/2 e quindi troviamo che le due successioni
n n
1+ 5 1 5
i) bn := , ii) cn :=
2 2
sono vettori di V , cio`e soddisfano (56.2). A questo punto non abbiamo certo risolto il
problema da cui siamo partiti. Lo ripeto, abbiamo semplicemente trovato due vettori di V .
Daltronde sappiamo che questi vettori li possiamo moltiplicare per degli scalari e sommare
tra loro. In termini pi`
u espliciti, sappiamo che ogni successione del tipo
{bn } + {cn } = { bn + cn }
n n
(56.3) 1+ 5 1 5
= + , , R
2 2
`e un vettore di V . Ora che abbiamo a disposizione molti vettori di V siamo in grado
di risolvere il problema dal quale siamo partiti: la successione (56.1) del nostro problema
cominciacon a0 = a1 = 1 , mentre la successione (56.3) comincia con a0 = + , a1 =
(1 + 5)/2 + (1 5)/2 . Imponendo luguaglianza,ovvero risolvendoil sistema
lineare di due equazioni in due incognite + = 1 , (1 + 5)/2 + (1 5)/2 = 1
(sistema che lo studente `
e invitato a risolvere per esercizio), si trova = (5 + 5)/10 e
= (5 5)/10 . Poiche la successione di Fibonacci (56.1) `e univocamente individuata
dai valori iniziali a0 = a1 = 1 e dalla legge (56.2), abbiamo risolto il nostro problema: la
successione (56.1) deve necessariamente essere la successione
( n n )
5+ 5 1+ 5 5 5 1 5
{an } = + .
10 2 10 2
29
Lo studente scettico, ma anche quello che non lo `e, verifichi ad esempio che per n = 6 questa
espressione vale 13 , che `e il termine a6 della (56.1), e che per n = 8 questa espressione
vale 34 , che `e il termine a8 della (56.1). ...sono rari i casi in cui calcolare qualche potenza
di un binomio ha fatto male a qualcuno!
Lesempio che abbiamo appena discusso `e importante perche lequazione (56.2) `e lanalogo
discreto di un tipo di equazioni che descrivono dei fenomeni fisici: le equazioni differenziali
lineari. Naturalmente non ho intenzione di studiare in questa sede tale tipo di equazioni, il
che `e oggetto di studio di un corso di analisi del secondo anno. Voglio comunque dire due
parole a riguardo.
d2 d
(57.1) x(t) = 3 x(t) 2 x(t) .
d2 t dt
Ricordiamo che la velocit`a `e la derivata della posizione rispetto al tempo e che laccelerazione
(derivata della velocit`a) `e la derivata seconda della posizione rispetto al tempo ed `e pari alla
somma delle forze applicate diviso la massa del corpo considerato. Il bello dellequazione che
abbiamo trovato `e che la somma di due sue soluzioni `e ancora una sua soluzione (la derivata
di una somma `e la somma delle derivate), nonche il prodotto per una scalare di una sua
soluzione `e anchesso una sua soluzione. In definitiva, linsieme delle soluzioni di (57.1) ha
la struttura di spazio vettoriale. Interrompo qui le mie considerazioni perche andare oltre
sarebbe oggetto di un corso di analisi sulle equazioni differenziali.
` arrivato il momento di enunciare la definizione di spazio vettoriale reale4 .
E
Definizione 58. Uno spazio vettoriale reale V `e un insieme sul quale `e definita una
operazione di somma ed una operazione di moltiplicazione per gli scalari
V V V R V V
(~v , w)
~ 7 ~v + w
~ ( , ~v ) 7 ~v
che soddisfano le propriet`a che seguono
~u + (~v + w)
~ = (~u + ~v ) + w ~ , ~u, ~v , w
~ V (associativit`
a della somma);
~u + ~v = ~v + ~u , ~u, ~v V (commutativit` a della somma);
~
0 V ed inoltre ~v V ~v V tali che
~0 + ~v = ~v , ~v + (~v ) = ~0, 0~v = ~0, 1~v = ~v , (1)~v = ~v
(in particolare, esistenza dellelemento neutro e degli opposti);
( + )~v = ~v + ~v , (~v + w) ~ = ~v + w, ~ V , , R
~ (~v ) = ()~v , ~v , w
(propriet`a distributive).
Osserviamo che sono tutte propriet`a molto naturali e che nei casi degli esempi discussi
sono tutte praticamente ovvie. Nello scrivere queste propriet`a non ci siamo preoccupati di
4 In realt`
a, tutto quello che dico in questo capitolo e nei prossimi due capitoli, oltre a valere per spazi vettoriali
reali, vale anche per spazi vettoriali definiti sul campo dei numeri complessi nonch e vale per spazi vettoriali
definiti su un campo astratto arbitrario.
30
evitare le ripetizioni, ad esempio la propriet`a 0~v = ~0 pu`o essere dedotta dalle altre:
Esercizio. Indicare, per ognuna delle uguaglianze in (58.1), quale propriet`a della
definizione (58) `e stata utilizzata.
w
~1 + w
~2 W , w
~ 1, w
~2 W ;
(590 )
w
~ W , w
~ W.
Lo spazio dellesempio (52) `e un sottospazio vettoriale dello spazio dellesempio (51), quelli
degli esempi (55) e (56) sono sottospazi di quello dellesempio (54), quelli degli esempi (53)
e (57) sono sottospazi dello spazio vettoriale di tutte le funzioni (reali di variabile reale).
Definizione 61. Sia V uno spazio vettoriale e siano ~v1 , ..., ~vk vettori in V . Una
combinazione lineare dei vettori considerati `e una espressione del tipo
Definizione 62. Sia V uno spazio vettoriale e siano ~v1 , ..., ~vk vettori in V . Diciamo
che i vettori considerati sono linearmente dipendenti se e solo se esistono 1 , ..., k R
non tutti nulli tali che
Definizione 64. Sia V uno spazio vettoriale e sia S un suo sottoinsieme. Si definisce
Span S linsieme di tutte le combinazioni lineari di vettori di S :
1 , ..., k R
Span S := 1~v1 + ... + k~vk .
~v , ..., ~v S
1 k
31
Dimostrazione. Si deve verificare che Span S soddisfa le propriet`a della definizione (59).
Chiaramente la somma di combinazioni lineari `e una combinazione lineare ed il prodotto di
una combinazione lineare per una costante `e una combinazione lineare. Ad esempio
1~v1 + ... + k~vk = (1 )~v1 + ... + (k )~vk .
Definizione 66. Sia V uno spazio vettoriale e sia S un suo sottoinsieme. Se Span S = V
diciamo che S genera V .
Se esiste un insieme finito che genera V diciamo che V `e finitamente generato.
Studieremo esclusivamente gli spazi vettoriali finitamente generati. Dora in poi, con la
locuzione spazio vettoriale intender`o sempre spazio vettoriale finitamente generato.
Definizione 67. Sia V uno spazio vettoriale e sia S un suo sottoinsieme. Diciamo che
S `e una base di V se `e un insieme indipendente che genera V .
Osservazione 68. Sia B = {~b1 , ..., ~bn } una base di uno spazio vettoriale V . Poiche
per ipotesi B genera V , per ogni ~v V esistono dei coefficienti 1 , ..., n tali che
poiche B `e un insieme indipendente, tali coefficienti sono unici: se 1~b1 + ... + n~bn =
~v = 10 ~b1 + ... + n0 ~bn , allora (1 10 )~b1 + ... + (n n0 )~bn = ~0 e quindi, essendo B
un insieme indipendente, si deve avere i = i0 , i = 1, ..., n .
Generalizziamo
quanto
abbiamo
appena visto: consideriamo
lo spazio vettoriale R n . I
1 0 0
0 1 ..
vettori ~e1 := . , ~e2 = . , ... , ~en = . , costituiscono una base, detta base
.. .. 0
0 0 1
1
.
canonica, di Rn . Anche in questo caso, le coordinate del vettore .. rispetto alla base
n
canonica sono proprio i coefficienti 1 , ..., n (lo studente verifichi quanto abbiamo appena
affermato).
1 2 9
Esercizio. Sia B = , e sia ~v = . Verificare che B `e una base di
3 1 2
R , calcolare le coordinate di ~v rispetto alla base B .
2
32
Soluzione.
I
vettori
di B sono
chiaramente indipendenti e generano
R2 : il sistemalineare
1 2 x x 1
1 + 2 = ammette soluzioni per ogni . Imponendo 1 +
3 1 y y 3
2 9
2 = si trovano le coordinate di ~v rispetto alla base B : 1 = 1, 2 = 5 .
1 2
Osservazione 70. Sia V uno spazio vettoriale. Nel momento in cui fissiamo una base
di V abbiamo a disposizione delle coordinate: associando ad ogni vettore ~v V la n pla
delle sue coordinate (1 , ..., n ) otteniamo una identificazione di V con Rn .
Lo studio della dipendenza lineare ed il problema della determinazione di una base di uno
spazio vettoriale si basano su tre osservazioni fondamentali.
w
~ = 1~v1 + ... + k~vk .
Sia S 0 := S {w}
~ linsieme ottenuto togliendo w
~ dallinsieme S . Allora
Span S 0 = Span S .
Terminati i vettori di S , avremo trovato la base cercata. Infatti, come gi`a osservato i
vettori scelti sono indipendenti, daltro canto generano anchessi Span S (per losservazione
7100 ).
Proposizione 73. Sia V uno spazio vettoriale e sia S V un sottoinsieme finito che
genera V . Esiste una base B di V contenuta in S , per trovarla `e sufficiente applicare
lalgoritmo dellestrazione di una base.
3 5 8 1
2 4
6
2
Esempio. Consideriamo i vettori ~b1 = , ~b2 = , ~b3 = , ~b4 = e
2 1 3 3
n 4 o 3 7 4
~ ~ ~ ~
determiniamo una base di V := Span b1 , b2 , b3 , b4 R : 4
prendiamo ~b1 , quindi consideriamo ~b2 e lo teniamo perche non `e un multiplo di ~b1 ,
consideriamo ~b3 e lo eliminiamo perche `e combinazione lineare di ~b1 e ~b2 , consideriamo
~b4 e lo teniamo perche non `e combinazione lineare degli altri vettori scelti. In definitiva
abbiamo che linsieme B 0 := {~b1 , ~b2 , ~b4 } `e una base di Span S .
Osservazione 74. Ogni spazio vettoriale ammette moltissime basi, pu`o accadere che
abbiamo bisogno di trovare una base contenente certi particolari vettori fissati a priori.
Una base di tale tipo si chiama completamento ad una base di un insieme indipendente
di vettori, per trovarla possiamo utilizzare lalgoritmo dellestrazione di una base (72):
dati dei vettori indipendenti ~v1 , ..., ~vk di uno spazio vettoriale V , possiamo considerare
(in questo ordine) i vettori ~v1 , ..., ~vk , w
~ 1 , ..., w
~ m , dove {w
~ 1 , ..., w
~ m } `e un insieme di
vettori che genera V (lesistenza di questinsieme di vettori `e garantita dallipotesi che V
`e finitamente generato, vedi definizione 66). Applicando lalgoritmo dellestrazione di una
base troviamo una base di V contenente i vettori ~v1 , ..., ~vk (questo perche sono i primi che
scegliamo e sono indipendenti). In particolare, il ragionamento esposto dimostra il teorema
del completamento ad una base di un insieme indipendente di vettori:
Proposizione 76. Sia V uno spazio vettoriale finitamente generato (vedi definizione 66)
e sia B una base di V . Allora B `e costituita da un numero n finito di vettori, il numero
n dipende solo da V : se B 0 `e unaltra base di V allora anche B 0 ha n elementi. Inoltre,
ogni insieme di vettori S che ha pi`u di n elementi `e linearmente dipendente nonche ogni
insieme indipendente costituito da n vettori `e una base.
Lidea della dimostrazione `e che `e possibile sostituire uno alla volta i vettori di B con
quelli di B 0 mantenendo la propriet`a di avere una base di V .
Dimostrazione. Sia B = {~b1 , ..., ~bn } e sia B 0 = {d~1 , ..., d~k } . Come primo passo
consideriamo i vettori {d~1 , ~b1 , ..., ~bn } , quindi applichiamo lalgoritmo dellestrazione di una
base. Iteriamo questo procedimento: ogni volta aggiungiamo un vettore di B 0 (inserendolo
allinizio) e applichiamo lalgoritmo. Alla fine arriveremo ad avere solamente i vettori di
B 0 . Quando aggiungiamo un vettore, passiamo da una base a un sistema dipendente di
generatori, quindi, quando applichiamo lalgoritmo togliamo almeno un vettore. Poiche ad
ogni passo aggiungiamo un vettore e ne togliamo almeno uno, i vettori di B 0 sono in numero
minore o uguale a quelli di B , cio`e risulta k n . Scambiando i ruoli tra B e B 0 si ottiene
34
n k . In definitiva n = k .
Definizione 77. Sia V uno spazio vettoriale finitamente generato e sia B una base. Si
definisce la dimensione di V ponendo
dim V := n = numero degli elementi di B .
1 2 8 9
4 ~ 8 ~ 1 3
Esercizio. Siano ~b1 = , b2 = , b3 = , ~b4 = . Si determini
2 4 3 1
n 3 o 6 7 10
~ ~ ~ ~
una base di V := Span b1 , b2 , b3 , b4 R . 4
0
Esercizio. Si determini una base di R3 contenente il vettore ~v = 4 .
3
2 1
Esercizio. Sia B = 3 , 4 una base di un sottospazio W di R3 . Si
5 1
determini unaltra base di W .
Esercizio.o
n Determinate le coordinate del vettore ~v R3 rispetto alla base B =
~b1 , ~b2 , ~b3 quando:
0 1 3 1
a) ~b1 = 2 , ~b2 = 2 , ~b3 = 2 , ~v = 2 ;
1 1 5 1
3 3 3 3
b) ~b1 = 2 , ~b2 = 5 , ~b3 = 7 , ~v = 2 ;
1 1 5 1
4 0 0 0
c) ~b1 = 0 , ~b2 = 5 , ~b3 = 7 , ~v = 2 .
0 7 10 1
~ ~ ~
Esercizio. Si consideri lo spazio vettoriale V := Span {b1 , b2 , b3 } . Estrarre dallinsieme
{~b1 , ~b2 , ~b3 } una base BV di V , verificare che ~v V e determinare le coordinate di ~v
rispetto alla base BV , quando:
1 2 1 5
a) ~b1 = 1 , ~b2 = 1 , ~b3 = 1 , ~v = 2 .
2 3 1 7
1 2 1 3
b) ~b1 = 0 , ~b2 = 1 , ~b3 = 1 , ~v = 2 .
2 1 3 4
7 473 0 473
~b1 = 0 ~ 189 ~ 0 189
c) , b2 = , b3 = , ~v = .
45 32 0 32
38 18 0 18
35
Definizione 78. Sia V uno spazio vettoriale e siano U e W due suoi sottospazi. Si
definiscono la loro somma e la loro intersezione ponendo
U + W := ~v = ~u + w ~ ~u U , w
~ W
U W := ~v ~v U , ~v W
Esercizio. Sia V uno spazio vettoriale e U , W due suoi sottospazi. Provare che
U + W = Span {U W } , dove denota lunione di insiemi. Osservare che, in
particolare, U + W `e anchesso un sottospazio di V .
Ph
U W `e data dalle combinazioni lineari ui ovvero dalle combinazioni lineari
i=1 xi ~
Pk
i=1 yi w
~ i , dove x1 , ..., xh , y1 , ..., yk sono le soluzioni del sistema lineare di n = dim V
equazioni (una per ogni coordinata) in h + k incognite
h
X k
X
xi ~ui = yi w
~i .
i=1 i=1
3 2 4 1
Esempio. Siano U = Span 5 , 1 e W = Span 3 , 2 due
7 1 8 1
sottospazi di R3 . Risolvendo il sistema lineare
3 2 4 1
(?) x 1 5 + x2 1 = y1 3 + y2 2 ,
7 1 8 1
ovvero
x1 = t
3 x1 + 2 x 2 = 4 y 1 + y2
x2 = 2t
5 x1 + x2 = 3 y1 + 2 y2 , si trova
y1 = t
7 x1 x2 = 8 y 1 + y2
y2 = 3t
(dove t `e un parametro libero, vedi paragrafo 3). Ne segue che
3 2 1
U W = ~v = t 5 2 t 1 t R = Span 3 .
7 1 5
Si osservi che avremmo potuto anche utilizzare le espressioni a destra delluguaglianza (?):
4 1 1
U W = ~v = t 3 + 3 t 2 t R = Span 3 .
8 1 5
Suggerimento: dopo aver risposto alla domanda a), determinare la dimensione dello spazio
somma Uk + W , quindi utilizzare la formula di Grassmann.
Osservazione. Se A `e una matrice a scala, il suo rango `e uguale al numero delle righe
non nulle. Infatti, se A `e una matrice a scala, la matrice che si ottiene cancellando le righe
nulle e le colonne che non corrispondono ad alcun pivot6 `e una matrice quadrata, triangolare
superiore, con gli elementi sulla diagonale che sono non nulli, e quindi invertibile. Lordine
di tale matrice quadrata, che `e uguale al numero delle righe non nulle di A, `e il rango di A .
0 0 0 0 0 0 0 0
Le colonne seconda, terza, quinta e sesta sono quelle dei pivot. Cancellando la quinta riga,
la prima, la quarta, la settima e lottava colonna si ottiene il minore invertibile di ordine
massimo
1 2 4 5
0 8 10 11
.
0 0 1 2
0 0 0 5
Pertanto, si ha rg A = 4 .
Daltro canto, posto k uguale al numero massimo di colonne indipendenti e indicata con
C la matrice ottenuta considerando un insieme massimale di colonne indipendenti di A ,
dal fatto che il sistema lineare C~x = ~0 non ha soluzioni non banali (non ci stanchiamo di
ripetere che il prodotto C~x non `e altro che la combinazione lineare di coefficienti x 1 , ..., xk
delle colonne di C ) e dalla teoria svolta studiando i sistemi lineari, segue che il sistema ha
k equazioni indipendenti, ovvero C ha almeno k righe indipendenti, e che il determinante
della matrice costituita da tali k righe di C `e non nullo. In particolare, rg (A) k . Stessa
cosa per il numero massimo di righe indipendenti: basta scambiare i ruoli di righe e colonne
(ovvero considerare la trasposta di A ).
n o
Consideriamo lo spazio Rn ed un suo sottospazio W = Span ~b1 , ..., ~br . Possiamo
rienunciare la definizione di Span dicendo che lo spazio W `e linsieme delle n ple
(x1 , ..., xn ) che soddisfano le equazioni
x1 = b1,1 t1 + ... + b1,r tr
(87) ...
xn = bn,1 t1 + ... + bn,r tr
`e un sottospazio di Rn .
dopo aver verificato che {~b1 , ~b2 } `e una base di W , si scrive il sistema di equazioni
x1 = 8 t1 + 3 t2
x2 = 6 t1 + 2 t2
(?) ,
x3 = 9 t1 + 11 t2
x4 = 4 t1 + 5 t2
quindi dalle ultime due equazioni si determina t1 = 5x3 11x4 , t2 = 4x3 + 9x4 .
Sostituendo infine le espressioni trovate nelle prime due equazioni del sistema (?), si trovano
le equazioni cartesiane di W :
(
x1 = 8(5x3 11x4 ) + 3 (4x3 + 9x4 )
,
x2 = 6 (5x3 11x4 ) + 2 (4x3 + 9x4 )
42
ovvero le equazioni (
x1 28x3 + 61x4 = 0
.
x2 22x3 + 48x4 = 0
Esercizio. Provare che i due sistemi dellosservazione precedente sono equivalenti, quindi
dedurre che definiscono la stessa retta. Risolvere i due sistemi, quindi trovare delle equazioni
parametriche della retta che definiscono.
Si osservi che f `e iniettiva se e solo se ogni sua fibra `e linsieme vuoto oppure `e costituita
da un solo elemento, f `e suriettiva se e solo se ogni sua fibra `e non-vuota.
Se f `e biunivoca, tutte le fibre sono costituite da un solo elemento, ovvero per ogni
b B esiste un unico elemento a A tale che f (a) = b . In questo caso si definisce
linversa di f (che si denota con f 1 ), ponendo
f 1 : B A , f 1 (b) = lunico a tale che f (a) = b.
Cominciamo brutalmente con due definizioni generali, subito dopo studiamo lesempio
delle applicazioni lineari da Rn a Rm .
Questa definizione ci dice che una applicazione lineare `e una funzione che rispetta le
operazioni su V e W : dati due vettori in V , limmagine della loro somma (operazione in
V ) `e uguale alla somma (operazione in W ) delle loro immagini, limmagine di un multiplo
di un vettore `e quel multiplo dellimmagine del vettore.
Voglio sottolineare che i vettori del nucleo di L sono quei vettori in V che vengono
mandati nel vettore nullo, quindi ker L = L1 ~0 `e la fibra del vettore nullo di W. I vettori
nellimmagine di L , come la parola stessa suggerisce (e coerentemente con la definizione
data nei richiami di insiemistica), sono quei vettori w
~ W tali che c`e almeno un vettore
~v V al quale L associa w ~.
LA : Rn Rm
1 a1,1 ... a1,n 1
... 7 .
..
.. .. ..
. . .
n am,1 ... am,n n
dove, come sempre, denota il prodotto righe per colonne tra matrici.
Dimostrazione. Infatti, per la propriet`a distributiva del prodotto righe per colonne,
LA (~v + w)
~ = A (~v + w)
~ = A ~v + A w
~ = LA (~v ) + LA (w)
~ ,
LA (~v ) = A (~v ) = A ~v = LA (~v ) .
~ Rn e R .
per ogni ~v , w
LA : R2 R3
3 7 3 + 7
7 2 4 = 2 + 4
5 1 5 +
a1,1 a1,n
(960 ) = 1 ... + ... + n ... 1 , ..., n R
am,1 am,n
a1,1 a1,n
.. , ..., ..
= Span . . .
am,1 am,n
Questo prova che limmagine di LA `e lo Span delle colonne della matrice A. In particolare,
per il teorema (86) del paragrafo 12, si ha
(97) dim Im LA = rg A
Per quel che riguarda liniettivit`a e la suriettivit`a di LA vale la proposizione che segue.
ker L `e un sottospazio di V;
Im L `e un sottospazio di W.
Per dimostrare quanto affermato `e sufficiente verificare che sussistono le condizioni (59 0 )
del paragrafo 9. Questa verifica `e veramente facile e la lascio per esercizio.
Dimostrazione. Chiaramente, Span {L(~c1 ), ..., L(~cr )} = Span {~0, ..., ~0, L(~c1 ), ..., L(~cr )}
= Span {L(~b1 ), ..., L(~bs ), L(~c1 ), ..., L(~cr )} = Im V , questo perche {~b1 , ..., ~bs , ~c1 , ..., ~cr }
`e una base di V . Daltro canto, se i vettori L(~c1 ), ..., L(~cr ) fossero linearmente dipendenti,
P
ovvero se esistessero dei coefficienti (non Ptutti nulli) 1 , ..., r tali che P i L(~c1 ) = ~0 , per
la linearit`a di L si avrebbe anche L ~
i~c1 = 0 , quindi si avrebbe i~c1 ker L =
Span {b1 , ..., bs } . Questo non `e possibile perche, per ipotesi, i vettori b1 , ..., ~bs , ~c1 , ..., ~cr
~ ~ ~
sono indipendenti.
L : R4 R3
z1
z1
1 2 1 3
z2 z
7 1 1 2 1 2
z3 z3
1 1 4 3
z4 z4
Si determini una base di ker L , si completi la base trovata ad una base di R 4 , si veri-
fichi che le immagini dei vettori che sono stati aggiunti per effettuare tale completamento
costituiscono una base dellimmagine di L .
48
Esercizio. Per ognuna delle matrici che seguono, si consideri lapplicazione lineare
associata e se ne determini una base del nucleo ed una base dellimmagine.
1 3
4 3 1 1 2 3 1 1 0 0 4
1 0 0
1 2 , 4 8 12 4 , 3 0 1 0 ,
3 9
5 4 3 2 4 6 2 1 2 0 0
2 6
0 2 3 1 1 3 3 1 2 1
0 0 0 2 3 4 9 4 0 0 0 0 0
, , ,
0 0 0 1 1 2 0 4 0 0 0
4 2
1 0 0 0 0 1 1 7
0 1 1 1 1 1
0 0 1 1 1 1
0 0 1 1 3 9 1 3 4 0 0 0 1 1 1
, , .
1 0 1 1 3 9 2 6 8 0 0 0 0 1 1
0 0 0 0 0 1
0 0 0 0 0 0
Gi`a osservammo (vedi osservazione 18, 4) che il prodotto righe per colonne tra matrici codi-
fica loperazione di sostituzione, pertanto, modulo lidentificazione qui sopra, il prodotto
righe per colonne tra matrici corrisponde alla composizione7 di applicazioni lineari. Lo
ripetiamo:
LB LA : Rn Rm Rk .
Si ha
(104) LB LA = LBA .
7 La composizione di funzione si effettua sostituendo: siano A, B e C tre insiemi, f : A B e g : B C
due funzioni, sia quindi b = f (a) e c = g(b) , la composizione g f : A C viene definita ponendo
g f (a) = g(f (a)) = g(b) , cio`
e sostituendo!
49
L : R4 R3
z1
z1
y1 1 2 0 3
z2 z
7 y2 := 0 7 2 1 2
z3 z3
y3 3 0 1 1
z4 z4
M : R3 R2
y1 y1
y2 7 x1 :=
4 0 1
y2
x2 2 5 0
y3 y3
T : R4 R2
z1 z1
z2 x1 7 8 1 11 z
7 := 2
z3 x2 2 31 10 1 z3
z4 z4
2 0
Esercizio. Sia A = . Si calcoli, e si descriva esplicitamente (secondo le
0 3
notazioni della definizione 93),
k
LA , LA LA , LA LA LA , LA = LA ... LA (ripetuto k volte).
1 2 3 1 0 0 2 1 0
Esercizio. Sia A = 0 1 2 , B = 0 2 0 , C = 1 1 1 . Si
0 0 1 0 0 3 0 1 3
calcoli, e si descriva esplicitamente,
LA LB , LB LA , LA LB LC , LA LA LA , LB LC LC , LC L(C 1 ) , L(A3 ) .
sono i vettori della fibra (i.e. immagine inversa) di ~b . In particolare, la compatibilit`a del
sistema equivale alla propriet`a ~b ImLA . Alla luce di questa considerazione, del fatto che
limmagine di LA `e lo Span delle colonne della matrice A (osservazione 96) e del teorema
(84) del paragrafo 11, abbiamo il teorema che segue.
2 1 7
Esercizio. Sia A = . Calcolare LA LA .
3 5 4
L : R2 R2
x 3 0 x 3x
7 =
y 0 1 y y
` abbastanza chiaro cosa fa questa applicazione: prende il piano e lo dilata nella direzione
E
1 3
dellasse delle ascisse. Si osservi che il punto ha per immagine il punto , mentre
0 0
0
il punto viene mandato in se stesso. Ma ora consideriamo lapplicazione
1
M : R2 R2
x 2 1 x 2x + y
7 =
y 1 2 y x + 2y
(1080 ) L(w
~ 0) = w
~0 .
T : V V
(1100 ) T (~v ) = ~v ,
(111) V = ker (T I) .
Voglio sottolineare che, in particolare, se ~v `e un autovettore, allora tutti i suoi multipli (non
nulli) sono anchessi autovettori, relativamente allo stesso autovalore.
Osservazione 113. Alla luce della definizione (110) e di quanto appena osservato, il
valore `e un autovalore di T se e solo se il nucleo ker (T I) contiene almeno un vettore
non nullo, ovvero se e solo se tale nucleo ha dimensione strettamente positiva:
`e un autovalore di T dim ker T I > 0 .
Abbiamo visto che un autovettore rappresenta una direzione privilegiata, ovvero una
direzione lungo la quale T `e una dilatazione. Il relativo autovalore `e il coefficente di
tale dilatazione. E del tutto evidente che lo stesso vettore ~v non pu`o essere autovettore
per due autovalori distinti (lesercizio 116 vi chiede di dimostrare questa affermazione!). Un
po meno evidente `e la propriet`a secondo la quale autovettori corrispondenti a autovalori
distinti sono sicuramente indipendenti:
Come gi`a accennato, il teorema (114) generalizza il risultato dellesercizio che segue.
Pu`o essere dimostrato per induzione sul numero degli autospazi che si considerano, la di-
mostrazione la svolgiano le 18.
53
Esercizio 116. Provare che due autospazi corrispondenti a due autovalori distinti sono
indipendenti (i.e. la loro intersezione `e il vettore nullo).
Torniamo a considerare LA : Rn Rn (in realt`a, tutto quello che stiamo per dire ha
perfettamente senso anche per le trasformazioni lineari di uno spazio vettoriale astratto).
= 3 + 62 16 + 21 .
Questo significa che abbiamo uno strumento per determinare gli autovalori di una trasfor-
mazione lineare: scriviamo il polinomio caratteristico e ne troviamo le radici. Una volta
trovati gli autovalori, `e facile determinarne i relativi autospazi: basta usare la (111).
Teorema 120. g () a () .
1 2
Esempio. Consideriamo la trasformazione lineare, associata alla matrice A = ,
1 4
L : R2 R2
x 1 2 x x + 2y
7 =
y 1 4 y x + 4y
e calcoliamone gli autovalori ed i relativi autospazi. Per prima cosa scriviamo il polinomio
caratteristico:
1 2 1 0 1 2
PL () := det = det = 2 5 + 6 ;
1 4 0 1 1 4
poi ne calcoliamo le radici, che sono 1 = 2 e 2 = 3 . A questo punto determiniamo
1 2
il nucleo della matrice (ovvero della corrispondente trasformazione) A 2I =
1 2
2 2 1 2 2
e della matrice A 3I = . Si ha ker = Span nonche
1 1 1 2 1
2 2 1
ker = Span . Quindi, ci sono due autovalori: 2 e 3; i relativi autospazi
1 1 1
2 1
sono lautospazio V2 = Span e lautospazio V3 = Span .
1 1
Entrambi gli autovalori hanno molteplicit`a algebrica e geometrica uguale a uno.
Esercizio. Calcolare autovalori e autospazi delle matrici che seguono (calcolare anche le
molteplicit`a algebrica e geometrica di ogni autovalore)
4 3 0
1 1 3 2 1 1 4 0 3 2 0
2 2 2 1 1 2 0 7
0 0 5
4 0 5 2 0 0 2 1 0
0 2 0 0 2 0 0 2 0 0 0 1 1
1 0 1 1
5 0 3 0 0 7 0 0 7
3 0 3
Esercizio. Verificare che ~v = `e un autovettore della matrice A = .
2 2 1
Calcolarne il relativo autovalore e determinare A2~v , A3~v , A5~v , A14~v .
55
Osservazione 122. Siano V e T come sopra e sia B = {~b1 , ..., ~bn } una base di V .
Si ha che T `e rappresentata dalla matrice diagonale
1 0 ... 0
0 2 ... 0
(1 , ..., n ) := . .. .. .. .
.. . . .
0 0 ... n
se e solo se
T (~bi ) = i~bi , i.
Si noti che, nella situazione indicata, in particolare i vettori ~b1 , ..., ~bn sono autovettori
della trasformazione T (di autovalori 1 , ..., n ).
(1240 ) X = B 1 A B
Abbiamo considerato Rn ed abbiamo assunto che una delle due basi era quella canonica.
In effetti anche nel caso generale di una trasformazione di uno spazio vettoriale astratto V
la formula che lega le matrici rappresentative rispetto a basi diverse `e identica alla (124 0 ):
consideriamo uno spazio vettoriale V , una trasformazione lineare T e due basi di V ,
che chiameremo vecchia e nuova (e chiamiamo vecchie e nuove le corrispondenti
coordinate), sia X la matrice che rappresenta T rispetto alla nuova base (la legge che alle
nuove coordinate di un vettore associa le nuove coordinate dellimmagine di quel vettore
`e data dalla moltiplicazione per X) e sia A la matrice che rappresenta T rispetto alla
vecchia base (la legge che alle vecchie coordinate di un vettore associa le vecchie coordinate
dellimmagine di quel vettore `e data dalla moltiplicazione per A). Supponiamo che il pas-
saggio da nuove a vecchie coordinate si effettua moltiplicando per la matrice B . Allora
si deve avere X = B 1 A B . La spiegazione della formula `e quella vista dimostrando
il teorema (124) e si pu`o riassumere con lo schemino che segue (nu, ve e co stanno
rispettivamente per nuove, vecchie e coordinate, la freccia indica il passaggio):
nu.co.(~
v) nu.co.(~
v)
z}|{ z}|{
X ~ B 1 A |B {z ~ }
| {z } =
nu.co.(T (~
v )) ve.co.(~
v)
| {z }
ve.co.(T (~
v ))
| {z }
nu.co.(T (~
v ))
Naturalmente a questo punto si deve identificare meglio la matrice B (sappiamo cosa fa,
moltiplicare per B fa passare da nuove a vecchie coordinate, ma non abbiamo detto chi `e):
riflettenoci un istante `e chiaro che la matrice B `e la matrice delle coordinate dei vettori
della nuova base rispetto alla vecchia: infatti, se ~ `e il vettore delle nuove coordinate di
~v , essendo B ~ la combinazione lineare di coefficienti 1 , ..., n delle colonne di B ed
essendo B la matrice delle coordinate dei vettori della nuova base rispetto alla vecchia, si
ha che B ~ `e il vettore delle vecchie coordinate di ~v .
Pertanto possiamo affermare che due matrici rappresentano la stessa trasformazione li-
neare rispetto a basi diverse se e solo se sono coniugate (proposizione 126 e definizione 127
seguenti):
(1260 ) A0 = C 1 A C
Definizione 127. Due matrici A, A0 Mn,n (R) come nella (1260 ) si dicono coniugate.
Avvertenza. Nel risolvere il problema posto abbiamo effettuato delle scelte: abbiamo
scelto di considerare = 2 come primo autovalore e = 6 come secondo autovalore;
relativamente ai due autovalori trovati, abbiamo scelto gli autovettori
3 1
~v2 = , ~v6 = .
1 1
Naturalmente avremmo potuto considerare = 6 come primo autovalore
e = 2 come
0 4 0 3
secondo autovalore, nonche, ad esempio, v~6 = , v~2 = . Seguendo queste
4 1
scelte avremmo trovato
1
00 4 3 3 3 4 3 6 0
(129 ) = .
4 1 1 5 4 1 0 2
In particolare, tutti i coefficienti del polinomio caratteristico sono invarianti per coniugio.
Poiche il termine noto
ed ilcoefficiente di ()n1 sono rispettivamente determinante e
traccia, infatti det A I = ()n + ()n1 tr (A) + ... + det (A) , si ha il seguente
corollario.
Esercizio. Per ognuna delle matrici che seguono, determinare gli autovalori e calcolarne
le relative molteplicit`a algebriche e geometriche. Osservare che nessuna soddisfa la propriet`a
iii) del corollario (133), quindi dedurre che sono tutte matrici non diagonalizzabili.
3 1 0 2 1 0 11 0 8
1 1 2 1 3 4
, , , 0 3 1 , 0 2 0 , 0 7 0 ,
0 1 0 2 1 7
0 0 3 0 0 3 2 0 3
2 6 2 0 0 1 1 5 3
2 5 1 ( sapendo che 2 `e un autovalore), 0 0 0 , 0 1 4 .
2 3 3 0 0 0 0 0 1
Esercizio. Svolgere le prove desame indicate (si possono trovare nella sezione Area
Esami della mia pagina web): 13/12/04, #3; 18/2/04, #6; 25/2/04, #5; 8/9/04, #5;
21/2/05, #4; 24/2/05, #3; 20/2/06, #4; 22/2/06, #2; 1/3/06, #1; 12/9/06, #1;
27/9/06, #3.
Non ho voluto dirlo prima... ma da un punto di vista algebrico quello che abbiamo
fatto `eassolutamente
elementare: diagonalizzando A si trova = B 1 A B , dove
2 1 2 0
B = `e la matrice di una base di autovettori, = `e la matrice
3 2 0 1
diagonale dei corrispondenti autovalori. Quindi,
A = B B 1 ,
i.e. 1
11 6 2 1 2 0 2 1
= .
18 10 3 2 0 1 3 2
18. Approfondimenti:.
Ora la dimostriamo utilizzando solamente gli strumenti che avevamo a disposizione a quel
punto della trattazione.
LA : Rn Rn , LB : Rn Rn ,
T S = I se e solo se ST = I.
La ii0 ) `e pi`
u sottile: essendo T S lidentit`a, abbiamo che S `e iniettiva (se per assurdo
esistesse ~v 6= ~0 tale che S(~v ) = ~0 si avrebbe anche ~v = I(~v ) = T (S(~v )) = ~0 ). Poiche S
`e iniettiva, deve essere necessariamente anche suriettiva (vedi losservazione a pagina 48).
La iii0 ) `e una tautologia.
Abbiamo sempre lavorato con spazi vettoriali di dimensione finita (finitamente generati,
definizione 66). Enunciando la proposizione (136) ho voluto sottolineare questa ipotesi
perche nel caso degli spazi vettoriali di dimensione infinita la tesi della proposizione `e falsa.
In effetti, in dimensione infinita i0 ) e iii0 ) continuano a valere (e le dimostrazioni sono
quelle indicate). Ma la ii0 ) non vale pi` u, si pu`o solamente dire che S `e iniettiva e T
`e suriettiva. In dimensione infinita linvertibilit`a a destra non implica linvertibilit`a a
sinistra. E non `e difficile fornire un controesempio: sia V lo spazio vettoriale di tutti i
polinomi, T : V V la trasformazione che al polinomio p(x) associa la suaR derivata, sia
x
inoltre S : V V la trasformazione che al polinomio p(x) associa lintegrale 0 p() (che `e
anchesso un polinomio). Le trasformazioni T ed S sono entrambe lineari (vedi definizione
91). Si ha T S = I (se prima integro e poi derivo ritrovo il polinomio dal quale ero
partito), ma la composizione S T fa fuori le costanti, infatti S T `e lapplicazione che al
polinomio p(x) associa il polinomio p(x) p(0) (`e facile, verificatelo!!!).
Nel 6 abbiamo detto che (teorema 42) una matrice A Mn,n (R) `e invertibile se e solo
se det A 6= 0 e che, se A `e invertibile, si ha
det Cj,i
(?) A1 i,j
= (1)i+j ,
det A
dove Cj,i `e la matrice ottenuta da A sopprimendo la j -esima riga e la i-esima colonna. Ora
dimostriamo quanto affermato.
Dimostrazione. Come gi`a osservato nel 6, il non annullarsi del determinante `e una
condizione necessaria per linvertibilit`a di A . Quindi, sar`a sufficiente dimostrare che il
prodotto di A per la matrice indicata in (?) `e la matrice identica. Verifichiamo quindi che
det C
A X = In , essendo X la matrice Xi, j = (1)i+j det Aj,i . Lelemento di posto i, j
10Lipotesi di finitezza `
e necessaria, non basterebbe neanche supporre B = A . Riflettete sullesempio
A = B = Z (linsieme dei numeri interi), f (x) = 2x , g(x) = x/2 se x `
e pari, g(x) = 0 se x `
e dispari.
65
Ora, guardando meglio lespressione trovata ci accorgiamo che questa ha la faccia uno
sviluppo di Laplace, pi`
u precisamente, sotto il segno di sommatoria c`e lo sviluppo di Laplace
del determinante della matrice ottenuta sostituendo la j esima riga di A con la iesima riga
di A !!! Qunidi,
det A 0
se j=i si ottiene det A = 1 ; se j 6= i si ottiene11 det A = 0.
...questa non `e altro che la definizione della matrice identica!
Dimostrazione. Effettuiamo una dimostrazione per induzione sul numero degli autospazi
in questione. Siano dunque ~v1 , ..., ~vk autovettori corrispondenti ad autovalori 1 , ..., k
distinti. Assumiamo k 2 (per k = 1 la tesi `e banale) e che ogni insieme costituito da k 1
autovettori `e un insieme indipendente di vettori (ipotesi induttiva). Si vuole dimostrare che
~v1 , ..., ~vk sono indipndenti. Ragionaniamo per assurdo, supponiamo che esista una relazione
non banale di coefficienti tutti non nulli (altrimenti abbiamo anche una relazione non banale
tra meno di k autovettori e questo contraddice lipotesi induttiva)
(?) c1~v1 + ... + ck~vk = ~0
Essendo i i distinti ed essendo i ci non nulli, anche i prodotti (i k )ci (per i < k) sono
non nulli. In particolare si ha una relazione non banale tra i vettori ~v1 , ..., ~vk1 . Questo
contraddice il fatto che per ipotesi induttiva tali vettori sono indipendenti.
Sulla disuguaglianza g () a () .
Come promesso nel 16, dimostriamo il teorema (120). Stabiliamo una premessa.
g () a () .
Dimostrazione. Posto d = g () , sia {~v1 , ..., ~vd } una base dellautospazio V e sia
un completamento di tale base a una base di V . Affermiamo che, rispetto alla base B , la
trasformazione T `e rappresentata da una matrice del tipo
0 0 ... 0 ? ... ?
0 0 ... 0 ? ... ?
0 0 ... 0 ? ... ?
. .. .. ..
. .
. . .
A = 0 0 0 ... ? ... ? ,
0 0 0 ... 0 ? ... ?
. .. .. ..
.. . . .
0 0 0 ... 0 ? ... ?
dove gli asterischi indicano numeri che non conosciamo e dove il blocco in alto a sinis-
tra, quello dove appare lungo la diagonale principale, `e una matrice quadrata d d
(sotto questo blocco ci sono tutti zeri, le ultime n d colonne di A non le conosciamo).
Laffermazione fatta si giustifica facilmente ricordando che nelle colonne di A troviamo
le coordinate delle immagini dei vettori della base: nella prima colonna di A ci sono le
coordinate di T (~v1 ) = ~v1 , eccetera.
A questo punto `e chiaro che il polinomio caratteristico di A , `e un polinomio del tipo
indicato nella formula che segue:
det A I = ( ) ... ( ) q() ,
| {z }
d volte
dove q() `e un polinomio di grado n d (del quale non sappiamo dire nulla). Questo ci
garantisce che la molteplicit`a algebrica dellautovalore `e maggiore o uguale a d .
67
Apriamo una breve parentesi per introdurre una nuova notazione. Il vettore ~v V di
coordinate 1 , ..., n e il vettore w
~ W di coordinate 1 , ..., m , per definizione, sono
rispettivamente i vettori
n
X m
X
(138) ~v = i ~vi , ~
W = i w
~i
i=1 i=1
Queste espressioni la scriviamo utilizzando il formalismo del prodotto righe per colonne
(capisco che possa dare fastidio scrivere una matrice i cui elementi sono vettori... ma qual `e
il problema! si tratta semplicemente di una notazione che mi consente di evitare di scrivere
fastidiose sommatorie):
(139) ~v = v ~ , ~ = w ~ ,
w
~ = A ~
Ora che abbiamo scritto in termini pi` u intrinseci chi `e lapplicazione T , il problema
di trovare la matrice rappresentativa A0 di T rispetto a delle basi {~ v 01 , ..., v~ 0m } di V e
0 0
{w
~ 1 , ..., w
~ m } di W `e ridotto ad un semplice conto formale che coinvolge il prodotto tra
matrici. Ricaveremo A0 confrontando le due equazioni
(141) T v ~ = w A ~ , T v 0 ~0 = w0 A0 ~0 .
v0 = v B , w0 = w C .
68
Si noti che nella i-esima colonna di B ci sono le coordinate di vi0 rispetto alla vecchia base
{~v1 , ..., ~vm } ; in particolare la moltiplicazione B trasforma le nuove coordinate di un
vettore nelle vecchie. Laffermazione analoga vale per C .
Tramite queste uguaglianze e la 1a delle equazioni (141) otteniamo
T v 0 ~0 = T (v B) ~0
= T v (B ~0 )
= w A (B ~0 )
= (w0 C 1 ) A (B ~0 ) = w0 C 1 A B ~0 .
Pertanto, confrontando lequazione ottenuta con la 2a delle equazioni (141) otteniamo
(142) A0 = C 1 A B .
In effetti la (142) pu`o essere dedotta anche da un semplice ragionamento (confronta con
la dimostrazione della proposizione 124). Innanzi tutto ricordiamo che la moltiplicazione
per A0 `e loperazione che associa alle nuove coordinate di un vettore ~v V , le nuove
coordinate di T (~v ) W . Ora, analogamente a quanto visto nel 17, loperazione appena
descritta pu`o essere effettuata nel modo che segue: consideriamo nuove coordinate di ~v e
i) trasformiamo tali coordinate nelle vecchie coordinate di ~v (moltiplicazione per B );
ii) moltiplichiamo quanto ottenuto per A (si ottengono le vecchie coordinate di T (~v ));
iii) moltiplichiamo per C 1 al fine di ottenere le nuove coordinate di T (~v ) .
Dal fatto che lesecuzione di i), ii) e iii) `e la moltiplicazione per la matrice C 1 A B
otteniamo la (142).
Inciso 144. Abbiamo visto ( 17, prop. 126, vedi anche oss. 132) che matrici coniugate
rappresentano la stessa applicazione lineare rispetto a basi diverse e viceversa. Di con-
seguenza, gli invarianti per coniugio dello spazio delle matrici corrispondono alle propriet`a
geometriche intrinseche delle trasformazioni lineari di uno spazio vettoriale.
In particolare questo vale per il determinante di una trasformazione lineare (oss. 132). Una
discussione dellinterpretazione geometrica del determinante non `e oggeto di questo corso,
comunque due parole le voglio dire. Linterpretazione geometrica del determinante `e la
seguente: il determinante misura di quanto la trasformazione in questione dilata i volumi
(lo spazio). Questo, addirittura, indipendentemente da come misuriamo le distanze (e i
volumi): sia V uno spazio vettoriale e sia T : V V una trasformazione lineare, sia
dato anche un prodotto scalare definito positivo (che non `e altro che un oggetto algebrico
che ci consente di misurare12 le distanze e gli angoli, quindi i volumi), e sia V il volume
di una regione misurabile , allora il volume della immagine T () `e uguale al prodotto
V det T ; questo indipendentemente dal prodotto scalare a disposizione, cio`e da come misu-
riamo distanze e angoli, quindi possiamo dire che det T `e il coefficiente di dilatazione del
volume della regione (pur senza avere in mente un modo di misurare distanze e angoli,
quindi volumi). Attenzione, quanto detto vale solamente per i volumi, ad esempio non vale
per la misura delle lunghezze: se ~v `e un vettore, la lunghezza di T (~v ) , dipende anche dal
prodotto scalare in questione, cio`e da come misuriamo le distanze, oltre che dalla lunghezza
di ~v e dalla trasformazione T .
12 O meglio, definire la misura delle distanze e degli angoli, quindi dei volumi.
69
Capitolo 7.
In questo capitolo discutiamo alcune applicazioni dellalgebra lineare alla geometria euclidea.
Consideriamo un piano H (quello che avete conosciuto alle scuole superiori e del quale
ne allora ne mai vedrete una definizione formale), fissiamo un sistema di riferimento ed una
unit`
a di misura (vedi figura 1). Ad ogni punto P H possiamo associare le sue coordinate
x
R2 e viceversa (vedi figura 1). In questo modo i punti del piano vengono messi in
y
corrispondenza biunivoca con gli elementi di R2 .
asse (y)
3 u
(fig. 1) P =
2 2
asse (x)
3
Per ragioni che saranno pi`
u chiare in seguito conviene introdurre la nozione di vettore
geometrico, oggetto che in un certo senso rappresenta uno spostamento e che viene definito
nel modo che segue.
P
P 0
(fig. 4) chiaramente,
0
px q x px qx0
Q = .
py q y p0y qy0
Q0
una struttura di spazio vettoriale (vedi cap. 1, 9 def. 58). Graficamente, la somma di due
vettori geometrici `e loperazione rappresentata nella figura (5).
~v + w
~ w
~
(fig. 5)
~v
Osserviamo che gli elementi di R2 possono essere interpretati sia come punti del piano
H che come vettori geometrici di H . Ci stiamo complicando inutilmente la vita? Forse si,
ma `e estremamente utile mantenere le due nozioni punti e vettori geometrici distinte.
Dora in poi dir`o semplicemente vettore invece di vettore geometrico.
vx wx
Definizione 6. Siano ~v = e w~ = due vettori. Si definisce il loro prodotto
vy wy
scalare mediante la formula
~v w
~ := v x wx + v y wy .
~v vy
vx
|| c~v || = |c| || ~v ||
|~v w|
~ ||~v || ||w||
~
71
(90 ) ~v w
~ = ||~v || ||w||
~ cos
Dimostrazione. Alle scuole superiori abbiamo visto che se a, b, c sono le misure dei lati
di un triangolo e `e langolo indicato nella figura, allora
1
a b cos = 2 a2 + b 2 c 2 c
b
~v w
~ a = ||~v ||
w
~
b = ||w||
~
c = ||~v w||
~
~v
troviamo
1 2
||~v || ||w||
~ cos = ~ 2 ||~v w||
||~v || + ||w|| ~ 2 = ~v w
~ .
2
La verifica dellultima uguaglianza `e un facile esercizio: basta fare il conto esplicito.
~v + w
~
w
~ ||v + w|| ||v|| + ||w||
~v
~v ~u
hwi
~ (~
v)
w
~
~
v w
~
Dimostrazione. Il vettore w
~ `e un multiplo del vettore w
~ 2
||w|| ~ , quindi `e sufficiente
verificare che il vettore differenza ~u := ~v ||~vw||
w
~
~ 2 w ~ `e effettivamente perpendicolare al
vettore
h w
~ . Effettuiamo
i tale verifica
(calcoliamo il prodotto
scalare
w
~ ~u) : si ha w ~ ~u =
~
v w
~ ~
v w
~ ~
v w
~ 2
w
~ ~v ||w||
~ 2 w~ = ~v w
~ ||w||
~ 2 (w ~ w)
~ = ~v w~ ||w||
~ 2 ||w||
~ = ~v w~ ~v w
~ = 0.
Proposizione 12. Siano ~v e w ~ due vettori del piano e sia A larea del parallelogramma
che individuano (vedi figura). Si ha
v wx
A = | det x |,
vy w y
dove le barre verticali denotano la funzione modulo (valore assoluto).
w
~
~v
73
Esercizio. Dire quali sono le coordinate del vettore che `e rappresentato dal segmento
5
orientato il cui estremo iniziale `e il punto P = ed il cui estremo finale `e il punto
11
6
Q = . Disegnare i due punti ed il vettore.
7
2 5
Esercizio. Determinare la distanza tra i punti P = , Q= .
3 1
Esercizio. Dire quali sono le coordinate
dellestremo finale di un segmento orientato
4 3
che rappresenta il vettore ~v = ed il cui estremo iniziale `e il punto P = .
5 2
Disegnare i due punti ed il vettore.
Esercizio.
Determinare lestremo iniziale del segmentoorientato che rappresenta il vettore
7 5
~v = e che ha per estremo finale il punto P = .
18 2
3 5
Esercizio. Trovare il coseno dellangolo compreso tra i vettori ~v = e w ~= .
4 12
Esercizio. Trovare un vettore di norma uno.
1
Esercizio. Trovare un vettore di norma uno parallelo al vettore ~v =
2
Suggerimento: si utilizzi losservazione 7.
2
Esercizio. Trovare un vettore ortogonale al vettore ~v = .
5
12
Esercizio. Trovare un vettore di norma 52 ed ortogonale al vettore ~v = .
5
3 5
Esercizio. Calcolare larea del parallelogramma individuato da ~v = e w ~= .
7 8
31 13
Esercizio. Calcolare larea del parallelogramma individuato da ~v = e w
~= .
7 3
Disegnare i vettori ~v e w~.
4 5
Esercizio. Siano ~v = e w ~ = . Determinare la proiezione del vettore ~v
7 3
lungo la direzione individuata dal vettore w ~.
2 6 6 10
Esercizio. Siano ~v = , ~u1 = , ~u2 = e w ~= . Determinare
5 15 15 4
a) la proiezione del vettore ~v lungo la direzione individuata dal vettore w ~;
b) la proiezione del vettore ~v lungo la direzione individuata dal vettore ~u1 ;
c) la proiezione del vettore ~v lungo la direzione individuata dal vettore ~u2 .
74
x
Definizione. Una retta r del piano H `e il luogo dei punti P = H che
y
soddisfano unequazione di primo grado, i.e. unequazione del tipo
(13) ax + by + c = 0,
con a e b non entrambi nulli. Tale equazione si chiama equazione cartesiana della retta r .
dalla prima equazione troviamo t = (x2)/5 , sostituendo questa espressione nella seconda
equazione troviamo y = 3 2(x 2)/5 = (19 2x)/5 , ovvero 2x + 5y 19 = 0 ;
questultima `e unequazione cartesiana di r .
(y)
P0
~v
(x) r
2
La retta dellesempio `e la retta passante per il punto P0 = e parallela al vettore
3
5
~v = .
2
Infatti, lequazione indicata rappresenta una retta parallela alla retta r (questo segue dalla
proposizione precedente) nonche rappresenta una retta passante per il punto P .
2
Esempio. La retta r ortogonale al vettore ~v = e passante per il punto
5
8
P = ha equazione cartesiana
1
2 x + 5 y 23 = 0.
px qx
Osservazione 17. La retta passante per i punti P = e Q = `e descritta
py qy
dalle equazioni parametriche
(
x = px + t px q x
, dove = QP =
y = py + t py q y
76
4 1
Esempio. La retta passante per i punti P = e Q = `e descritta dalle
2 3
equazioni parametriche
(
x = 4 + 3t
y = 2 + 5t
3
Si noti che `e il vettore rappresentato dal segmento orientato Q P .
5
Esercizio.
Determinare unequazione cartesiana della retta r passante per il punto
6
P = e parallela alla retta s di equazione 2x 3y + 1 = 0 .
7
Soluzione. Le rette parallele alla retta s sono descritte da equazioni del tipo 2x 3y +
c = 0 (convincersene per esercizio). Imponendo il passaggio per il punto P troviamo
2 6 3 7 + c = 0 , quindi c = 9 . In definitiva, 2x 3y + 9 = 0 `e unequazione
cartesiana della retta r .
Il caso in cui entrambe le rette sono data in forma parametrica si tratta in modo analogo.
px
Proposizione. Sia r la retta di equazione a x + b y + c = 0 e sia P =
py
un punto del piano. La distanza di P da r , che per definizione `e la distanza minima,
cio`e il minimo tra le distanze di P dai punti di r , `e data dalla formula
| apx + bpy + c |
(18) dist P, r = ,
a 2 + b2
dist{P, r}
r
Unaltra dimostrazione si basa sulle seguenti considerazioni (non discuter`o alcuni dettagli
formali). Lespressione apx +bpy +c si annulla sui punti di r , quindi definisce una funzione
che si annulla proprio sui punti che hanno distanza nulla dalla retta, ed `e una funzione di
primo grado in x ed y . Ora, restringiamo la nostra attenzione ad uno dei due semipiani in
cui r divide il piano. Modulo tale restrizione, anche la nostra funzione distanza deve essere
rappresentata da una funzione di primo grado in x ed y e poiche anchessa si annulla su r ,
deve essere proporzionale alla funzione apx + bpy + c . Pertanto, la distanza cercata deve
soddisfare unequazione del tipo
(180 ) dist P, r = | apx + bPy + c | ,
78
dove `e una costante opportuna. Che la costante vale proprio a21+b2 pu`o essere
verificato con un conto esplicito. Tale conto lo ometto per`o voglio far notare che tale scelta
di rende lespressione (180 ) invariante per cambiamenti dellequazione cartesiana scelta
per rappresentare r ...ed una formula che si rispetti deve soddisfare tale condizione di
invarianza!
5x 2y 7 = 0.
Esercizio.
Determinare unequazione cartesiana della retta s passante per il punto
6
P = e parallela alla retta r di equazione 2x 3y 4 = 0 .
7
Esercizio. Determinare
delleequazioni
parametriche che descrivono la retta passante per
1 2
i punti P = e Q = .
4 3
Esercizio. Determinare
delle equazioni parametriche
che
descrivono la retta passante per
1 1
il punto P = ed ortogonale al vettore ~v = .
3 3
Esercizio.
Determinare unequazione cartesiana
della retta s passante per il punto
1 1
P = e parallela al vettore ~v = .
1 2
Esercizio.
Determinare unequazione cartesiana
della retta s passante per il punto
4 3
P = ed ortogonale al vettore ~v = .
5 3
2 8
Esercizio 20. Determinare la distanza tra i punti P = , Q= .
1 5
6
Soluzione. Tale distanza `e la lunghezza del vettore ~v = P Q = . Si ha
4
p
6
dist {P, Q} = ||~v || = || || = 62 + 4 2 = 52 .
4
2 6
Esercizio. Determinare la distanza tra i punti P = , Q= .
1 5
80
2 8 7
Esercizio 21. Calcolare larea A del triangolo di vertici P = ,Q= ,K= .
1 5 2
Qx P x 82 6
Soluzione. Consideriamo i vettori ~v := P Q = = = e
Q y P y 5 1 4
Kx P x 72 5
w
~ := P K = = = (vedi figura).
Ky P y 21 1
Q = 8
5
(y)
~v
K = 7
2
w
~
2
P =
1
(x)
Si ha
1 vx wx 1 6 5
A = | det | = | det | = 7.
2 vy wy 2 4 1
3 3 4
Esercizio. Calcolare larea del triangolo di vertici A = , B= , C= .
7 5 9
1 13 7
Esercizio. Calcolare larea A del triangolo di vertici P = ,Q= ,K= .
4 8 11
3 6 1
Esercizio. Calcolare larea A del triangolo di vertici P = ,Q= ,K= .
1 5 8
4
Esercizio 22. Determinare la proiezione del vettore ~v = lungo la direzione
3
1
individuata dal vettore w~ = .
2
` opportuno verificare che le coordinate del punto K soddisfano lequazione che definisce
E
0 (1) 1
la retta r e che il vettore K P = = `e perpendicolare al vettore
4 2 2
2
w
~ = (il loro prodotto scalare `e nullo). Queste due verifiche garantiscono la
1
correttezza del risultato trovato.
(y)
0
P = 4
1 ~v
K =
2
~u 3
Q =
0
(x)
Soluzione #2. Il punto K `e il punto di intersezione della retta r con la retta ortogonale
ad r passante per P . Questultima ha equazioni parametriche
(
x = t
(?)
y = 4 + 2t
|0 + 2 4 3| 5
dist P, r = = = 5
12 + 22 5
1
Si osservi che dist P, r = dist P, K , dove K = `e la proiezione ortogonale
2
di P su r (vedi esercizio 23).
1
Esercizio. Determinare la proiezione K del punto P = sulla retta r di
8
equazione 3x + 2y 13 = 0 .
1
Esercizio. Determinare la proiezione K del punto P = sulla retta r di
8
equazione x + 5y + 39 = 0 .
2
Esercizio. Determinare la proiezione K del punto P = sulla retta r di
8
equazione 4x y 4 = 0 .
Esercizio.
Determinare unequazione cartesiana della retta s passante per il punto
1
P = ed ortogonale alla retta r di equazione 2x 3y 4 = 0 .
5
Esercizio.
Determinare
unequazione cartesiana della retta s passante per i punti
1 6
P = e Q = .
5 3
3
Esercizio. Calcolare larea A del quadrilatero (irregolare) di vertici P = ,
1
6 1 4
Q= , K= , W = .
5 3 5
Suggerimento: dividetelo in due triangoli, quindi procedete come nellesercizio 21.
3
Esercizio. Calcolare larea A del pentagono (irregolare) di vertici P = ,
1
1 1 4 6
Q= , K = , W = , E = .
5 3 5 1
Suggerimento: dividetelo in tre triangoli.
83
Molte definizioni e risultati che vedremo in questo paragrafo generalizzano quelli visti
studiando il piano. Consideriamo lo spazio S e fissiamo un sistema di riferimento ed una
unit`adi misura (vedi figura 24). Ad ogni punto P S possiamo associare le sue coordinate
x
y R3 e viceversa (vedi figura 24). In questo modo i punti dello spazio vengono messi
z
in corrispondenza biunivoca con gli elementi di R3 .
asse (z)
x
(fig. 24) P = y
z
geometrici dello spazio S di una struttura di spazio vettoriale (vedi cap. 1, 9 def. 58).
La somma di due vettori geometrici `e loperazione analoga a quella vista studiando il piano
(vedi 1).
vx wx
Definizione 25. Siano ~v = vy e w~ = wy due vettori. Si definisce il loro
vz wz
prodotto scalare mediante la formula
~v w
~ := v x wx + v y wy + v z wz .
Osservazione. Analogamente a quanto accadeva per i vettori del piano, la norma del
vettore ~v coincide con la lunghezza di un segmento orientato che lo rappresenta (vedi oss.
7, 1). Inoltre, se c R `e una costante e ~v `e un vettore si ha
|| c~v || = |c| || ~v ||
(vedi oss. 70 , 1). Continuano a valere anche le propriet`a (8), la disuguaglianza di Cauchy-
Schwarz, la disuguaglianza triangolare e la proposizione (9). Questultima la ricordiamo:
(26) ~v w
~ = ||~v || ||w||
~ cos
(30a ) ~ = ~0 , se e solo se ~v e w
~v w ~ sono dipendenti;
(30b ) ~v w
~ `e ortogonale al piano individuato da ~v e w
~ (se tale piano non `e definito,
allora ~v e w~ sono dipendenti e, in accordo con la (30a ), si ha ~v w
~ = 0)
(30c ) la norma di ~v w
~ `e uguale allarea del parallelogramma individuato da ~v e
w
~;
(30d ) il verso di ~v w
~ , se non siamo nelle condizioni di (30a ), `e quello che rende
positiva lorientazione della terna {~v , w,
~ ~v w}
~ (la posizione nello spazio dei
tre vettori, nellordine indicato, appare come quella di pollice indice e medio
della mano destra).
In realt`a (30a ) segue da (30c ), ma repetita iuvat. Non dimostreremo queste propriet`a.
Lo studente dimostri, per esercizio, la (30a ) e la (30b ).
~v w
~ = w
~ ~v
86
Alla luce di quanto abbiamo visto siamo ora in grado di provare la proposizione (28).
Esercizio.
Determinare lestremo iniziale del segmento
orientato
che rappresenta il vettore
7 5
~v = 18 e che ha per estremo finale il punto P = 2 .
5 1
4 1
Esercizio. Determinare la distanza tra i punti P = 2 , Q = 7 .
1 2
5 1
Esercizio. Determinare il coseno dellangolo compreso tra i vettori ~v = 2 , w
~ = 2 .
1 1
3
Sia ora ~v il vettore 6 .
2
Soluzione #2. Indichiamo con langolo tra ~v e w ~ . Applicando la formula del coseno
q
~
v w
~ 3
75
(vedi 26) troviamo cos = ||~v||||w|| = . Quindi, |sen | = 1 cos 2 =
84 .
~ 84
q
75
Infine, A = |sen | ||~v || ||w||
~ = 84 84 = 75 = 5 3 .
x
Definizione. Un piano dello spazio S `e il luogo dei punti P = y S che
z
soddisfano unequazione di primo grado, i.e. unequazione del tipo
ax + by + cz + d = 0,
Analogamente a ci`o che accadeva nel caso delle rette nel piano (vedi 2), come conseguenza
di quanto imparato sui sistemi lineari, abbiamo che un piano pu`o essere anche descritto da
equazioni parametriche, ovvero da equazioni del tipo
x
= x 0 + 1 t + 1 s
(32) y = y 0 + 2 t + 2 s ,
z = z0 + 3 t + 3 s
Osservazione 33. Per trovare unequazione cartesiana del piano definito dal sistema
(32)
a
si pu`o procedere in due modi: i) si eliminano i parametri; ii) si definisce14 b = ~v w~,
c
vedi (30b ) e (31), quindi si trova la costante d imponendo il passaggio per il punto P 0 ,
ovvero si pone d = ax0 by0 cz0 .
Esercizio. Siano P, Q, K tre punti dello spazio. Verificare che sono allineati se e solo
se i due vettori P Q e P K sono dipendenti.
px qx kx
Osservazione. Siano P = py , Q = qy e K = ky tre punti non
pz qz kz
allineati. Il piano passante per essi `e descritto dalle equazioni parametriche
x
= P x + 1 t + 1 s 1 1
y = Py + 2 t + 2 s , dove 2 = P Q , 2 = P K .
z = Py + 3 t + 3 s 3 3
14 ` sottinteso che le costanti a, b, c, d che sto per definire vanno sostituite nellequazione ax+by+cz+d = 0 .
E
89
2 6 4
Esempio. Il piano passante per i punti P = 0 , Q = 5 e K = 9 `e
1 7 8
descritto dalle equazioni parametriche
x
= 2 + 4t + 2s
y = 0 + 5t + 9s .
z = 1 + 6t + 7s
Per quel che riguarda la distanza di un punto da un piano, vale una formula analoga alla
(18). Si ha infatti quanto segue.
px
Proposizione. Sia il piano di equazione a x + b y + c z + d = 0 e sia P = py
pz
un punto dello spazio. La distanza di P da , che per definizione `e la distanza minima,
cio`e il minimo tra le distanze di P dai punti di , `e data dalla formula
La dimostrazione di questa formula `e del tutto identica alla dimostrazione della (18).
Intersecando due piani non paralleli15 si ottiene una retta, intersecare corrisponde a met-
tere a sistema le equazioni: se 1 e 2 sono due piani, definiti rispettivamente dalle
equazioni f1 = 0 ed f2 = 0 , un ( punto P appartiene allintersezione 1 2 se e
f1 = 0
solo se soddisfa il sistema di equazioni . Quanto osservato suggerisce la seguente
f2 = 0
definizione.
x
Definizione. Una retta r dello spazio S `e il luogo dei punti P = y S che
z
soddisfano un sistema lineare del tipo
(
ax + by + cz + d = 0 a b c
(35) , rg = 2.
a0 x + b 0 y + c 0 z + d 0 = 0 a0 b0 c0
parametro libero. Analogamente ai casi delle rette nel piano e dei piani nello spazio, ci`o che
sappiamo sui sistemi lineari ci consente di osservare quanto segue.
x
Osservazione. Una retta r dello spazio S `e il luogo dei punti P = y S del tipo
z
x = x0 + t
0
(36) y = y0 + t , 6= 0
z = z + t 0
0
x0
dove, y0 `e un punto fissato, `e un vettore non-nullo fissato e, come al solito,
z0
t `e un parametro libero.
Le intersezioni tra piani, oppure tra rette, oppure tra rette e piani, si determinano met-
tendo a sistema le equazioni degli oggetti geometrici in questione. Negli esercizi che seguono
vediamo qualche esempio.
x = 2 + 7t
Esercizio. Determinare il punto P di intersezione della retta r di equazioni y = 5 + 2t
z = 8 + 3t
con il piano H di equazione x 3y + 5z 43 = 0 .
Soluzione #1. Si trova unequazione cartesiana anche per il piano H (utilizzando uno
dei due metodi indicati nellosservazione 33), quindi si risolve, con i metodi visti nei capitoli
sui sistemi lineari, il sistema costituito da questa equazione e dallequazione di H 0 .
Soluzione #2. Il punto K `e il punto di intersezione della retta r con il piano ortogonale
ad r passante per P . Questultimo ha equazione cartesiana (qui usiamo la proposizione
92
(?) 3x + y 2z + 8 = 0
Osservazione 39. Nello spazio, per calcolare la distanza di un punto P da una retta
r , conviene determinare la proiezione Q di P su r . Naturalmente si ha dist{P, r} =
dist{P, Q} . I metodi pi`
u rapidi per trovare le coordinate Q sono i seguenti:
i) si procede come nella soluzione #1 dellesercizio 37;
ii) si procede come nella soluzione #2 dellesercizio 37.
2 x = 11 + 5 t
Esercizio. Sia P = 5 e sia r la retta di equazioni y = 3 12 t .
4 z = 2 + 3 t
Determinare la distanza dist{P, r} .
(
2 x 3y + z = 0
Esercizio. Sia P = 1 e sia r la retta di equazioni .
3 2x + z 5 = 0
Calcolare la distanza dist{P, r} .
93
Concludiamo questo paragrafo con il calcolo della distanza tra due rette nello spazio.
Supponiamo che r ed s non siano parallele (se lo sono, la distanza cercata `e uguale alla
distanza di un punto qualsiasi di r da s e si calcola con i metodi suggeriti nellosservazione
39). Supponiamo inoltre che r ed s siano date in forma parametrica, e.g. siano 16
x x
r = y = P0 + ~v t s = y = Q0 + w ~t
z z
Si osservi che non stiamo dicendo che Q0 `e il punto di s che realizza il minimo della
definizione (40), in generale possiamo solamente dire che dist {Q0 , r} dist {r, s} . Comun-
que valgono le uguaglianze (41) e queste ci consentono di risolvere il nostro problema.
Per trovare i punti che realizzano il minimo della definizione (40), si deve lavorare un po
di pi`
u:
(continuiamo ad assumere che r ed s non siano parallele) la proiezione della retta s sul
piano H (che `e il luogo dei punti ottenuti proiettando su H i punti di s ) `e una retta se
che incontra r . Sia Pe = se r e sia Q e il punto di se la cui proiezione `e il punto Pe . Si ha
Si noti che la prima uguaglianza viene dalle relazioni (41), la seconda uguaglianza segue dal
fatto che Qe `e stato ottenuto proiettando Pe (che `e un punto di H ) sul piano H0 (`e
opportuno ricordare che i due piani sono paralleli per costruzione).
Infine, poiche Pe e Q
e sono punti di r ed s rispettivamente, abbiamo che sono proprio i
punti che realizzano il minimo della definizione (40).
Esercizio. Calcolare la distanza tra le rette (si osservi che non sono parallele)
x
= 2 + 3t x
= 5 + 6t
r : y = 1 + 4 t s : y = 1 + 3t
z = 4 + 7t z = 2 + 7t
7 x + 21 y + 15 z 53 = 0
5
`e unequazione cartesiana di H . Per le osservazioni viste, posto Q0 = 1 si ha
2
|7 5 + 21 1 + 15 2 53| 33
dist {r, s} = dist { Q0 , H } = =
49 + 441 + 225 715
Si ha pertanto Pe = se r = H fs r (nonche Q
e = Hfr s , dove H
fr `e il piano contenente
r ed ortogonale ad H ).
fs r e H
Il calcolo esplicito delle intersezioni H fr s lo lasciamo per esercizio.
95
Indice
Capitolo 1
Capitolo 2
Compiti desame (in gran parte svolti) e altri esercizi si trovano nella sezione
Area Esami
della mia pagina web
www.mat.uniroma2.it/marini