Professional Documents
Culture Documents
Basilio Bona
Dipartimento di Automatica e Informatica
Politecnico di Torino
Matrici e vettori
Il lettore interessato puo fare riferimento a numerosi libri che trattano le matrici e
lalgebra vettoriale; in lingua italiana posso suggerire i testi di base [8, 9], in inglese
un classico per la teoria della matrici e rappresentato da [4], mentre per lalgebra
lineare consiglio il testo di Strang [10]. Le lezioni videoregistrate di questultimo
sono visibili alla pagina Web del MIT OpenCourseWare, allindirizzo [1].
1.1 Definizioni
Con il termine matrice si definisce un insieme composto da elementi ordinati in m
righe e n colonne, che viene indicato da una delle notazioni seguenti:
a11 a12 a1n
a21 a22 a2n
A = Amn = [aij ] = .. .. . . ..
. . . .
am1 am2 amn
Gli elementi aij posso essere variabili reali, quando aij R o variabili complesse,
quando aij C; allora si scrive A Rmn oppure A Cmn . In questa Appendice
consideriamo di solito matrici reali, salvo quando espressamente dichiarato. Se n =
1, abbiamo una matrice particolare, detta vettore colonna o semplicemente vettore.
Data una matrice Amn si definisce matrice trasposta la matrice ottenuta scambian-
do le righe e le colonne
a11 a21 am1
a12 a22 am2
T
Anm = .. .. . . ..
. . . .
a1n a2n amn
2
Basilio Bona - Algebra Lineare e Matrici 3
2) per ogni elemento A dello spazio, data una variabile reale o complessa2 ,
esiste loperazione di prodotto per , tale che A appartiene ancora allo spazio.
Inoltre, date due variabili scalari e ,
Nel caso particolare delle matrici queste proprieta generali prendono le forme parti-
colari descritte nel seguito.
a11 a12 a1n a11 a12 a1n
a21 a22 a2n a21 a22 a2n
A = .. .. ... .. = .. .. ... ..
. . . . . .
am1 am2 amn am1 am2 amn
1
per bilinearita si intende la linearita rispetto a entrambi gli operandi.
2
ci limiteremo a considerare il caso di reale.
Basilio Bona - Algebra Lineare e Matrici 5
Somma di matrici
a11 + b11 a12 + b12 a1n + b1n
a21 + b21 a22 + b22 a2n + b2n
A+B = .. .. .. ..
. . . .
am1 + bm1 am2 + bm2 amn + bmn
Per poter essere sommate, le matrici devono avere le stesse dimensioni.
Valgono le seguenti proprieta, che sono state genericamente affermate nella condi-
zione 1) precedente:
A+O = A
A+B = B +A
(A + B) + C = A + (B + C )
(A + B)T = AT + B T
Lelemento neutro o nullo O prende il nome di matrice nulla. Loperazione differenza
viene definita con lausilio dello scalare = 1:
A B = A + (1)B.
Prodotto di matrici
Indicheremo per ora loperatore prodotto con il simbolo , ma nelluso comune esso
viene quasi sempre omesso, come si usa fare per il simbolo di prodotto tra grandezze
scalari.
Loperazione si effettua con la ben nota regola riga per colonna: il generico
elemento cij della matrice prodotto C mp = Amn B np vale
n
X
cij = aik bkj
k=1
Esiste un elemento neutro rispetto al prodotto, che prende il nome di matrice identita
e viene indicata con I n oppure semplicemente I quando non ci sono ambiguita nella
dimensione; data una matrice rettangolare Amn si ha
Oltre a queste operazioni fondamentali, esistono altre funzioni su matrici che elen-
cheremo brevemente nel seguito.
Potenza di matrice
Ak = A A A k volte
A2 = A.
Traccia
La traccia di una matrice quadrata Ann e la somma dei suoi elementi diagonali
n
X
tr (A) = akk
k=1
tr (A + B) = tr (A) + tr (B)
tr (AB) = tr (BA)
tr (A) = tr (AT )
tr (A) = tr (T 1 AT ) per T non singolare (vedi oltre)
Basilio Bona - Algebra Lineare e Matrici 7
Determinante
0 9 2 3
si ha
1 5 2
A(23) = 7 4 2
0 9 3
Rango
Dora in poi il prodotto tra matrici A B sara indicato semplicemente come AB.
Matrice aggiunta
Matrice inversa
Data una matrice quadrata A Rnn si dice invertibile o non singolare se esiste la
matrice inversa A1
nn tale che
AA1 = A1 A = I n
La matrice e invertibile se e solo se (A) = n, ossia e di rango pieno; cio equivale
ad avere det(A) 6= 0.
Linversa si ottiene come:
1
A1 = Adj(A)
det(A)
Valgono le seguenti proprieta:
(A1 )1 = A;
(AT )1 = (A1 )T .
Decomposizione di matrice
Data una matrice quadrata A, e sempre possibile decomporla in una somma di due
matrici, come segue:
A = As + Aa (1.1)
dove
1
As = (A + AT )
2
e una matrice simmetrica e
1
Aa = (A AT )
2
e una matrice antisimmetrica (vedi Sezione 1.4).
Data una matrice reale di dimensioni qualsiasi A Rmn , risultano simmetriche
entrambe le matrici seguenti
AT A Rnn
AAT Rmm
Trasformazioni di similarita
Data una matrice quadrata A Rnn e una matrice quadrata non singolare T
Rnn , la matrice B Rnn ottenuta come
B = T 1 AT oppure B = T AT 1
A = T T 1
si puo scrivere
AT = T
e se indichiamo con t i la i-esima colonna di T , ossia
T = t1 tn
avremo la nota formula che lega autovalori e autovettori (vedi Paragrafo 1.2.1)
At i = i t i
e quindi potremo dire che le costanti i sono gli autovalori di A e i vettori t i sono
gli autovettori di A, in generale non normalizzati.
Basilio Bona - Algebra Lineare e Matrici 11
det(I A) = 0
Au i = i u i
Se gli autovalori non sono tutti distinti, si ottengono autovettori generalizzati, la cui
determinazione va oltre gli scopi di questa Appendice.
Geometricamente gli autovettori rappresentano quelle particolari direzioni nello
spazio Rn , in cui si applica la trasformazione lineare rappresentata da A, che si tra-
sformano in se stesse; sono quindi le direzioni invarianti rispetto alla trasformazione
A e gli autovalori forniscono le rispettive costanti di scalamento lungo queste
direzioni.
Linsieme degli autovalori di una matrice A sara indicato con (A) oppure con
{i (A)}; linsieme degli autovettori di A sara indicato con {u i (A)}. In generale,
essendo gli autovettori delle rappresentazioni di direzioni invarianti rispetto alla
trasformazione rappresentata da A, essi sono definiti a meno di una costante, ossia
possono o meno essere normalizzati; tuttavia e convenzione tacita che essi abbiano
norma unitaria, salvo quando altrimenti dichiarato.
i suoi autovalori sono gli elementi sulla diagonale {i (A)} = {aii }; lo stesso vale per
una matrice diagonale.
Data una matrice Ann e i suoi autovalori {i (A)}, sara
n
Y
det(A) = i
i=1
e n
X
tr (A) = i
i=1
A = T 1 AT
ossia
{i (A)} = {i (A)}
Se costruiamo una matrice di trasformazione M ordinando per colonne gli autovet-
tori normalizzati u i (A)
M = u1 un
allora la trasformazione di similarita fornisce una matrice diagonale
1 0 0
0 2 0
1
= .. .. .. .. = M AM
. . . .
0 0 n
= M T AM
A = U V T (1.2)
dove:
Basilio Bona - Algebra Lineare e Matrici 13
se m = n = s
s
se m > n = .
O
i (A) 0 sono detti valori singolari e coincidono con le radici quadrate non
negative degli autovalori della matrice simmetrica AT A:
q q
i (A) = i (A A) = i (AAT )
T
i 0
1 2 s 0
1 2 r > 0; r+1 = = s = 0
dove
Basilio Bona - Algebra Lineare e Matrici 14
Si fa notare che:
le colonne u i che corrispondono a valori singolari positivi sono una base per
lo spazio immagine (range) di A.
le colonne v i che corrispondono a valori singolari positivi sono una base per
lo spazio nullo (kernel o null-space) di A.
Basilio Bona - Algebra Lineare e Matrici 15
Poiche le proprieta (1.5) inducono una struttura lineare sullo spazio V, esso viene
indicato anche con il termine di spazio vettoriale lineare o semplicemente spazio
lineare (in inglese linear vector space o semplicemente linear space).
Il termine vettore ha un significato molto ampio, nel senso che essa include entita
matematiche in apparenza anche molto diverse. Ad esempio, non solo le n-ple di
reali, ma anche le sequenze infinite di numeri reali o complessi, le funzioni continue
che assumono valori reali nellintervallo [a, b], i polinomi a coefficienti complessi
definiti nellintervallo [a, b] ecc. [7].
Come si puo notare, tra gli assiomi dello spazio vettoriale non compare alcuna
operazione di prodotto.
Per questo motivo la struttura dello spazio vettoriale, ossia linsieme di proprieta che
derivano dagli assiomi, non permette di definire concetti geometrici quali langolo
o la distanza, che invece sono impliciti nella definizione puramente geometrica di
vettore. Per consentire di definire tali concetti e necessario dotare lo spazio vettoriale
di una struttura quadratica o metrica. Lintroduzione di una metrica in uno spazio
vettoriale genera unalgebra che rende possibile lesecuzione di calcoli su oggetti
geometrici. La metrica piu comune e quella indotta dalla definizione di prodotto
scalare.
Prima di passare alla definizione di questo prodotto, riassumiamo brevemente alcune
proprieta delle funzioni lineari.
v = v1 a 1 + v2 a 2 + vn a n
v1 a 1 + v2 a 2 + vn a n = 0
Tra le molte inverse destre e sinistre concepibili, due sono particolarmente impor-
tanti:
che rappresenta una particolare inversa destra. Si puo dimostrare che quando
(A) = m allora (AAT )1 esiste.
pseudo-inversa sinistra (n < m):
A+ T 1 T
s = (A A) A
che rappresenta una particolare inversa sinistra. Si puo dimostrare che quando
(A) = n allora (AT A)1 esiste.
Questa particolare pseudo-inversa sinistra prende anche il nome di pseudo-
inversa di Moore-Penrose. In generale, anche se AT A non risulta invertibile, si
puo sempre definire una pseudo-inversa di Moore-Penrose, che e quella matrice
A+ che soddisfa le seguenti relazioni:
AA+ A = A
A+ AA+ = A+
(1.7)
(AA+ )T = AA+
(A+ A)T = A+ A
m < n: abbiamo piu incognite che equazioni; allora, tra le infinite soluzio-
ni possibili x Rn , scegliamo convenzionalmente quella che ha norma kx k
minima, che viene individuata da
x = A+ T T 1
d y = A (AA ) y
x = x + v = A+
dy +v
n < m: abbiamo piu equazioni che incognite; allora non esistono soluzioni
esatte alla y = Ax , ma solo soluzioni approssimate, tali per cui esiste un
errore e = Ax y 6= 0. Tra queste possibili soluzioni approssimate si sceglie
convenzionalmente quella che minimizza la norma dellerrore, ossia
Essa vale
x = A+ T 1 T
s y = (A A) A y
e = (I AA+
s )y
Dati due vettori reali a, b V(R), il prodotto scalare o interno (in inglese scalar o
inner product) a b e un numero reale che puo venire definito sia in modo geometrico
sia in modo analitico (per componenti):
2. kx + y k kx k + ky k (diseguaglianza triangolare);
Tra le p-norme piu usate nei vari campi della matematica e dellingegneria ricordia-
mo:
la norma 2 o euclidea p = 2 kx k2 = x T x
P
la norma 1 p = 1 kx k1 = k |ak |
la norma o max-norma p = kx k = maxk |xk |
Il prodotto scalare opera tra due vettori e genera uno scalare, mentre in generale
vorremmo poter definire un prodotto piu generale che operi su due vettori e generi
come risultato ancora un vettore.
E possibile definire questultimo prodotto anche nel caso generale di vettori appar-
tenenti a spazi n-dimensionali, ma per i fini che ci proponiamo e sufficiente limitarsi
al caso tridimensionale, in cui possiamo definire il cosiddetto prodotto vettoriale.
La (1.13) puo essere scritta come prodotto della matrice antisimmetrica S (x ) per il
vettore y :
0 x3 x2
x y = x3 0 x1 y = S (x )y
x2 x1 0
Le proprieta delle matrici antisimmetriche e i loro utilizzi sono descritte nel paragrafo
1.4.
La norma del prodotto esterno vale
kz k = kx k ky k sin (1.14)
dove e langolo tra i due vettori x e y misurato sul piano xy definito da questi
ultimi; la direzione di z e ortogonale al piano, il verso e dato dallapplicazione della
regola della mano destra5 , per portare x su y compiendo la rotazione di angolo
minimo.
Il prodotto vettoriale soddisfa le seguenti proprieta:
x (y z ) = (x z ) y (x y ) z
(1.16)
(x y ) z = (x z ) y (y z ) x
(x y ) z = (z y ) x (1.17)
Prodotto diadico
Si fa notare che alcuni testi anglosassoni chiamano questo prodotto external product,
generando confusione con il prodotto vettoriale.
Risulta immediato dimostrare che il prodotto non e commutativo, in quanto, in
generale x y T 6= y x T , essendo
D(x , y ) = D T (y , x )
risulta quindi x y 6= y x .
La matrice D che si ottiene come risultato del prodotto risulta sempre avere rango
(D) = 1, qualunque sia la dimensione n dei vettori di partenza.
Una proprieta utile che lega il prodotto vettoriale triplo e il prodotto diadico per
vettori tridimensionali e la seguente
x (y z ) = [(x z ) I z x ] y
(x y ) z = [(x z ) I x z ] y
Altri prodotti
Poiche il prodotto interno e un prodotto tra vettori che fornisce uno scalare ed
il prodotto esterno non e associativo, nasce la necessita di definire un prodotto
ab tra vettori che obbedisca alla maggior parte delle regole della moltiplicazione
ordinaria, ovvero possegga almeno le proprieta di essere associativo e distributivo,
mentre la commutativita non e essenziale. Si richiede anche che, nel fare il prodotto,
venga preservata la norma, ossia kabk = kak kbk.
Sono stati definiti in passato prodotti tra vettori che soddisfano questi requisiti. Di
solito essi vengono trascurati nei testi elementari di algebra vettoriale. Tra questi,
un qualche interesse per lapplicazione alla cinematica teorica e alla computer vision,
oltreche nella fisica quantistica, rivestono il prodotto di Hamilton e il prodotto di
Clifford.
Basilio Bona - Algebra Lineare e Matrici 25
Prodotto di Hamilton
c = ab = a b + a b (1.18)
Prodotto di Clifford
E stato dimostrato che un prodotto vettoriale che permetta di soddisfare gli stessi
assiomi del prodotto tra due numeri reali, ossia la distributivita, lassociativita e
la commutativita, non esiste per spazi vettoriali con dimensioni n 3; se si lascia
cadere lassioma della commutativita, si puo definire il prodotto di Clifford, dal nome
del matematico inglese William Clifford (1845-79) che per primo lo introdusse. Esso
consente di estendere a spazi vettoriali Rn , con n > 3, il prodotto esterno definito
in 1.3.5.
Limitiamoci in un primo momento, per semplicita, al piano R2 : dati due vettori
a = a1 i + a2 j , e b = b1 i + b2 j , il prodotto di Clifford risulta essere definito come:
dove e 12 prende il nome di bivettore. Esso e definito come larea dotata di segno del
parallelogrammo compreso tra i e j ; in un certo senso e analogo al prodotto esterno
i j , salvo il fatto che questultimo e interpretato come vettore ortogonale al piano
in cui sono contenuti i e j , mentre il primo e da interpretarsi come una pezza (in
inglese patch) nel medesimo piano, come illustrato in Fig. 1.1.
Lestensione allo spazio R3 si ottiene assumendo che sia verificata per il prodotto la
seguente identita:
cc = c 2 = c c (1.21)
se poi consideriamo c = a + b, otteniamo:
(a + b)(a + b) = (a + b) (a + b) (1.22)
da cui segue
ab + ba = 2a b (1.23)
Basilio Bona - Algebra Lineare e Matrici 26
i j
j
e12
e quindi
ab = 2a b ba (1.24)
Il lettore interessato puo fare riferimento al testo [6] per ulteriori approfondimenti.
Dal punto di vista geometrico, P 1 proietta ogni vettore v V nel spazio immagine
R(A) (vedi 1.3.3), mentre P 2 proietta v nel suo complemento ortogonale R(A) =
N (AT ).
Data una matrice quadrata A Rnn la sua norma deve soddisfare in generale i
seguenti assiomi generali:
1. norma spettrale: q
kAk2 = max{i (AT A)}
i
2. norma di Frobenius:
sX X p
kAkF = a2ij = tr AT A
i j
4. norma 1 o max-norma: n
X
kAk1 = max |aij |
j
i=1
5. norma : n
X
kAk = max |aij |
i
j=1
1 = 0, 2,3 = j kv k
U U T = U TU = I (1.31)
ovvero
U 1 = U T (1.32)
kU k = 1;
|det(U )| = 1 (1.33)
Viene chiamata ortogonale quella matrice quadrata per cui vale una relazione meno
forte della (1.31), ovvero
1 0 0
0 2 0
U T U = .. .. . . .
. . . ..
0 0 n
con ii 6= 0.
Il termine ortonormale viene riservato al caso in cui ii = 1.
Il prodotto scalare e invariante a trasformazioni ortonormali, ossia
(U x ) (U y ) = (U x )T (U y ) = x T U T U y = x T I y = x T y = x y
Basilio Bona - Algebra Lineare e Matrici 30
b(x , y ) = x T Ay = y T AT x
q(x ) = x T Ax = x T (As + Aa )x = x T As x
x T Ax 0 x
Condizione necessaria affinche la matrice quadrata A sia definita positiva e che gli
elementi sulla diagonale siano strettamente positivi.
Condizione necessaria e sufficiente affinche la matrice quadrata A sia definita posi-
tiva e che tutti gli autovalori siano strettamente positivi.
Il criterio di Sylvester afferma che condizione necessaria e sufficiente affinche la
matrice quadrata A sia definita positiva e che tutti i suoi minori principali siano
strettamente positivi. Una matrice definita positiva ha rango pieno ed e sempre
invertibile.
La forma quadratica x T Ax soddisfa la relazione seguente
dove min (A) e max (A) sono, rispettivamente, lautovalore minimo e massimo di
A.
Basilio Bona - Algebra Lineare e Matrici 32
se m < n, AT A 0 e AAT 0,
se m = n, AT A 0 e AAT 0,
se m > n, AT A 0 e AAT 0.
[1] http://ocw.mit.edu/18/18.06/f02/index.htm.
[5] P. Lounesto. Clifford Algebras and Spinors. Cambridge University Press, second
edition, 2001.
[6] P. Lounesto. Clifford Algebras and Spinors. Cambridge University Press, second
edition, 2001.
[7] D. G. Luenberger. Optimization by Vector Space Methods. John Wiley & Sons,
1969.
33
Indice
1 Matrici e vettori 2
1.1 Definizioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Operazioni sulle matrici . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Autovalori e autovettori . . . . . . . . . . . . . . . . . . . . . 11
1.2.2 Decomposizione ai valori singolari . . . . . . . . . . . . . . . . 12
1.3 Vettori e spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3.1 Spazio vettoriale . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3.2 Funzioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3.3 Matrici come rappresentazione di operatori lineari . . . . . . . 17
1.3.4 Inversa generalizzata . . . . . . . . . . . . . . . . . . . . . . . 18
1.3.5 Prodotti tra vettori . . . . . . . . . . . . . . . . . . . . . . . . 21
1.3.6 Proiezioni e matrici di proiezione . . . . . . . . . . . . . . . . 26
1.3.7 Norme di matrice . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.4 Matrici antisimmetriche . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.5 Matrici ortogonali e ortonormali . . . . . . . . . . . . . . . . . . . . . 29
1.6 Forme bilineari e quadratiche . . . . . . . . . . . . . . . . . . . . . . 30
34
Elenco delle figure
35