Professional Documents
Culture Documents
Dispense di
ALGEBRA LINEARE,
c.d.l. in Informatica, Università di Firenze,
http://web.math.unifi.it/users/rubei/didattica.html
Contents
1 Notazioni fondamentali in matematica 3
2 I numeri complessi 4
3 Rn e le matrici 6
3.1 Definizione di Rn e di matrici, somma e prodotto per uno scalare . . . . . . . . 6
3.2 Vari tipi di matrici, trasposta, traccia . . . . . . . . . . . . . . . . . . . . . . . . 8
3.3 Prodotto scalare standard e norma . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.4 Prodotto di matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.5 Matrici invertibili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4 Sistemi lineari 15
4.1 Forma matriciale dei sistemi lineari, sistemi lineari omogenei e non . . . . . . . . 15
4.2 Operazioni elementari di riga, matrici a scalini . . . . . . . . . . . . . . . . . . . 15
4.3 Metodo per risolvere un sistema lineare quando la sua matrice completa è a scalini 17
4.4 Metodo per risolvere un qualsiasi sistema lineare . . . . . . . . . . . . . . . . . . 18
5 Spazi vettoriali 21
5.1 Definizione e prime proprietà . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
5.2 Sottospazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
5.3 Generatori, insiemi di vettori linearmente indipendenti, basi, dimensione . . . . . 24
5.4 Dimensione di M (m × n, R) e di Rk [x] . . . . . . . . . . . . . . . . . . . . . . 27
5.5 Un esempio fondamentale: lo spazio generato dalle colonne di una matrice (range)
e lo spazio generato dalle righe . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
6 Applicazioni lineari 30
6.1 Applicazioni lineari, nucleo , immagine, relazione fondamentale . . . . . . . . . . 30
6.2 Applicazioni lineari associate a matrici . . . . . . . . . . . . . . . . . . . . . . . 32
1
8 Autovettori e autovalori, diagonalizzabilità 38
Ordine di lettura consigliato : 3.1, 3.2, 5.1, 5.2, 3.3, 3.4, etc
2
1 Notazioni fondamentali in matematica
3
2 I numeri complessi
Come è ben noto non tutte le equazioni polinomiali hanno soluzioni nei reali. Ad esempio
l’equazione
x2 = −1
non ha soluzione nei reali, cioè non esiste un numero reale x il cui quadrato è −1.
L’insieme dei numeri complessi è stato introdotto proprio per consentire di trovare soluzione a
tutte le equazione polinomiali, cioè è stato introdotto come un insieme “più grande” dell’insieme
dei numeri reali, nel quale ogni equazione polinomiale ha soluzione. In altre parole per ottenere
l’insieme dei numeri complessi si aggiunge all’insieme dei numeri reali l’insieme di tutte le soluzioni
di equazioni polinomiali.
i2 = −1
e si definisce:
C = {a + bi| a, b ∈ R}
Quindi un numero complesso è un numero del tipo
z = a + bi
dove a e b sono due numeri reali e i è l’unità immaginaria. Si dice che a è la parte reale del
numero complesso a + bi e bi è la parte immaginaria. In genere si scrive:
Re(z) = a
Im(z) = b (coefficiente della parte immaginaria).
La somma e il prodotto in C si definiscono nel modo seguente:
Ovviamente si può vedere l’insieme dei numeri reali contenuto nell’insieme dei numeri complessi:
a ∈ R si può vedere come il numero complesso a + 0i.
Si definisce coniugato di un numero complesso z = a + bi il numero complesso a − bi e si denota
z:
z = a − bi
√
Si definisce modulo di un numero complesso z = a + bi il numero reale a2 + b2 e si denota
|z|: p
|z| = a2 + b2
Se z ∈ R, allora il modulo coincide
√ con il valore
√ assoluto: infatti in tal caso, se si scrive z = a+bi,
si ha che b = 0 e quindi |z| = a2 + b2 = a2 = |a|.
4
Si dimostrano facilmente le seguenti proprietà:
1) |z| = |z|
2) |z| = 0 se e solo se z = 0
3) |z · w| = |z||w|
4) z · z = |z|2
5) z + w = z + w
6) z · w = z · w
Inoltre è semplice dimostrare che valgono le proprietà associativa e commutativa sia per la somma
che per il prodotto, esiste un elemento neutro per la somma (0 = 0 + 0i), esiste un elemento
neutro per il prodotto (1 = 1 + 0i), vale la proprietà distributiva, esiste l’opposto per la somma
(cioè, dato un qualsiasi numero complesso z = a + bi, esiste un numero complesso che sommato
a z dà 0: esso sarà −a − bi); infine per qualsiasi numero complesso z = a + bi diverso da 0,
esiste l’inverso, cioè un numero complesso che moltiplicato per z dà 1: esso sarà |z|z 2 .
L’insieme dei numeri complessi può essere identificato con i punti del piano in cui è stato fissato
un sistema di riferimento cartesiano, precisamente al numero complesso a + bi si fa corrispondere
il punto del piano di coordinate cartesiane (a, b). Il piano identificato con l’insieme dei numeri
complessi si chiama piano di Argand-Gauss.
(a,b)
b
Sia θ l’angolo formato dal semiasse positivo delle ascisse e il segmento che congiunge (0, 0) con
(a, b) tale che π < θ ≤ π e sia ρ la lunghezza del segmento che congiunge (0, 0) con (a, b),
allora si ha ovviamente:
z = a + bi = ρ(cos θ + isen θ)
(forma trigonometrica dei numeri complessi).
Supponiamo che z = a + bi = ρ(cos θ + isen θ) w = c + di = λ(cos η + isen η). Si può
dimostrare facilmente che
z · w = (ρλ)[cos(θ + η) + isen(θ + η)]
Quindi in pratica moltiplicare per z = ρ(cos θ + isen θ) un numero complesso w significa molti-
plicare per ρ la lunghezza del segmento che unisce l’origine col punto del piano che rappresenta
w e ruotare tale segmento di θ.
5
3 Rn e le matrici
3.1 Definizione di Rn e di matrici, somma e prodotto per uno scalare
Definizione 1 Sia n un numero naturale ≥ 1. Si definisce
x1
.
n
R = . | x1 , ..., xn ∈ R
.
xn
x1
.
Notazione 2 Sia x = . ∈ Rn . L’elemento xi che compare al’i-esimo posto si definisce
.
xn
i-esima componente di x.
Definizione 3 Sia n un numero naturale ≥ 1. Si definisce la somma fra due elementi di Rn
nel modo seguente:
x1 y1 x1 + y1
. . .
. + . = .
. . .
xn yn xn + yn
(cioè se x, y ∈ Rn , si definisce x + y come l’elemento di Rn tale che (x + y)i = xi + yi
∀i = 1, ..., n).
Esempio
1 1 2
0
3
3
−2 +
2 =
0
−π 2 −π + 2
7 1 8
Definizione 4 Sia n un numero naturale ≥ 1. Si definisce il prodotto fra un elemento di Rn
e uno scalare (cioè un numero reale) nel modo seguente:
x1 λx1
. .
λ . = .
. .
xn λxn
(cioè se x ∈ Rn e λ ∈ R, si definisce λx come l’elemento di Rn tale che (λx)i = λxi
∀i = 1, ..., n).
Esempio
1 3
0
0
3
−2 =
−6
−π −3π
7 21
6
Osservazione 5 Fissando un sistema cartesiano nel piano, si stabilisce un’ovvia bigezione fra
R2 e il piano.
Analogamente fissando un sistema cartesiano nello spazio, si stabilisce un’ovvia bigezione fra R3
e lo spazio.
x
Osservazione 6 “Regola del parallelogramma” Per ogni elemento di R2 consideriamo il
y
0 x
segmento orientato avente come punto iniziale e come punto finale. In tal modo
0 y
2
la somma di due elementi di R può essere interpretata geometricamente tramite la cosiddetta
regola del parallelogramma:
x’ x+x’
y’ y+y’
x
y
Definizione 7 Siano m, n due numeri naturali ≥ 1. Una matrice m × n è una tabella con m
righe e n colonne. Si dice a coefficienti in R se tutti gli elementi sulla tabella sono numeri reali.
Notazione 8 L’elemento che sta sull’i-esima riga e j-esima colonna di una matrice A si denota
con ai,j o Ai,j .
La riga i-esima si denota con A(i) .
La colonna j-esima si denota con A(j) .
Definizione 9 Siano m e n due numeri naturali ≥ 1. Si definisce
M (m × n, R) = {A| A matrice m × n a coeff icienti in R}
Definizione 10 Siano m, n due numero naturale ≥ 1. Si definisce la somma fra due elementi
di M (m × n, R) nel modo seguente: siano A, B ∈ M (m × n, R), si definisce A + B come la
matrice m × n tale che
(A + B)i,j = Ai,j + Bi,j
∀i = 1, ..., m, j = 1, ..., n.
Esempio
1 0 2 1 3 2 2 3 4
0 0 3
3 1 0
3 1 3
−2 1 −1 +
2 0 −1 =
0 1 −2
−π 4 5 2 4 √1 −π + 2 8 6√
7 0 1 1 −6 − 2 8 −6 1 − 2
7
Definizione 11 Siano m, n due numero naturale ≥ 1. Si definisce il prodotto fra un elemento
di M (m × n, R) e uno scalare nel modo seguente: sia A ∈ M (m × n, R) e λ ∈ R; si definisce
λA come la matrice m × n tale che
(λA)i,j = λAi,j
∀i = 1, ..., m, j = 1, ..., n.
Esempio
1 0 2 3 0 6
0 0 3
0 0 9
3
−2 1 −1
= −6
3 −3
−π 4 5 −3π 12 15
7 0 1 21 0 3
Nel capitolo 3 vedremo che la proposizione sopra si può enunciare brevemente dicendo che
M (m × n, R) è uno spazio vettoriale su R.
ai,j = 0
per i 6= j (cioè se tutti gli elementi al di fuori della diagonale principale sono nulli).
8
Esempio
3 0 0 0
0 1 0 0
0 0 −3 0
0 0 0 2
Esempio (fondamentale) Si dice matrice identità n × n (e si denota con In ) la matrice n × n
con tutti 1 sulla diagonale e 0 altrove. Per esempio
I1 = (1)
1 0
I2 =
0 1
1 0 0
I3 = 0 1 0
0 0 1
Esempio
1 1 1 6 1
0 1 2 6 −1
0 0 0 −3 4
0 0 0 −3 2
0 0 0 0 23
Esempio
3 0 0 0 0
0 1 0 0 0
π 1 2 0 0
0 2 2 2 0
0 4 0 3 0
ai,j = aj,i
∀i, j (cioè se gli elementi simmetrici rispetto alla diagonale principale sono uguali).
Esempio
4 1 0 7
1 0 2 6
0 2 9 −3
7 6 −3 8
9
Definizione 18 Sia n ∈ N n ≥ 1. Sia A ∈ M (n × n, R). Si dice che A è antisimmetrica se
ai,j = −aj,i
∀i, j ∈ {1, .., n} (cioè se gli elementi simmetrici rispetto alla diagonale principale sono opposti).
Esempio
0 1 0 −7
−1 0 2 6
0 −2 0 −3
7 −6 3 0
Osservazione 19 Gli elementi sulla diagonale principale di una matrice antisimmetrica sono
nulli.
(Infatti ai,i = −ai,i ∀i ∈ {1, ..., n}, pertanto 2ai,i = 0 e quindi ai,i = 0.)
(tA)i,j = Aj,i
∀i ∈ 1, ..., n, j ∈ 1, ..., m.
Dimostrazione.
1) Per ogni i ∈ {1, ..., m} e per ogni j ∈ {1, ..., n} si ha
Q.e.d.
Definizione 23 Si definisce traccia di una matrice quadrata la somma degli elementi della sua
diagonale.
10
3.3 Prodotto scalare standard e norma
Definizione 24 Sia n un numero naturale ≥ 1. Si definisce prodotto scalare standard fra due
elementi v e w di Rn il numero reale
X
vi wi
i=1,...,n
Esempio Siano
−1 1
31 0
v=
2
w=
1
9 −1
Allora (v, w) = −1 · 1 + 31 · 0 + 2 · 1 + 9 · (−1) = −8.
Dimostrazione. P P
1) (v, w) = i=1,...,n
P vi wi = i=1,...,n wi vi = (w, v)
2) λ(v, w) P = λ i=1,...,n vi wi P P
(λv, w) = Pi=1,...,n (λv)i wi = Pi=1,...,n λvi wi = λ Pi=1,...,n vi wi
(v, λw) = i=1,...,n P vi (λw)i = i=1,...,n P vi λwi = λ i=1,...,n vi wi P
(v
P + w, u) = i=1,...,n
P (v + w) i u i = i=1,...,n (vi + wi )ui = i=1,...,n (vi ui + wi ui ) =
i=1,...,n vi u i + i=1,...,n wi u i = (v, u) + (w, u)
La linearità nel secondo argomento si dimostra in modo analogo oppure la possiamo derivare
dalla linearità
P nel secondo argomento e la simmetria.
3) (v, v) = i=1,...,n vi vi = i=1,...,n vi2 ≥ 0;
P
2 2
P
inoltre (v, v) = 0 se e solo se i=1,...,n (vi ) = 0 e questo è vero se e solo se (vi ) = 0
∀i = 1, ..., n cioè se e solo se vi = 0 ∀i = 1, ..., n.
Q.e.d.
cioè la radice quadrata del prodotto scalare di v con se stesso (che è positivo per la proprietà 3
del prodotto scalare, quindi ne posso considerare la radice quadrata), cioè
s X s X
vi vi = (vi )2
i=1,...,n i=1,...,n
11
Esempio Sia
−1
3
v=
2
2
√
Allora |v| = 18.
Dimostrazione.
1) Essendo la norma una radice quadrata è ovviamente maggiore o uguale qPa 0. Inoltre ovviamente
√ n 2
|0| = 0 · 0 + ..... + 0 · 0 = 0; inoltre se v ∈ R e |v| = 0 allora i=1,...,n vi = 0, quindi
2
vi2 = 0 i = 1, ..., n, quindi vi = 0 i = 1, ..., n, cioè v = 0.
P
i=1,...,n vi = 0, quindiq qP
p
2 = 2
P
2) |λv| = (λv, λv) = i=1,...,n (λv)i i=1,...,n (λvi ) =
qP q P qP
= 2 2 λ2 i=1,...,n vi2 = |λ| 2
i=1,...,n λ vi = i=1,...,n vi = |λ||v|
Q.e.d.
(prodotto scalare standard fra la trasposta della riga i-esima di A e la colonna j-esima di B)
∀i = 1, ..., m, ∀j = 1, ...., l.
Esempio
10
1 0 3 2 11 20 −1 8
11 2 0 2 = 31 42
0 2
−1 1 −1 1 9 19
−1 1
Esempio
1 0 1 10 1 10
=
−1 2 3 −1 5 −12
1 10 1 0 −9 20
=
3 −1 −1 2 4 −2
12
Proposizione 30 Proprietà del prodotto di matrici
1) (AB)C = A(BC) ∀A ∈ M (m × n, R), B ∈ M (n × p, R), C ∈ M (p × q, R).
2) A(B + C) = AB + AC ∀A ∈ M (m × n, R), B ∈ M (n × p, R), C ∈ M (n × p, R).
3) (A + B)C = AC + BC ∀A ∈ M (m × n, R), B ∈ M (m × n, R), C ∈ M (n × p, R).
4) λ(AB) = (λA)B = A(λB) ∀A ∈ M (m × n, R), B ∈ M (n × p, R), λ ∈ R
5) AIn = A e Im A ∀A ∈ M (m × n, R)
Dimostrazione.
Per dimostrare che due matrici sono uguali, basta ovviamente dimostrare che i coefficienti cor-
rispondenti sono uguali; quindi per provare un’uguaglianza di matrici, basta dimostrare che per
qualsiasi i, j, il coefficiente
P i, j del primo membro
P è ugualeP al coefficiente i, j del secondo membro.
((AB)C)i,jP= k=1,...,p (AB)i,k Ck,j P
1) P = k=1,...,p [ r=1,...,n Ai,r Br,k ]Ck,j =
= k=1,...,p [ r=1,...,n Ai,r Br,k Ck,j ] = k=1,...,p,r=1,...,n Ai,r Br,k Ck,j
P P P
(A(BC))
P i,j = P r=1,...,n Ai,r (BC)r,j =P r=1,...,n Ai,r k=1,...,p Br,k Ck,j =
= r=1,...,n k=1,...,p Ai,r Br,k Ck,j = r=1,...,n,k=1,...,p Ai,r Br,k Ck,j
P
2) P
(A(B + C))i,j = k=1,..,n Ai,kP(B + C)k,j =
= Pk=1,..,n Ai,k (Bk,j +P
Ck,j ) = k=1,..,n (Ai,k Bk,j + Ai,k Ck,j ) =
= k=1,..,n Ai,k Bk,j + k=1,..,n Ai,k Ck,j = (AB)i,j + (AC)i,j =
= (AB + AC)i,j
3) Analoga a 2).
P P
P (λ(AB))i,j = λ(AB)i,jP= λ k=1,...,n Ai,k Bk,j = k=1,...,n λ(Ai,k Bk,j ) =
4)
k=1,...,n (λAi,k )Bk,j = k=1,...,n (λA)i,k Bk,j = ((λA)B)i,j
Analogamente la seconda uguaglianza.
P P
5) (AIn )i,j = k=1,...,n Ai,k (In )k,j = k=1,...,n Ai,k δk,j = Ai,j 1 = Ai,j dove δk,j è il cosidetto
simbolo di Kronecker, cosı̀ definito
0 se k 6= j
δk,j =
1 se k = j
Dimostrazione.
(t (AB))i,j = (AB)j,i = t=1,...,k Aj,t Bt,i
P
(tB tA)i,j = t=1,...,k (tB)i,t (tA)t,j = t=1,...,k Bt,i Aj,t = t=1,...,k Aj,t Bt,i
P P P
Q.e.d.
13
Osservazione 33 (- Definizione.) Sia n ∈ N, n ≥ 1. Sia A ∈ M (n × n, R). Siano B, C ∈
M (n × n, R) tali che AB = BA = In = AC = CA. Allora B = C.
In altre parole se A è invertibile esiste una e una sola matrice B tale che AB = BA = In . Tale
matrice si dice l’inversa di A e si denota con A−1 .
Dimostrazione.
Per ipotesi so che
AB = In
Moltiplico a sinistra entrambi i membri dell’uguaglianza per C, ottenendo cosı̀
C(AB) = CIn
da cui
(CA)B = C
Dato che per ipotesi CA = In , ottengo
In B = C
e quindi
B=C
Q.e.d.
Osservazione 35 Sia n ∈ N, n ≥ 1.
i) Siano A, B ∈ GL(n, R). Allora AB ∈ GL(n, R) e (AB)−1 = B −1 A−1
ii) Se A ∈ GL(n, R) allora A−1 ∈ GL(n, R) e (A−1 )−1 = A
a b 1 d −b
Esercizio. è invertibile se e solo se ad−bc 6= 0 e in tal caso l’inversa è .
c d ad−bc −c a
NOTA. Tutto quello che è stato detto nei paragrafi 3.1, 3.2, 3.4 e 3.5 può essere enunciato
sostituendo C a R.
14
4 Sistemi lineari
4.1 Forma matriciale dei sistemi lineari, sistemi lineari omogenei e non
Definizione 36 Un sistema lineare è un sistema di equazioni lineari cioè un sistema di equazioni
i cui membri sono polinomi di grado ≤ 1 nelle incognite.
Vogliamo adesso illustrare un metodo sistematico per risolvere i sistemi lineari. Per fare ciò
occorre premettere le nozioni di matrici a scalini e operazioni elementari di riga.
15
Definizione 41 Una matrice si dice a scalini (per righe) se soddisfa la seguente proprietà:
se in una riga i primi k elementi sono nulli allora la riga successiva (se esiste) o è tutta nulla o
almeno i primi k + 1 elementi sono nulli.
Definizione 42 Il primo elemento non nullo di ogni riga non nulla di una matrice a scalini si
dice pivot.
Esempio
0 1 0
6 −1
0 1 2
6 −1
0 2 0
−3 4
0 0 0
10 12
0 1 0 6 −1
0 0 2 0 0
II − I
0 0 0 −15 6 III − 2I
0 0 0 10 12
16
0 1 0 6 −1
0 0 2 0 0
0 0 0 −15 6
0 0 0 0 16 IV + 23 III
4.3 Metodo per risolvere un sistema lineare quando la sua matrice com-
pleta è a scalini
Si scrive la matrice completa del sistema e si scrivono le incognite sopra essa. Supponiamo
che non ci siano pivots nell’ultima colonna della matrice completa. Chiamiamo “incognite
corrispondenti ad un pivot” quelle che “stanno sopra un pivot” e “incognite non corrispondenti
ad un pivot” le altre.
Sfruttando le equazioni, partendo dall’ultima, si scrivono le incognite corrispondenti ai pivots in
funzione di quelle non corrispondenti ai pivots.
x y z w u
1 2 1 −2 −1 0
0 0 1 −1 −3 1
0 0 0 1 1 2
Le variabili che corrispondono ai pivots sono x, z, w, quelle che non corrispondono ai pivots sono
y, u.
Voglio scrivere le variabili che corrispondono ai pivots in funzione delle variabili che non cor-
rispondono ai pivots.
Dall’ultima equazione w + u = 2 ricavo w in funzione di u (e quindi di y, u):
w =2−u
z = w + 3u + 1
17
Quindi l’insieme delle soluzioni del sistema lineare è
−2y − 3u + 1
y
3 + 2u | y, u ∈ R
−u + 2
u
18
1 1 1 −3 −1 0
0 1 1 −1 −1 1
0 0 1 1 1 −1 III − 2I
Scriviamo le incognite sopra la matrice a scalini cosı̀ ottenuta:
x y z w u
1 1 1 −3 −1 0
0 1 1 −1 −1 1
0 0 1 1 1 −1
Ricaviamo adesso le variabili che corrispondono ai pivots, cioè x, y, z in funzione di quelle che
non corrispondono ai pivots, cioè w, u. Dall’ultima equazione ricaviamo
z = −w − u − 1
y = −z + w + u + 1
da cui sostituendo
y = w + u + 1 + w + u + 1 = 2w + 2u + 2
Dalla prima equazione ricaviamo
x = −y − z + 3w + u
da cui sostituendo
x = −2w − 2u − 2 + w + u + 1 + 3w + u = −1 + 2w
(Infatti un sistema linare omogeneo si può scrivere nella forma Ax = 0 e 0 è una soluzione infatti
A0 = 0.)
Osservazione 46 Un sistema lineare omogeneo con più incognite che equazioni ha una soluzione
non nulla.
Dimostrazione.
Quando riduco la matrice completa a scalini, il numero dei pivots è ovviamente minore o uguale
al numero delle righe che è uguale al numero delle equazioni del sistema, il quale per ipotesi
è minore del numero dell incognite. Quindi il numero dei pivots è minore del numero delle
incognite. Pertanto ci sono necessariamente delle variabili non corrispondenti a pivots, quindi
assegnando dei valori non nulli ad esse ottengo una soluzione non nulla.
Q.e.d.
19
Osservazione 47 Un sistema lineare ha soluzione se e solo se, riducendo a scalini con operazioni
elementari di riga la matrice completa, non ci sono pivots nell’ultima colonna.
Dimostrazione. Basta dimostrare che un sistema lineare la cui matrice completa è a scalini ha
soluzioni se e solo se non ci sono pivots nell’ultima colonna.
Ma questo è ovvio in quanto se c’è un pivot nell’ultima colonna (chiamiamolo p) vuol dire che
nel sistema lineare c’è l’equazione 0x1 + .... + 0xn = p, che ovviamente non ha soluzioni in
quanto p 6= 0. Viceversa se non ci sono pivots nell’ultima colonna allora trovo le soluzioni con il
metodo illustrato sopra.
Q.e.d.
Dimostrazione.
Sia S1 := {x ∈ Rn | Ax = b} e S2 := {x + y| y ∈ Rn e Ay = 0}.
Dimostriamo anzitutto che S2 ⊂ S1 .
Sia y ∈ Rn tale che Ay = 0. Voglio dimostrare che x + y ∈ S1 cioè che A(x + y) = b. Per la
proprietà distributiva del prodotto di matrici A(x + y) = Ax + Ay = b + 0 = b.
Dimostriamo adesso che S1 ⊂ S2 .
Sia x ∈ S1 . Occorre dimostrare che esiste y ∈ Rn tale che Ay = 0 e x = x + y. Definisco
y = x − x. Ovviamente Ay = 0, infatti Ay = A(x − x) = Ax − Ax = b − b = 0.
Q.e.d.
NOTA. Tutto quello che è stato detto in questo capitolo può essere enunciato sostituendo C a
R.
20
5 Spazi vettoriali
5.1 Definizione e prime proprietà
Definizione 49 Sia V un insieme dotato di due operazioni, una (detta somma) + : V ×V → V ,
l’altra (detta prodotto per scalari) · : R × V → V .
Si dice che V è uno spazio vettoriale su R se valgono le seguenti proprietà:
1) (v + w) + u = v + (w + u) ∀v, w, u ∈ V (proprietà associativa della somma)
2) v + w = w + v ∀v, w ∈ V (proprietà commutativa della somma)
3) Esiste un elemento neutro per la somma, cioè esiste un elemento z di V tale che z+v = v+z =
v ∀v ∈ V . (Si può dimostrare che tale elemento è necessariamente unico, vedere l’osservazione
immediatamente seguente questa definizione; lo denoteremo quindi 0V e lo chiameremo zero di
V .)
4) Per ogni v ∈ V esiste un opposto, cioè un elemento v ′ ∈ V tale che v + v ′ = v ′ + v = 0V
5) (λ + µ)v = λv + µv ∀λ, µ ∈ R ∀v ∈ V (proprietà distributiva rispetto alla somma in R)
6) λ(v + w) = λv + λw ∀λ ∈ R ∀v, w ∈ V (proprietà distributiva rispetto alla somma in V )
7) (λµ)v = λ(µv) ∀λ, µ ∈ R ∀v ∈ V
8) 1v = v ∀v ∈ V
Osservazione 50 In ogni spazio vettoriale V esiste un solo elemento neutro per la somma.
Dimostrazione.
Siano z e z ′ due elementi neutri per la somma di V
Si ha che z + z ′ = z in quanto z ′ è elemento neutro per la somma.
Inoltre si ha che z + z ′ = z ′ in quanto z è elemento neutro per la somma.
Quindi z = z ′ , in quanto sono entrambi uguali a z + z ′ .
Q.e.d.
0R v = 0V
∀v ∈ V
Dimostrazione.
Si ha:
0R v = (0R + 0R )v = 0R v + 0R v
(la prima uguaglianza segue dal fatto che 0R + 0R = 0R , la seconda segue dalla proprietà 5
degli spazi vettoriali, cioè la proprietà distributiva rispetto alla somma in R).
Sia w un opposto di 0R v (esite per la proprietà 4 degli spazi vettoriali). Sommando w al primo
membro e all’ultimo membro della catena di uguaglianze sopra, si ottiene
0R v + w = (0R v + 0R v) + w
0V = 0R v + (0R v + w)
0V = 0R v + 0V
21
da cui
0V = 0R v
Q.e.d.
Dimostrazione.
(−1)v + v = (−1)v + 1v = (−1 + 1)v = 0R v = 0V
(la prima uguaglianza segue dalla proprietà 8 degli spazi vettoriali, la seconda dalla proprietà
distributiva rispetto alla somma in R, l’ultima dall’osservazione precedente).
Q.e.d.
Dimostrazione.
Siano v ′ e v ′′ due opposti di v, quindi v ′ + v = 0V e v ′′ + v = 0V ;
in particolare
v ′ + v = v ′′ + v
Sommando ad entrambi i membri un opposto, w, di v , si ottiene
(v ′ + v) + w = (v ′′ + v) + w
e quindi
v ′ + (v + w) = v ′′ + (v + w)
Pertanto
v ′ + 0V = v ′′ + 0V
da cui v ′ = v ′′ . Q.e.d.
λ1 v1 + ... + λk vk
22
5.2 Sottospazi vettoriali
Definizione 56 Sia V uno spazio vettoriale su R. Un sottospazio di V è un sottoinsieme non
vuoto S di V tale che
• v + w ∈ S ∀v, w ∈ S (chiusura per la somma)
• λv ∈ S ∀λ ∈ R, ∀v ∈ S (chiusura per la moltiplicazione per scalari).
Dimostrazione.
Essendo un sottospazio, S è non vuoto, quindi contiene un elemento v. Allora, per la proprietà
di chiusura per la moltiplicazione per scalari, si deve avere che OR v ∈ S. Ma, per l’osservazione
51, si ha che OR v = 0V , quindi 0V ∈ S.
Q.e.d.
Proposizione 59 Sia V uno spazio vettoriale; sia k un qualsiasi numero naturale positivo. Siano
v1 , ..., vk ∈ V . L’insieme delle combinazioni lineari di v1 , ..., vk , cioè
è un sottospazio vettoriale di V . (In genere è denotato hv1 , ..., vk i e si legge “span di v1 , ...., vk ”.)
Dimostrazione.
Sia S = {λ1 v1 + .... + λk vk | λ1 , ..., λk ∈ R}.
Ovviamente S è non vuoto.
• S è chiuso per la somma, infatti sommando due elementi di S, λ1 v1 + .... + λk vk e µ1 v1 +
.... + µk vk , si ottiene
(λ1 v1 + .... + λk vk ) + (µ1 v1 + .... + µk vk )
che, per le proprietà 1),2),5) degli spazi vettoriali, è uguale a
che è un elemento di S.
• S è chiuso per la moltiplicazione per scalari, infatti, moltiplicando un elemento di S, λ1 v1 +
.... + λk vk , per uno scalare γ, si ottiene
γ(λ1 v1 + .... + λk vk )
che è un elemento di S.
Q.e.d.
23
Proposizione 60 Sia V uno spazio vettoriale; sia k un qualsiasi numero naturale positivo. Siano
v1 , ..., vk ∈ V .
1) hv1 , ..., vi−1 , vi , vi+1 , ..., vj−1 , vj , vj+1 , ...., vk i = hv1 , ..., vi−1 , vj , vi+1 , ..., vj−1 , vi , vj+1 , ...., vk i
(cioè il sottospazio non cambia cambiando l’ordine dei generatori)
2) hv1 , ..., vi−1 , vi , vi+1 , ..., vk i = hv1 , ..., vi−1 , λvi , vi+1 , ...vk i ∀λ ∈ R − {0} (cioè il sottospazio
non cambia se moltiplico un generatore per uno scalare non nullo)
3) hv1 , ..., vi−1 , vi , vi+1 , ..., vj−1 , vj , vj+1 , ...., vk i = hv1 , ..., vi−1 , vi +λvj , vi+1 , ..., vj−1 , vj , vj+1 , ...., vk i
∀λ ∈ R (cioè il sottospazio non cambia se ad un generatore sommo un multiplo di un altro gen-
eratore).
Dimostrazione.
Scriviamo il nostro sistema lineare nella forma matriciale Ax = b.
Vogliamo dimostrare che S := {x ∈ Rn | Ax = b} è un sottospazio vettoriale se e solo se b = 0.
Se S è un sottospazio vettoriale allora deve contenere 0 quindi A0 = b quindi b = 0.
Viceversa se b = 0, S = {x ∈ Rn | Ax = 0} ed è un sottospazio vettoriale infatti:
• è non vuoto (infatti contiene 0, perchè A0 = 0)
• è chiuso per la somma, infatti se x e x′ ∈ S, quindi Ax = 0 e Ax′ = 0, allora anche x + x′ ∈ S
perchè A(x + x′ ) = Ax + Ax′ = 0 + 0 = 0.
• è chiuso per la moltiplicazione per scalari infatti se x ∈ S, quindi Ax = 0 e λ ∈ R allora anche
λx ∈ S perchè A(λx) = λAx = λ0 = 0.
Q.e.d.
λ1 v1 + ... + λk vk = 0
Definizione 63 Sia V uno spazio vettoriale. Si dice che un insieme di vettori v1 , ..., vk è un
insieme di vettori linearmente indipendenti se l’unica loro combinazione lineare uguale a 0 è
quella con tutti i coefficienti uguali a 0.
Dimostrazione. L’affermazione è ovvia, in quanto se avessi una combinazione lineare con coeffi-
cienti non tutti nulli del sottoinsieme di vettori, potrei facilmente trovare una combinazione con
coefficienti non tutti nulli dell’insieme di vettori (basta prendere gli stessi coefficienti per i vettori
del sottoinsieme e coefficienti nulli per gli altri vettori).
Q.e.d.
24
Osservazione 66 Se {v1 , ..., vk } è un insieme di vettori dipendenti di V allora esiste i ∈
{1, ..., k} tale che vi si può scrivere come combinazione lineare di v1 , ..., vi , vi+1 , ..., vk .
Dimostrazione.
Dato che v1 , ..., vk sono un insieme di vettori linearmenti dipendenti, esistono λ1 , ..., λk ∈ R
non tutti nulli tali che
λ1 v1 + .....λk vk = 0
Supponiamo λi 6= 0. Allora
λ1 λi−1 λi+1 λn
vi = − v1 − ........ − vi−1 − vi+1 − ........ − vn
λi λ1 λ1 λi
Q.e.d.
Definizione 67 Sia V uno spazio vettoriale. Un insieme di vettori di V si dice una base di V
se è un insieme di vettori linearmente indipendenti che genera V .
Dimostrazione. Dato che {w1 , ..., ws } è un insieme di generatori di V , esistono λi,j ∈ R tali che
X
vi = λi,j wj
j=1...s
per i = 1, ..., k.
Consideriamo la combinazione lineare
X X X X X
xi vi = xi λi,j wj = xi λi,j wj =
i=1,...,k i=1,...,k j=1,...,s i=1,...,k j=1,...,s
X X X X
= xi λi,j wj = ( xi λi,j )wj
j=1,...,s i=1,...,k j=1,...,s i=1,...,k
Se per assurdo k > s allora il sistema lineare omogeneo nelle incognite xi dato dalle j equazioni:
X
xi λi,j = 0
i=1,...,k
per j = 1, ..., s ha una soluzione non nulla (x1 , ..., xk ) per l’osservazione 46.
Quindi si ottiene X
xi vi = 0
i=1,...k
contraddicendo l’ipotesi per cui {v1 , ..., vk } è un insieme di vettori indipendenti di V . Quindi
k ≤ s.
Q.e.d.
25
Dato che due basi di uno stesso spazio vettoriale hanno la stessa cardinalità, per il corollario
appena enunciato, possiamo definire:
Dimostrazione.
Il fatto che k ≤ n segue dal Teorema 68.
Per dimostrare la restante parte della tesi, premetto la seguente osservazione
Osservazione. Se {v1 , ..., vk } non è una base di V allora ovviamente hv1 , ..., vk i =
6 V e scegliendo
vk+1 non contenuto in hv1 , ..., vk i si ottiene che {v1 , ..., vk , vk+1 } sono ancora indipendenti,
infatti:
P
supponiamo i=1,...,k+1 λi vi = 0 per certi λi ∈ R; vogliamo dimostrare λi = 0 per i =
1, ..., k +
P 1; si ha λk+1 = 0 (altrimenti vk+1 sarebbe combinazione lineare dei precedenti) quindi
rimane i=1,...,k λi vi = 0 e siccome {v1 , ..., vk } sono indipendenti segue λi = 0 per i = 1, ..., k.
Quindi per l’osservazione, se k = n, {v1 , ..., vk } è una base di V (se non lo fosse otterrei un
insieme di k + 1 vettori indipendenti quindi, per il Teorema 68, si avrebbe k + 1 ≤ n, che è
assurdo).
Se k < n allora {v1 , ..., vk } non può essere una base e quindi per l’Osservazione posso trovare
un vettore vk+1 tale che {v1 , ..., vk , vk+1 } sono ancora indipendenti.
Continuando in questo modo aggiungiamo n − k vettori fino a che non troviamo una base.
Q.e.d.
Teorema 72 Estrazione di una base da vettori generatori Se v1 , ..., vk generano uno spazio
vettoriale V , si può trovare un sottoinsieme di essi che forma una base di V .
Dimostrazione.
Se {v1 , ..., vk } non è già una base, cioè non sono indipendenti, per l’Osservazione 66, esiste
un vettore dell’insieme {v1 , ..., vk } che è combinazione lineare dei rimanenti. Allora i rimanenti
formano ancora un insieme di generatori per V
(infatti supponiamo ad esempio che sia vk combinazione lineare di v1 , .., vk−1 :
X
vk = ci vi
i=1,...,k−1
per certi ci ; sia v ∈ V ; dato che v1 , ..., vk generano V , esistono λ1 , ..., λk tali che
X
v= λi vi
i=1,...,k
P
sostituendo a vk l’espressione i=1,...,k−1 ci vi , si ottiene
X X
v= λi vi + λk ci vi
i=1,...,k−1 i=1,...,k−1
26
X
= (λi + λk ci )vi
i=1,...,k−1
e quindi v è combinazione lineare di v1 , .., vk−1 ; quindi v1 , .., vk−1 sono generatori per V ).
Ripetendo il procedimento sui rimanenti, alla fine si arriva ad estrarre una base da {v1 , ..., vk }.
Q.e.d.
Dimostrazione.
Sia {v1 , ..., vk } una base di S. Essendo linearmente indipendenti in S sono anche linearmente
indipendenti in V , quindi, per il Teorema 71, k ≤ n.
Sempre per il Teorema 71, se k = n allora {v1 , ..., vk } è una base di V ; quindi, se v ∈ V , v può
essere scritto come combinazione lineare di v1 , ..., vk e quindi, dato che v1 , ..., vk sono elementi
di S e una combinazione lineare di elementi di S è ancora un elemento di S (essendo S un
sottospazio vettoriale), si ha che v appartiene a S.
Q.e.d.
Proposizione 74 Sia V uno spazio vettoriale di dimensione n. Se v1 , .., vn sono vettori gener-
atori di V , allora formano una base.
Dimostrazione
Si può estrarre da {v1 , .., vn } una base. Essa deve essere costituita da n elementi, (dato V ha
dimensione n), quindi coincide con {v1 , .., vn }.
Q.e.d.
Dimostrazione. Sia Ei,j la matrice m × n con il coefficiente i, j uguale a 1 e tutti gli altri nulli.
L’insieme {Ei,j }i=1,...,m, j=1,...,n è una base di M (m × n, R), infatti se A ∈ M (m × n, R) si ha
X
A= ai,j Ei,j
i=1,...,m, j=1,...,n
Notazione 76 Sia Rk [x] l’insieme dei polinomi in x a coefficienti in R di grado minore o uguale
a k, cioè
{a0 + a1 x + .... + ak xk | a0 , ..., ak ∈ R}
E’ uno spazio vettoriale con la usuale somma di polinomi e prodotto per uno scalare.
Dimostrazione.
L’insieme {1, x, ..., xk } è una base di Rk [x].
Q.e.d.
27
5.5 Un esempio fondamentale: lo spazio generato dalle colonne di una
matrice (range) e lo spazio generato dalle righe
Sia A una matrice m × n a coefficienti in R. Ad essa si possono associare due spazi vettoriali:
il sottospazio di Rm generato dalle colonne di A (che a volte viene chiamto “range di A”)
hA(1) , ..., A(n) i
Esempio. Sia
3 0 3 −3
A= 0 1 2 1
0 2 4 2
Lo spazio generato dalle colonne è il seguente sottospazio di R3 :
* + * +
3 0 3 −3 3 0
0 , 1 , 2 , 1 = 0 , 1 =
0 2 4 2 0 2
3 0
= t 0 + s 1 | t, s ∈ R
0 2
3
Quindi per esempio 3 appartiene a tale spazio.
6
Lo spazio generato dalle righe è il seguente sottospazio di R4 :
* 3 0 0 + * 3 0 +
0 1 2 0 1
3 , 2 , 4 = 3 , 2 =
−3 1 2 −3 1
3 0
0 1
= t + s | t, s ∈ R
3 2
−3 1
3
−1
Quindi per esempio
1 appartiene a tale spazio.
−4
Osservazione 78 Lo spazio generato dalle righe di una matrice non cambia facendo operazioni
elementari di righe.
Lo spazio generato dalle colonne di una matrice non cambia facendo operazioni elementari di
colonne.
28
Dimostrazione. Segue immediatamente dalla Proposizione 60.
Q.e.d.
Riprenderemo nel capitolo 5 lo studio dello spazio generato dalle colonne di una matrice e dello
spazio generato dalle righe; in particolare studieremo la loro dimensione (detta rango).
NOTA. Tutto quello che è stato detto in questo capitolo può essere enunciato sostituendo C a
R.
29
6 Applicazioni lineari
6.1 Applicazioni lineari, nucleo , immagine, relazione fondamentale
Definizione 80 Siano V e W due spazi vettoriali su R. Si dice che f : V → W è una funzione
lineare se e solo se valgono le seguenti proprietà:
a) f (v1 + v2 ) = f (v1 ) + f (v2 ) ∀v1 , v2 ∈ V (additività)
b) f (λv) = λf (v) ∀v ∈ V , ∀λ ∈ R (omogeneità)
Ker(f ) = {v ∈ V | f (v) = 0}
Teorema 85 . Relazione fondamentale. Siano V e W due spazi vettoriali su R con dim V <
+∞. Sia f : V → W una funzione lineare. Allora
30
Dimostrazione.
Siano k = dim Ker(f ), n = dim V . Sia {v1 , .., vk } una base di Ker(f ), e completiamola ad
una base di V {v1 , .., vn }. Vogliamo dimostrare che dim Im(f ) = n − k. Basta dimostrare che
gli n − k vettori f (vk+1 ), .., f (vn ) formano una base di Im(f ).
• Dimostriamo anzitutto che f (vk+1 ), .., f (vn ) generano Im(f ). Sia w ∈ Im(f ); allora esiste
v in V tale che w = f (v). Siccome {v1 , .., vn } è una base di V , esistono coefficienti reali λi tali
che X
v= λi vi
i=1,...,n
Pertanto
X f lineare X f (vi )=0 per i=1,...,k X
w = f (v) = f ( λi vi ) = λi f (vi ) = λi f (vi )
i=1,...,n i=1,...,n i=k+1,...,n
come volevamo.
• Dimostriamo adesso che f (vk+1 ), .., f (vn ) sono linearmente indipendenti.
Siano λi ∈ R i = k + 1, ..., n tali che
X
λi f (vi ) = 0
i=k+1,...,n
da cui X X
λi vi − µj vj = 0
i=k+1,...,n j=1,...,k
Dato che v1 , ...., vn sono linearmente indipendenti, otteniamo che tutti i coefficienti della com-
binazione lineare sopra sono nulli, in particolare λi = 0 per i = k + 1, ..., n come volevamo.
Q.e.d.
Proposizione 86 Siano V e W due spazi vettoriali su R e sia {v1 , .., vn } una base di V . Siano
f, g due funzioni lineari. Se f (vi ) = g(vi ) i = 1, ..., n, allora f = g.
Dimostrazione.
Sia v un qualsiasi elemento di V . Voglio vederePche f (v) = g(v). Dato che {v1 , .., vn } è una
base di V , esistono λ1 , ..., λn ∈ R tali che v = i=1,...,n λi vi . Dato che f è lineare
X X
f (v) = f ( λi vi ) = λi f (vi )
i=1,...,n i=1,...,n
Analogamente X X
g(v) = g( λi vi ) = λi g(vi )
i=1,...,n i=1,...,n
ma dato che f (vi ) = g(vi ) i = 1, ..., n, le due espressioni coincidono. Quindi f (v) = g(v).
Q.e.d.
31
6.2 Applicazioni lineari associate a matrici
Definizione 87 Sia A ∈ M (m×n, R). Definisco l’applicazione lineare associata ad A l’applicazione
fA : Rn → Rm
Osservazione 88 fA è lineare.
Dimostrazione.
prop. 2 prod. matrici
a) (additività) fA (x + y) = A(x + y) = Ax + Ay = fA (x) + fA (y)
prop 4 prod. matrici
b) (omogeneità) fA (λx) = A(λx) = λAx = λfA (x)
Q.e.d.
Dimostrazione.
Sia A la matrice che ha come colonne rispettivamente f (e1 ),..., f (en ).
Voglio dimostrare che f = fA .
Per la Prop. 86 basta dimostrare che f (ej ) = fA (ej ) j = 1, ..., n.
Ma questo è ovvio in quanto fA (ej ) è Aej cioè la j-esima colonna di A, che, per come si è
definita A, è proprio f (ej ).
Q.e.d.
Dimostrazione.
Im(fA ) = {fA (x)| x ∈ Rn } = {Ax| x ∈ Rn } = {A(1) x1 + ... + A(n) xn | x1 , ..., xn ∈ R} =
hA(1) , ..., A(n) i
Q.e.d.
NOTA. Tutto quello che è stato detto in questo capitolo può essere enunciato sostituendo C a
R.
32
7 Determinante, spazi generati da righe e colonne, rango,
inversa di una matrice
7.1 Determinante
Definizione 91 Sia A ∈ M (n × n, R).
Se n = 1 e quindi A = (a) con a ∈ R si definisce il determinante di A nel modo seguente:
det(A) = a
a b
Se n = 2 e quindi A = con a, b, c, d ∈ R si definisce il determinante di A nel modo
c d
seguente
det(A) = ad − bc
Più in generale per n ≥ 2 si definisce il determinante di A ∈ M (n × n, R) nel modo seguente:
fissiamo i ∈ {1, ..., n}; definiamo
X
det(A) = (−1)i+j ai,j det(Aı̂,̂ )
j=1,...,n
dove Aı̂,̂ è la matrice ottenuta da A togliendo la riga i-esima e la colonna j-esima (sviluppo per
l’i-esima riga).
2 3
Esempio. det = −14
4 −1
2 1 0
2 2 −3 2 −3 2
det −3 2 2 = 2 det − 1 det + 0 det = 2 · 12 −
1 7 1 7 1 1
1 1 7
1(−23) + 0(−5) = 24 + 23 = 47
Dimostrazione omessa.
(Le proprietà 1 e 2 sono dette in breve “il determinante è una funzione multilineare delle righe”;
la proprietà 3 è detta in breve “il determinante è una funzione alternante delle righe”.)
33
7.2 Spazi generati da righe e colonne e rango
Definizione 93 Sia A ∈ M (m × n, R). Si definisce rango per righe di A la dimensione del
sottospazio di Rn generato dalle righe di A
Si definisce rango per colonne di A la dimensione del sottospazio di Rm generato dalle colonne
di A
rkc (A) = dim(hA(1) , ..., A(n) i)
Osservazione 95 Lo spazio generato dalle righe di una matrice non cambia facendo operazioni
elementari di righe. Quindi il rango per righe non cambia facendo operazioni elementari di righe.
Lo spazio generato dalle colonne di una matrice non cambia facendo operazioni elementari di
colonne. Quindi il rango per colonne non cambia facendo operazioni elementari di colonne.
Proposizione 96 Sia A una matrice a scalini allora rkr (A) è uguale al numero degli scalini.
Dimostrazione.
Sia k il numero degli scalini cioè delle righe non nulle.
Siano j1 ,..., jk gli indici delle colonne dove compaiono i pivots.
Per dimostrare la tesi basta dimostrare che le prime k righe sono indipendenti.
Siano λ1 , ..., λk ∈ R tali che
λ1 A(1) + .... + λk A(k) = 0 (1)
Voglio dimostrare che λ1 = ... = λk = 0.
Considerando i j1 -esimi coefficienti dell’uguaglianza 1, ricavo
cioè
λ1 A1,j1 = 0
(in quanto A2,j1 = .... = Ak,j1 = 0) da cui
λ1 = 0
34
cioè
λ2 A2,j2 = 0
(in quanto λ1 = 0 e A3,j2 = .... = Ak,j2 = 0) da cui
λ2 = 0
in quanto A2,j2 6= 0 essendo un pivot.
Proseguendo analogamente ricaviamo λ1 = ... = λk = 0.
Q.e.d.
Proposizione 97 Sia A ∈ M (m × n, R). Allora
dim(Ker(fA )) = n − rkr (A)
Dimostrazione.
Ovviamente
Ker(fA ) = {x ∈ Rn | Ax = 0}
′
che, se A è una matrice a scalini ottenuta da A con operazioni elementari di riga, è uguale a
{x ∈ Rn | A′ x = 0}
quindi all’insieme delle soluzioni del sistema lineare omogeneo con matrice incompleta A′ .
Per trovare tale insieme di soluzioni devo scrivere le variabili che corrispondono ai pivots in
funzione di quelle che non corrispondono ai pivots.
Sia k = rkr (A) che è uguale a rkr (A′ ). Modulo riordinare le variabili, posso supporre che le
variabili che corrispondono ai pivots siano le prime k: x1 , ...., xk .
Sfruttando le equazioni scrivo x1 , ...., xk in funzione di xk+1 , ...., xn :
x1 = f1 (xk+1 , ...., xn )
.
.
.
xk = fk (xk+1 , ...., xn )
Quindi l’insieme delle soluzioni è
f (x , ...., x ) . .
1 k+1 n
.
. .
.
. .
.
.
.
fk (xk+1 , ...., xn ) . .
| xk+1 , ...., xn ∈ R = xk+1 + .... + xn | xk+1 , ...., xn ∈ R
xk+1 1 0
.
0 .
. . .
0
.
.
xn 0 1
quindi ha dimensione n − k
Q.e.d.
Osservazione 98 Sia A ∈ M (m × n, R). Allora dim(Im(fA )) = rkc (A).
Dimostrazione.
Segue immediatamente dall’Osservazione 90.
Q.e.d.
Teorema 99 Sia A ∈ M (m × n, R). Allora rkr (A) = rkc (A)
Dimostrazione.
Oss.98 Relaz.F ondam. P rop.97
rkc (A) = dim(Im(fA )) = n − dimKer(fA ) = rkr (A).
Q.e.d.
35
7.3 Il teorema di Rouché-Capelli
Teorema 100 Teorema di Rouché-Capelli. Sia A ∈ M (m × n, R) e sia b ∈ Rm . Il sistema
lineare Ax = b ha soluzione se e solo se rk(A) = rk(A|b).
Dimostrazione.
Il sistema lineare Ax = b ha soluzione se e solo se esistono x1 , ..., xn ∈ R tali che
cioè se e solo se b è combinazione lineare di A(1) , ...., A(n) . Questo equivale a dire che
Dato che si ha sempre hA(1) , ...., A(n) i ⊂ hA(1) , ...., A(n) , bi, dire questi due sottospazi sono
uguali equivale a dire che le loro dimensioni sono uguali.
Q.e.d.
Dimostrazione omessa.
Teorema 102 (Criterio dei minori orlati). Sia A ∈ M (m × n, R). Allora rk(A) è k se
e solo se esite una sottomatrice k × k con determinante diverso da 0 e tutte le sottomatrici
(k + 1) × (k + 1) contenenti tale sottomatrice hanno determinante uguale a 0
Dimostrazione omessa.
1 0 2 3 −1
−2 0 −4 −6 2
Esempio. Sia A = 2 1 2
−6 2
0 1 −2 −12 4
Esiste una sottomatrice 2 × 2 (per esempio quella formata dalle prime due colonne e la seconda e
terza riga) con determinante diverso da 0 e tutte le sottomatrici 3 × 3 che la contengono hanno
determinante uguale a 0; quindi il rango di A è 2.
Esempio. Sia
1 0 2
A= 0 2 1
−1 0 0
36
Affiancando ad A la matrice I3 ottengo
1 0 2 1 0 0
0 2 1 0 1 0
−1 0 0 0 0 1
La matrice
0 0 −1
B = − 41 1
2 − 41
1 1
2 0 2
è l’inversa di A.
NOTA. Tutto quello che è stato detto in questo capitolo può essere enunciato sostituendo C a
R.
37
8 Autovettori e autovalori, diagonalizzabilità
Definizione 103 Sia V uno spazio vettoriale su R e f : V → V una applicazione lineare. Un
vettore v ∈ V non nullo si dice autovettore di f se esiste λ ∈ R tale che
f (v) = λv
Av = λv
Esempio. Sia
1 2 0
A= 2 1 1
0 0 1
1
Il vettore 1 è autovettore di A di autovalore 3.
0
Per semplicità tratteremo soprattutto il caso degli autovalori ed autovettori di una matrice.
Esempio. Sia
1 2 0
A= 2 1 1
0 0 1
Allora
1−t 2 0
pA (t) = det 2 1−t 1 = (1 − t)[(1 − t)(1 − t) − 4] = (1 − t)(t2 − 2t − 3)
0 0 1−t
Lemma 105 Un numero reale λ è un autovalore di A se e solo se è una radice (reale) del
polinomio caratteristico di A.
Osservazione 106 L’insieme degli autovettori di A con autovalore λ, unito al vettore zero,
coincide con Ker(A − λI) e si dice autospazio di A relativo a λ.
38
Definizione 107 Sia A una matrice quadrata e sia λ un suo autovalore.
La dimensione di Ker(A − λI) si dice molteplicità geometrica di λ.
La molteplicità di λ come radice del polinomio caratteristico si dice molteplicità algebrica di
λ.
Definizione 108 Due matrici A e B si dicono simili se esiste C invertibile tale che
A = C −1 BC
Dimostrazione. Supponiamo che A e B siano simili, quindi esiste C tale che A = C −1 BC.
Allora
pA (t) = det(A − tI) = det(C −1 BC − tI) = det(C −1 (B − tI)C) =
= det(C −1 )det(B − tI)det(C) = det(B − tI) = pB (t)
Q.e.d.
Esercizi.
i) Provare che la similitudine una relazione di equivalenza.
ii) Provare che se A è una matrice 2 × 2 allora pA (t) = t2 − tr(A)t + det(A)
iii) Provare che gli autovalori di una matrice triangolare sono gli elementi sulla diagonale.
Definizione 110 Una matrice quadrata A si dice diagonalizzabile se è simile ad una matrice
diagonale.
Teorema 111 Una matrice A diagonalizzabile se e solo se esiste una base di autovettori di A.
Osservazione 112 Se A è simile ad una matrice D diagonale, allora sulla diagonale di D ap-
paiono gli autovalori di A (infatti A e D hanno lo stesso polinomio caratteristico).
Proposizione 113 Per qualsiasi autovalore si ha che la molteplicità geometrica è minore o uguale
della molteplicità algebrica.
Dimostrazione omessa.
Come abbiamo già detto, gran parte dell’algebra lineare che abbiamo enunciato per l’insieme dei
numeri reali R, può essere in modo del tutto analogo enunciato per l’insieme dei numeri complessi
C (spazi vettoriali su C, Cn , M (m × n, C), applicazioni lineari, determinante, rango.....)
In particolare ben definito il determinante di una matrice quadrata a coefficienti complessi e
una matrice quadrata a coefficienti complessi invertibile se e solo se il suo determinante è non
nullo.
Con dimostrazione del tutto analoga alla dimostrazione del Lemma 105, si dimostra che λ ∈ C
è radice del polinomio caratteristico di A se e solo se esiste v ∈ Cn tale che Av = λv. Un tale
v si dice autovettore (complesso) di A con autovalore (complesso) λ.
39
Teorema 114 Criterio necessario e sufficiente di diagonalizzabilità.
Una matrice A è diagonalizzabile se e solo se tutti le radici complesse del polinomio caratteristico
di A sono numeri reali e per ogni autovalore (reale) di A la molteplicità geometrica uguale alla
molteplicità algebrica.
Dimostrazione omessa.
Esempi.
1) Sia
1 −2 0
A= 2 1 1
0 0 −1
Allora
1−t −2 0
pA (t) = det 2 1−t 1 = (−1 − t)[(1 − t)(1 − t) + 4] = (−1 − t)(t2 − 2t + 5)
0 0 −1 − t
Quindi non tutte le radici complesse del polinomio caratteristico sono reali. Quindi A non è
diagonalizzabile.
2) Sia
1 2 0
B= 2 1 1
0 0 −1
Allora
Quindi tutte le radici complesse del polinomio caratteristico sono reali. Esse sono t = 3 e t = −1.
Ovviamente la molteplicità algebrica di 3 è 1, quella di −1 è 2; ovviamente la molteplicità
geometrica di 3 è 1, inoltre si calcola facilmente che la molteplicità geometrica di −1 è 1; quindi
B non è diagonalizzabile.
3) Sia
3 1 1
C = 2 4 2
3 3 5
Allora
pC (t) = −t3 + 12t2 − 36t + 32 = (2 − t)2 (8 − t)
Quindi tutte le radici complesse del polinomio caratteristico sono reali. Esse sono t = 2 e
t = 8. Ovviamente la molteplicità algebrica di 2 è 2, quella di 8 è 1; ovviamente la molteplicità
geometrica di 8 è 1, inoltre si calcola facilmente che la molteplicità geometrica di 2 è 2; quindi
C è diagonalizzabile.
40