Professional Documents
Culture Documents
lineare
7 ottobre 2011
AVVISO: I presenti appunti possono contenere (anzi sicuramente conterranno) errori e/o
ripetizioni. Essi sono infatti opera di vari collage e, per ovvie questioni di tempo, non sono
stati rivisti. Pertanto non intendono sostituire alcun libro di teoria e/o esercizi
ma vogliono sopratutto essere un dettagliato programma del corso. Prego gli studenti di
prestare particolare attenzione nella loro lettura e di informarmi sia direttamente che per
e-mail (quattrocchi@dmi.unict.it) su qualunque errore (certo o sospetto) notato.
Cercher`o di correggere nel pi`
u breve tempo possibile qualunque errore trovato. Pertanto
questi appunti saranno continuamente aggiornati: la data dellultimo aggiornamento appare
in prima pagina. Consiglio infine agli studenti di non stamparli immediatamente ma
farlo il pi`
u tardi possibile (per lo meno alcuni giorni dopo che largomento sia stato trattato
a lezione).
Indice
1 Insiemi e operazioni su di essi
2 Applicazioni
3 Relazioni di equivalenza
5 Cardinalit`
a di un insieme
11
13
7 Gruppi
16
8 Campi
20
21
23
30
50
54
59
65
79
87
18 Vettori liberi
90
92
97
100
115
121
2
24 Spazi vettoriali
128
25 Sottospazi Vettoriali
131
141
27 Applicazioni lineari
162
167
29 Autovalori ed autovettori
180
183
186
32 Endomorfismi semplici
189
33 Matrici diagonalizzabili
195
200
Per comodit`a dello studente richiamiamo alcuni concetti elementari di teoria degli insiemi.
Il concetto di insieme `e primitivo ed `e sinonimo di classe, totalit`a. Sia A un insieme di
elementi qualunque. Per indicare che a `e un elemento di A scriveremo a A. Se A e B sono
insiemi, diremo che A `e un sottoinsieme di B e scriveremo A B se ogni elemento di A `e
un elemento di B. Fra i sottoinsiemi di B ci sono in particolare B stesso e linsieme vuoto
che viene denotato con . Due insiemi A e B si dicono uguali, A = B, se hanno gli stessi
elementi. Cio`e:
A = B A B e B A.
Diremo che un sottoinsieme A di B `e proprio, se A 6= B e scriveremo A B.
Se A `e un insieme, denoteremo con P (A) l insieme i cui elementi sono tutti i sottoinsiemi
di A; P (A) si dice linsieme delle parti di A.
Esempio 1.1 Sia A = {1, 2, 3}. Allora P (A) = {b1 , b2 , . . . , b8 } essendo b1 = , b2 = {1},
b3 = {2}, b4 = {3}, b5 = {1, 2}, b6 = {1, 3}, b7 = {2, 3}, b8 = {1, 2, 3}.
Se A e B sono insiemi, diremo unione di A e B linsieme A B costituito dagli elementi
che stanno in A oppure in B, A B = {x | x A o x B}, diremo intersezione di A e B
linsieme A B costituito dagli elementi comuni ad A e B, A B = {x | x A e x B},
mentre diremo differenza di A e B linsieme A B degli elementi di A che non sono elementi
di B, A B = A \ B = {x | x A e x 6 B}. Due insiemi si dicono disgiunti se la loro
intersezione `e linsieme vuoto.
Se A `e sottoinsieme di B diremo complementare (o complemento) di A in B linsieme
B A e lo denoteremo con C B A. Se B `e linsieme ambiente il complementare di A in B
verr`a semplicemente denotato con C A.
Se A e B sono insiemi, definiamo prodotto cartesiano di A e B e lo denoteremo con AB,
linsieme i cui elementi sono le coppie ordinate (a, b) con a A e b B.
Propriet`a
1. A A = A, A A = A;
2. A B = B A, A B = B A (propriet`a commutativa);
3. A = A, A = ;
4. A (B C) = (A B) C, A (B C) = (A B) C (propriet`a associativa);
5. A (B C) = (A B) (A C) (propriet`a distributiva dellunione rispetto allintersezione);
6. A (B C) = (A B) (A C) (propriet`a distributiva dellintersezione rispetto
allunione);
7. C (A B) = C A C B, C (A B) = C A C B (formule di De Morgan).
Nel seguito denoteremo con N, Z, Q, R e C rispettivamente gli insiemi dei numeri naturali
(N = {0, 1, 2, . . . , n, . . .}),
n degli interi relativi (Z = {. . . , 3, 2, 1, 0, +1, +2, +3, . . .}), dei
numeri razionali (Q = m | n, m Z, m 6= 0 ), dei numeri reali e dei numeri complessi.
Applicazioni
0 se x 6 I
fI (x) =
.
1 se x I
Chiaramente fA : A {0, 1} `e definita da fA (x) = 1 x A, mentre f : A {0, 1} `e
definita da f (x) = 0 x A.
Teorema 2.1 Sia A un insieme. Esiste unapplicazione biunivoca fra gli insiemi 2A e P (A).
Dimostrazione. Definiamo due applicazioni , come segue: : 2A P (A) associa
ad ogni applicazione f : A 2 il sottoinsieme di A costituito dagli elementi x A tali che
0 se x 6 B
f (x) =
.
1 se x B
` facile verificare le seguenti uguaglianze: = iP (A) e = i2A . La Proposizione 2.2
E
completa la dimostrazione.
Faremo uso del seguente assioma della teoria degli insiemi:
Assioma della scelta o di Zermelo. Sia A un insieme non vuoto. Esiste allora una
applicazione che ad ogni sottoinsieme non vuoto B A associa un elemento appartenente a
B.
Relazioni di equivalenza
Definizione 3.1 Dicesi relazione binaria definita su un insieme non vuoto A, un sottoinsieme R A A.
Se (a, b) R scriviamo anche aRb e diciamo che a sta nella relazione R con b. Esempi di
relazioni binarie definite su A sono A A stesso e la relazione identica I definita da aIb se
e solo se a = b.
Si dice che una relazione binaria gode della propriet`a:
riflessiva se aRa per ogni a A,
transitiva se da aRb e bRc segue aRc per a, b, c A,
antisimmetrica se da aRb e bRa segue a = b per a, b A,
simmetrica se da aRb segue bRa per a, b A.
Definizione 3.2 Equivalenza. Una relazione binaria definita sullinsieme non vuoto A
si chiama relazione di equivalenza su A se gode delle propriet`
a riflessiva, simmetrica e
transitiva.
Se E `e una relazione di equivalenza, invece di aEb scriveremo a b (E) e leggeremo a
equivalente a b in E o, quando non c`e possibilit`a di equivoco, scriveremo semplicemente
a b e leggeremo a equivalente a b.
Definizione 3.3 Sia A un insieme non vuoto. Dicesi partizione di A una famiglia di sottoinsiemi non vuoti di A tale che ogni elemento di A sta in uno ed uno solo dei sottoinsiemi
della famiglia. I sottoinsiemi della famiglia si dicono le classi della partizione.
Teorema 3.1 Una partizione di A definisce una relazione di equivalenza su A e viceversa.
8
Definizione 4.2 (Insieme ben ordinato). Un insieme p.o. si dice ben ordinato quando
ogni suo sottoinsieme ha il minimo. Un insieme ben ordinato `e anche ordinato.
In modo del tutto analogo si danno le nozioni di massimo e di massimo relativo.
Minoranti e maggioranti. Estremo inferiore ed estremo superiore. Sia A un
insieme p.o. e B un suo sottoinsieme. Si chiama minorante di B in A un elemento a A
tale che a x per ogni x B.
Si chiama estremo inferiore di B in A il massimo dei minoranti. Notiamo che non `e detto
che esistano minoranti di B in A e se ne esistono pu`o darsi che il loro insieme non abbia
massimo; pertanto lestremo inferiore non sempre esiste.
Lestremo inferiore a di B in A `e caratterizzato dalle seguenti due propriet`a:
(i) a A e a x per ogni x B;
(ii) se b A `e tale che b x per ogni x B allora b a.
Osserviamo che se l estremo inferiore di B in A esiste ed `e un elemento di B allora esso `e il
minimo di B; viceversa il minimo di B, se esiste, `e anche l estremo inferiore di B in A. In
modo analogo si danno le definizioni di maggioranti e di estremo superiore di B in A.
Un insieme p.o. si dice completo quando ogni suo sottoinsieme ha estremo superiore e
estremo inferiore. In particolare un insieme p.o. completo ha minimo e massimo.
Diagrammi di insiemi p.o. finiti. Assegnato un insieme p.o. finito (A; ) `e utile
considerare il diagramma di A, ottenuto nel seguente modo. Si disegnano tanti punti quanti
sono gli elementi dellinsieme, avendo laccortezza di disegnare a pi`
u in basso di b se a b; si
congiungono poi due elementi a, b con un segmento se a < b e non ci sono elementi maggiori
di a e minori di b. Dal grafico che si ottiene si possono leggere con facilit`a tutte le propriet`a
dellinsieme p.o. A.
Condizioni equivalenti all assioma di Zermelo. Le seguenti condizioni sono equivalenti allassioma di Zermelo:
(i) (Teorema di Zermelo). Ogni insieme pu`o essere ben ordinato.
(ii) (Lemma di Zorn). Se un insieme p.o. A gode della propriet`a che ogni catena in esso
contenuta ha un maggiorante allora A ha almeno un massimo relativo.
10
Cardinalit`
a di un insieme
11
dellassioma di Zermelo.
(ii) (iii). Sia N A un sottoinsieme numerabile; indichiamo con a1 , a2 , . . . gli elementi
di N ; consideriamo il seguente sottoinsieme A0 di A, A0 = (A N ) {a2 , a4 , a6 . . .}. Si
ha A0 6= A perch`e a1 6 A0 ed inoltre A0 `e equipotente ad A: basta infatti considerare
lapplicazione f : A0 A definita da f (x) = x se x A N ed f (a2n ) = an per n = 1, 2, . . .
(iii) (i). Un insieme finito non `e equipotente ad un suo sottoinsieme proprio. Tale fatto,
che sembra piuttosto evidente, pu`o essere facilmente dimostrato mediante induzione.
Diamo un esempio di un insieme che si pu`o mettere in corrispondenza biunivoca con un
suo sottoinsieme proprio.
Siano: r una semiretta con origine in C, CE un segmento su r, CD un segmento perpendicolare ad r e tale che CD = CE ed s una retta parallela ad r e passante per D. Detti A
linsieme dei punti di CE diversi da E, e B linsieme dei punti di CD diversi da D, per ogni
punto P A, la circonferenza di centro C e raggio CP interseca CD in un punto (P ) B
e resta cos` definita unapplicazione : A B biiettiva. Proiettando da O i punti di CD
diversi da D su r si ottiene unapplicazione biiettiva dallinsieme B nellinsieme dei punti
di r; dunque risulta unapplicazione biiettiva dallinsieme dei punti del segmento CE
diversi da E nellinsieme dei punti di r.
Esercizio. Stabilire una corrispondenza biunivoca fra tutti i punti del segmento CE (E
compreso) e i punti della semiretta r.
Ipotesi del continuo. Lipotesi del continuo afferma che se un insieme infinito A ha
` stato provato che sia
cardinalit`a minore della potenza del continuo, allora A `e numerabile. E
lipotesi del continuo che la sua negazione sono entrambe compatibili con gli usuali assiomi
della teoria degli insiemi.
(a, b) M M
13
f (a, b) = c M.
Loperazione f viene indicata, a seconda del caso particolare che si sta studiando, con i
simboli: , , , , . . .. Per esempio si scrive a b = c invece di f (a, b) = c, ecc.
Esempi.
1. La somma e il prodotto introdotte in N sono operazioni algebriche binarie, mentre la
sottrazione e la divisione non lo sono.
2. Sia P = 2Z linsieme dei numeri pari e D quello dei numeri dispari, la somma `e
unoperazione algebrica binaria definita su P , mentre non lo `e su D.
3. Sono esempi di operazioni algebriche binarie definite su N
lapplicazione f che associa alla coppia (a, b), di elementi distinti o no, la potenza
che ha per base il primo elemento e per esponente il secondo elemento: f (a, b) = ab
cio`e a b = ab ;
lapplicazione f che associa alla coppia (a, b) Z Z il loro MCD: a b =
M.C.D.(a, b).
Si dice che loperazione definita su M gode della propriet`
a commutativa se:
a, b M si verifica che a b = b a.
Le operazioni + e sugli insiemi Z e Q sono commutative; le operazioni in Z e / in Q ,
come pure lelevamento a potenza in N non sono commutative.
Loperazione definita su M gode della propriet`
a associativa se:
a, b, c M si verifica che (a b) c = a (b c).
Le operazioni + e su N, Q e Z sono associative.
Le seguenti operazioni non sono associative:
lelevamento a potenza in N ; infatti ad esempio `e (2 3) 4 6= 2 (3 4), avendosi
(2 3) 4 = 23 4 = (23 )4 = 212 e 2 (3 4) = 2 34 = 2( 34 ) = 281.
la sottrazione in Z, infatti ad esempio `e 8 (5 2) 6= (8 5) 2, avendosi 8 (5 2) =
8 3 = 5 e (8 5) 2 = 3 2 = 1.
Esempi.
1. Sia M un insieme non vuoto e loperazione su di esso definita in modo tale che:
a, b M , a b = b. Tale operazione `e associativa, infatti `e (a b) c = a (b c),
avendosi (a b) c = b c = c e a (b c) = a c = c; ma non `e commutativa, a meno
che linsieme sia costituito da un unico elemento, cio`e |M | = 1.
1
I simboli N , Z , Q , R indicano gli insiemi dei numeri naturali, interi, razionali e reali privati dello 0.
14
2. Sia E un insieme e P (E) linsieme delle sue parti, le operazioni di e su P (E) sono
commutative e associative.
Definizione 6.2 Dicesi struttura algebrica un insieme non vuoto M su cui sono definite
una o pi`
u operazioni algebriche binarie , +, , . . ..
Indichiamo con (M, ) una struttura algebrica dove `e definita loperazione , con (M, , +)
una struttura algebrica dove sono definite le operazioni e +, (M, , +, , . . .) una struttura
algebrica dove sono definite le operazioni , +, , . . ..
N, Z, Q e R con le operazioni + e/0 sono strutture algebriche.
Definizione 6.3 Dicesi semigruppo una struttura algebrica (M, ), ove `e operazione associativa su M .
Definizione 6.4 Dicesi elemento neutro di (M, ) un elemento e M tale che a M si
ha: a e = e a = a.
Si osservi che
N, Z, Q, con loperazione di addizione + hanno lo 0 elemento neutro.
N, Z, Q, con loperazione di moltiplicazione hanno 1 come elemento neutro ed `e
chiamato elemento unit`a.
Q con loperazione di divisione / non ha elemento neutro, infatti a/1 = a mentre
1/a 6= a.
Definizione 6.5 Sia (M, ) una struttura algebrica avente elemento neutro e. Dicesi elemento simmetrico di a M un elemento a0 M tale che a a0 = a0 a = e.
Diremo che a `e simmetrizzabile se esiste lelemento a0 simmetrico di a.
Si ha
In N nessun elemento tranne lo 0 `e simmetrizzabile rispetto a +.
In (Z, +) qualsiasi elemento `e simmetrizzabile (il simmetrico di a `e a) cos` anche in
(Q , ) (il simmetrico di a `e a1 ).
Definizione 6.6 Dicesi monoide un semigruppo (M, ) dotato di elemento neutro. In altre
parole un monoide `e un insieme M dotato di unoperazione associativa in cui esiste un
elemento e tale che a e = e a = a per ogni a M .
(N, +) `e un monoide ove il numero zero `e lelemento neutro. (Z, ) `e un monoide ove il
numero 1 `e lelemento neutro. Sia X un insieme non vuoto. allora (X X , ) `e un monoide
ove lapplicazione identica iX `e lelemento neutro.
15
Gruppi
Definizione 7.1 Dicesi gruppo un insieme non vuoto M con una operazione algebrica binaria f : M M M (f (a, b) = a b) definita su di esso che gode delle seguenti tre
propriet`
a:
1. a, b, c M (a b) c = a (b c) (loperazione `e associativa);
2. e M tale che a e = e a = a a M (esistenza dellelemento neutro).
3. a M a0 M tale che a a0 = a0 a = e (ogni elemento a M `e simmetrizzabile).
Teorema 7.1 In un gruppo lelemento neutro `e unico.
Dimostrazione. Supponiamo per assurdo che esistano due elementi neutri e ed e0 . Per la
propriet`a dellelemento neutro si ha: a M a e = e a = a. Dunque:
e e0 = e0 e = e
e anche
e0 e = e e0 = e0
da cui e = e0 .
Teorema 7.2 In un gruppo ogni elemento a ammette un solo simmetrico a0 .
Dimostrazione. Sia (M, ) un gruppo. Supponiamo per assurdo che esista un a M
avente due elementi simmetrici a00 ed a0 . Si ha:
a0 = e a0 = (a00 a) a0 = a00 (a a0 ) = a00 e = a00 .
da cui a0 = a00 .
Definizione 7.2 Un gruppo (M, ) si dice abeliano o commutativo se loperazione gode della
propriet`
a commutativa: a b = b a per ogni a, b M .
Teorema 7.3 Sia (M, ) un gruppo. Per ogni coppia fissata a, b M esiste uno e un solo
x M tale che a x = b, oppure esiste uno e un solo y M tale che y a = b.
In altre parole in un gruppo le equazioni a x = b e y a = b hanno una e una solo
soluzione. Si noti che in generale non e detto che queste soluzioni siano uguali. Se invece il
gruppo e commutativo le due soluzioni coincidono.
16
Dimostrazione.
Sia a x = b, moltiplicando a destra entrambi i membri per a0 (il
simmetrico di a) si ha a0 (a x) = a0 b. Per la propriet`a associativa, (a0 a) x = a0 b,
e x = a0 b e quindi x = a0 b e lunica soluzione della equazione a x = b.
Analogamente (moltiplicando a sinistra per a0 ) si prova che lunica soluzione di y a = b
e y = b a0 .
Se il gruppo e abeliano abbiamo x = a0 b = b a0 = y.
Spesso loperazione algebrica binaria del gruppo `e indicata con (chiamata moltiplicazione) oppure con + (chiamata addizione). Nel primo caso il gruppo si dice moltiplicativo,
nel secondo additivo. Si usa la seguente terminologia:
In un gruppo moltiplicativo lelemento neutro verr`a indicato con 1 ed `e detto unit`
a,
1
mentre il simmetrico di a verr`a indicato con a , ed `e detto il reciproco.
` immediato verificare che: (a1 )1 = a e (a b)1 = b1 a1 .
E
In un gruppo additivo lelemento neutro verr`a indicato con 0 ed `e detto elemento nullo,
mentre il simmetrico di a verr`a indicato con a, ed `e detto lopposto.
` immediato verificare che: (a) = a e (a + b) = (b) + (a).
E
Il Teorema 7.3 pu`o essere riformulato nelle due seguenti forme:
Teorema 7.4 Se (G, ) `e un gruppo moltiplicativo, a, b G le due equazioni a x = b e
y a = b ammettono una sola soluzione (date da x = a1 b e y = b a1 , rispettivamente).
Se (G, +) `e un gruppo additivo, a, b G le due equazioni a + x = b e y + a = b ammettono
una sola soluzione (date da x = a + b e y = b a, rispettivamente).
Teorema 7.5 In un gruppo moltiplicativo (G, ) valgono le leggi di cancellazione a sinistra
e a destra, cio`e:
a, b, c G, da a b = a c segue che b = c;
a, b, c G, da b a = c a segue che b = c.
In un gruppo additivo (G, +) valgono le leggi di cancellazione a sinistra e a destra, cio`e:
a, b, c G, da a + b = a + c segue che b = c;
a, b, c G, da b + a = c + a segue che b = c.
Sono esempi di gruppi additivi abeliani (con le usuali operazioni di addizione +): (Z, +),
gruppo additivo degli interi relativi, (Q, +), gruppo additivo dei razionali, (R, +), gruppo
additivo dei reali. Si osservi che, se si considera lusuale operazione di prodotto , (Z \ {0}, )
non e un gruppo moltiplicativo (non esiste linverso di un elemento), mentre (Q \ {0}, ) e
(R \ {0}, ) sono gruppi moltiplicativi abeliani. Per dare qualche altro esempio di gruppo
introduciamo la nozione di matrice.
17
a11 a12
a21 a22
A=
am1 am2
a1n
a2n
amn
a1j
a2j
Cj =
.
amj
Dicesi matrice nulla di M(m, n; R) la matrice di tipo mn i cui elementi sono tutti uguali
a 0. Cio`e
0 0 0
0 0 0
=
.
0 0 0
In M(m, n; R) definiamo loperazione di addizione nel seguente modo: per ogni A, B
M(m, n; R), A = (aij ) e B = (bij ), poniamo
(aij ) (bij ) = (aij + bij ) .
` facile verificare che ((M(m, n; R), ) e un gruppo abeliano.
E
Definizione 7.4 Un gruppo si dice finito se ha un numero finito di elementi. Il numero dei
suoi elementi si dice ordine del gruppo.
18
1 2 ... n
a1 a2 . . . an
o, pi`
u semplicemente, con a1 , a2 , . . . , an e viene chiamata permutazione di 1, 2, . . . , n.
Definizione 7.5 Dicesi sottogruppo di un gruppo (G, ) un sottoinsieme A non vuoto di G
che risulta essere un gruppo rispetto alla stessa operazione definita in G.
In ogni gruppo (G, ) esistono almeno due sottogruppi, i cosiddetti sottogruppi banali o
impropri. Essi sono il gruppo stesso e il sottogruppo che ha come unico elemento lelemento
neutro di G; ogni altro sottogruppo `e detto proprio.
Teorema 7.6 Condizione necessaria e sufficiente affinch`e A (sottoinsieme non vuoto del
gruppo (G, )) sia un sottogruppo di G `e che siano verificate le seguenti due condizioni:
1. a, b A = a b A;
2. a A = a1 A.
Dimostrazione. Necessit`a. Supponiamo che A sia un sottogruppo di G. Allora A stesso
`e un gruppo e quindi le condizioni 1 e 2 sono verificate.
Sufficienza. Supponiamo che le condizioni 1 e 2 siano verificate. Per la 1, a, b A = ab A
e quindi `e anche unoperazione definita in A che verifica la propriet`a associativa in A
(a, b, c A si ha a (b c) = (a b) c) valendo essa in G. Poich`e le condizioni 1 e 2
valgono per ogni coppia di elementi di A, varranno in particolare per a e a1 a A. Allora
a a1 = e A, cio`e lelemento neutro di G appartiene pure ad A. Ed essendo anche che
per ogni a A anche a1 A, segue che (A, ) `e un gruppo, cio`e un sottogruppo di (G, ).
Le condizioni 1 e 2 sono equivalenti allunica condizione a, b A ab1 A.
Teorema 7.7 Intersezione di sottogruppi. Se S e H sono due sottogruppi di G, allora
S H `e un sottogruppo di G.
19
Dimostrazione. Si ha:
1. Se a S H, essendo S e H sottogruppi, abbiamo a1 S e a1 H quindi
a1 S H.
2. Se a, b S H, essendo S e H sottogruppi, abbiamo ab S e ab H. Quindi
ab S H.
1 e 2 provano la tesi.
Pi`
u in generale, se Gi , i I `e un insieme di sottogruppi di G, allora G0 = iI Gi (formato
dagli elementi comuni a tutti i sottogruppi Gi ) `e un sottogruppo di G.
Teorema 7.8 Unione di sottogruppi. Se S e H sono due sottogruppi di G, allora S H
non `e sottogruppo di G, tranne nel caso in cui H S oppure S H.
Dimostrazione. Sia a S H e b H S, facciamo vedere che ab 6 S H. Supponiamo
per assurdo che ab S H, ad esempio sia ab S. Avremo ab = s per qualche s S.
Moltiplicando ambo i membri a sinistra per a1 (si ricordi che a1 S), si avrebbe a1 ab =
a1 s S, da cui b = a1 s S. Ci`o `e assurdo perch`e b 6 S; analogamente se ab H si
perviene ad un assurdo.
Campi
Definizione 8.1 Dicesi campo K una terna (K, +, ) dove K `e insieme non vuoto mentre
+ e sono due operazioni binarie su K tali che:
K1) (Chiusura). Per ogni coppia a, b K, a + b K e a b K.
K2) (Associativit`
a). Comunque presi a, b, c K, a + (b + c) = (a + b) + c e a (b c) =
(a b) c.
K3) (Commutativit`
a). Per ogni coppia a, b K, a + b = b + a e a b = b a.
K4) (Identit`
a). Esistono due elementi in K, denotati con 0 e 1 e detti rispettivamente lo
zero e lunit`a del campo, tali che 0 6= 1 e, per ogni a K, a + 0 = a e a 1 = a.
K5) (Opposto). Per ogni a K, esiste un elemento b K (detto lopposto di a), tale che
a + b = 0.
(Inverso). Per ogni a K = K \ {0} esiste un elemento c K (detto linverso di a)
tale che a c = 1.
K6) (Distributivit`
a). Comunque presi a, b, c K, a (b + c) = a b + a c.
Ricordiamo che le condizioni K1), K2), K4) e K5) dicono che (K, +) `e un gruppo additivo
e (K , ) un gruppo moltiplicativo. Si pu`o provare che:
20
22
10
Nella Definizione 7.3 del paragrafo 7 abbiamo introdotto il concetto di matrice di tipo m n
ad elementi in R. Sempre nello stesso paragrafo abbiamo definito cosa si intende per somma
fra matrici e per matrice nulla e abbiamo lasciato al lettore il compito di verificare che
linsieme delle matrici m n con loperazione di somma forma un gruppo additivo abeliano.
In questo paragrafo vogliamo richiamare alcune definizioni e operazioni sulle matrici che ci
facile verificare che tutto quanto detto precedentemente per le
saranno utili in seguito. E
matrici ad elementi in R pu`o ripetersi per le matrici ad elementi in un generico campo K.
Sia M(m, n; K) linsieme delle matrici di tipo m n ad elementi in un campo K, i cui
elementi chiameremo scalari (qualora m = n porremo M(n, n; K) = M(n; K)).
Definizione 10.1 Dicesi prodotto di uno scalare K per una matrice A = (aij )
M(m, n; K) la matrice
A = (aij )
ottenuta moltiplicando per tutti gli elementi di A.
Definizione 10.2 Siano date le matrici A = (aij ) M(m, n; K) e B = (bij ) M(n, p; K)
(si noti che A e di tipo m n e B di tipo n p). Dicesi prodotto righe per colonne di A per
B la matrice
A B = (cij ) M(m, p; K)
definita, per ogni i = 1, 2, . . . , m e j = 1, 2, . . . , p, nel seguente modo:
cij =
n
X
ais bsj = ai1 b1j + ai2 b2j + . . . + ais bsj + . . . ain bnj .
s=1
2
3
1
3 2 2
3 2 3 4
A=
M(2, 4; R) e B =
4 5 1 M(4, 3; R).
4 2 5 7
5 7 3
Allora A B e la matrice di tipo 2 3 data da
32+23+34+45
3(3) + 2 2 + 3 3 + 4 7
31+22+31+43
=
4 2 + 2 3 + 5 4 + 7 5 4(3) + 2 2 + 5 5 + 7 7 4 1 + 2 2 + 5 1 + 7 3
44 38 22
=
.
53 90 26
23
2
3 2 4 1
3
5 2 7 3 M(3, 4; R) e B =
A=
4 M(4, 1; R).
2 3 4 6
5
Allora
32+23+44+15
33
A B = 5 2 + 2 3 + 4 7 + 3 5 = 56 .
22+33+44+65
59
Esempio 10.3 Siano
2 3
1 7
A=
M(2, 2; R) e B =
M(2, 2; R).
4 5
2 9
Allora
AB =
21+32 27+39
41+52 47+59
8 41
14 73
Si osservi che sia A che B sono quadrate di ordine n allora si possono fare entrambi i
prodotti A B e B A. In generale si ha
A B 6= B A.
Infatti siano A e B le matrici di ordine 2 definite nellEsempio 10.3. Si ha
30 38
2 3
1 7
6= A B.
=
BA=
38 51
4 5
2 9
Definizione 10.3 Dicesi matrice identica di ordine n la seguente matrice quadrata di ordine
n:
1 0 0 0
0 1 0 0
.
0
0
1
0
In =
0 0 0 1
Per loperazione di moltiplicazione fra matrici valgono le propriet`a elencate nel seguente
teorema di cui lasciamo al lettore la facile verifica. Dora in poi la somma fra le matrici A e
B sara`a indicata con A + B invece di A B.
Teorema 10.1 Siano A, B M(m, n; K), C, D M(n, p; K), E M(p, q; K) e K.
Allora:
24
1. (A + B) C = A C + B C;
2. A (C + D) = A C + A D;
3. (A C) = (A) C = A (C);
4. (A C) E = A (C E);
5. A In = Im A = A;
6. se C = D allora A C = A D;
7. se A = B allora A C = B C.
Si osservi che, in generale, la (6) e la (7) del Teorema 10.1 non possono essere invertite.
Infatti, posto nel primo caso
1 2
7 8
0 2 1 1
2 7
, e D = 2 7 ,
1 , C =
A= 0 2 1
3 1
3 1
0 3 1 2
5 8
5 8
abbiamo C 6= D e
2 7
A C = A D = 12 23 .
13 36
Analogamente, posto
A=
2 3
1 4
, B=
4 3
9 4
abbiamo A 6= B e
AC =BC =
, e C=
21 6
28 8
0 0
7 2
Definizione 10.4 Dicesi matrice diagonale una matrice quadrata A = (aij ) di ordine n tale
che aij = 0 i 6= j, ovvero se
a11 0
0 0
0 a22 0 0
0 a33 0
(1)
A=
0
.
0
0
0 ann
Conseguenza immediata del prodotto riga per colonna fra matrici e il seguente teorema.
25
0 ak33
Ak =
0
0
0
0
0
0
0
aknn
22
A2 = A A = 0
0
A3 = A A A =
2 0
0
A = 0 3 0 . Allora
0 0 1
0
0
4 0 0
(3)2
0 = 0 9 0 ,
0
(1)2
0 0 1
23
0
0
8 0
0
0 (3)3
0 = 0 27 0 .
0
0
(1)3
0 0 1
Allora
1 2 3 4
A = 5 6 7 8 .
9 10 11 12
2
AT =
3
4
5 9
6 10
.
7 11
8 12
Per le matrici trasposte valgono le propriet`a elencate nel seguente teorema di cui lasciamo
al lettore la facile verifica.
Teorema 10.3 Siano A, B M(m, n; K), C M(n, p; K) e K. Allora:
1. (A + B)T = AT + B T ;
2. (A)T = (AT );
3. (A C)T = C T AT ;
4. (AT )T = A;
26
5. InT = In .
Definizione 10.6 Una matrice quadrata A di ordine n, cio`e A M(n; K) si dice simmetrica se AT = A, cio`e se aij = aji per ogni i, j = 1, 2, . . . , n.
Esempio 10.6 La seguente matrice e simmetrica
1 2 3 4
2 5 6 7
3 6 8 9
4 7 9 10
Se A = (aij ) M(n; K) allora gli elementi a11 , a22 , . . . , ann formano la diagonale principale di A.
Definizione 10.7 Una matrice quadrata A M(n; K) si dice invertibile se esiste una
matrice B M(n; K) tale che
A B = B A = In .
Esempio 10.7 Verificare se la matrice
A=
1 2
3 6
e invertibile.
SVOLGIMENTO. Essendo A M(2, ; R) bisogna verificare se esiste una matrice B
M(2; R) tale che A B = B A = I2 . Poniamo
x y
B=
z t
e cerchiamo di determinare x, y, z, t R in modo che
1 2
x y
1 0
=
.
3 6
z t
0 1
La precedente uguaglianza equivale a
x + 2z y + 2t
1 0
=
3x + 6z 3y + 6t
0 1
la quale e vera se e solo se il seguente sistema ammette soluzioni
x + 2z = 1
y + 2t = 0
.
3x + 6z = 0
3y + 6t = 1
Poich`e (2) non ha soluzioni, la matrice data A non e invertibile.
27
(2)
1 2
3 7
e invertibile.
SVOLGIMENTO. Essendo A M(2, ; R) bisogna verificare se esiste una matrice B
M(2; R) tale che AB = BA = I2 . Poniamo
x y
B=
z t
e cerchiamo di determinare x, y, z, t R in modo che
1 2
x y
1 0
=
.
3 7
z t
0 1
La precedente uguaglianza equivale a
x + 2z y + 2t
1 0
=
3x + 7z 3y + 7t
0 1
la quale e vera se e solo se il seguente sistema ammette soluzioni
x + 2z = 1
y + 2t = 0
.
3x + 7z = 0
3y + 7t = 1
(3)
7 2
.
B=
3 1
Infine non e difficile verificare che
7 2
1 2
1 0
=
= I2 .
BA=
3 7
0 1
3 1
Teorema 10.4 Sia A M(n; K) invertibile. Allora esiste una ed una sola matrice B
M(n; K) tale che
A B = B A = In .
Dimostrazione. Per definizione di matrice invertibile, esiste almeno una B M(n; K)
tale che A B = B A = In . Sia adesso C M(n; K) tale che A C = C A = In . Allora
C = C In = C (A B) = (C A) B = In B = B.
Per il precedente teorema la matrice B verr`a indicata con A1 e sar`a detta la matrice
inversa di A. Come proveremo nel Teorema 15.8, se esiste una matrice B tale che A B = In
allora esiste una matrice C M(n; K) tale che C A = In . Vale il seguente teorema.
28
C A = In ,
allora C = B.
Dimostrazione. Si ha C = C In = C (A B) = (C A) B = In B = B.
Il seguente risultato e immediata conseguenza dei Teoremi 10.4, 10.5 e 15.8.
Teorema 10.6 Una matrice A M(n; K) e invertibile se e solo se esiste B M(n; K)
tale che A B = In .
Linsieme delle matrici invertibili A M(n; K) si indica con GL(n; K). In GL(n; K)
valgono le seguenti propriet`a.
Teorema 10.7 Siano A, B GL(n; K), allora si ha:
1. A B GL(n; K) e (A B)1 GL(n; K).
1
2. A1 GL(n; K) e (A1 ) = A.
1
T
3. AT GL(n; K) e AT
= (A1 ) .
4. In GL(n; K) e (In )1 = In .
Linsieme GL(n; K) con il prodotto righe per colonne costituisce un gruppo non commutativo, detto il gruppo lineare generale. Si osservi quindi che in GL(n; K) valgono le leggi di
cancellazione a sinistra ed a destra:
1. se C A = C B e A, B, C GL(n; K), allora A = B;
2. se A C = B C e A, B, C GL(n; K), allora A = B.
Si confronti la precedente affermazione con la (6) e la (7) del Teorema 10.1.
Teorema 10.8 Siano A, B M(m, n; K).
Sia C GL(m; K). Allora A = B se e solo se C A = C B.
Sia C GL(n; K). Allora A = B se e solo se A C = B C.
Dimostrazione. Sia C GL(m; K). Se A = B allora, per la (6) del Teorema 10.1, si ha
C A = C B. Sia, ora, C A = C B. Essendo C GL(m; K), esiste la matrice inversa C 1
di C. Allora, per il Teorema 10.1,
C 1 (C A) = C 1 (C B),
(C 1 C) A = (C 1 C) B,
A = B.
Se C GL(n; K), la dimostrazione e analoga.
29
11
(6)
x1 2x2 + x3 x4 = 0
2x1 x2 + x3 2x4 = 0
,
x + x2 + x3 x4 = 0
1
x1 x2 + 2x3 + 4x4 = 0
31
2x
3x
+
4x
5x
=
0
2x1 3x2 + 4x3 5x4 = 0
1
2
3
4
E2 2E2 E1
x1 2x2 + x3 x4 = 0
x2 2x3 + 3x4 = 0
E3 E3 E1
2x1 x2 + x3 2x4 = 0
2x2 3x3 + 3x4 = 0
E
4 2E4 E1
x + x2 + x3 x4 = 0
5x 2x3 + 3x4 = 0
1
2
E5 2E5 E1
x1 x2 + 2x3 + 4x4 = 0
x2 + 13x4 = 0
E3 E3 + 2E2
x2 2x3 + 3x4 = 0
E4 7E4 12E3
E4 E4 + 5E2
7x3 + 9x4 = 0
E
5 7E5 2E3
12x3 + 18x4 = 0
E5 E5 + E2
2x3 + 16x4 = 0
x2 2x3 + 3x4 = 0
x2 2x3 + 3x4 = 0
7x3 + 9x4 = 0
7x3 + 9x4 = 0
E5 47E5 4E4
.
18x4 = 0
18x4 = 0
94x4 = 0
0=0
Che ha, come unica soluzione, (0, 0, 0, 0). Quindi il sistema assegnato ha una ed una sola
soluzione data da (0, 0, 0, 0).
Esempio 11.2 Risolvere il sistema
2x1 x2 + x3 2x4 = 0
a coefficienti in R, facendo uso del Teorema 11.1.
SVOLGIMENTO.
2x1 x2 + x3 2x4 = 0
E3 E3 + 2E2
E2 2E2 E1
E3 E3 E1
7x3 + 9x4 = 0
32
(8)
7x3 = 9
Risolvendo per sostituzione, esso ammette infinite soluzioni date da 74 , 37 , 97 , per ogni
R.
Si noti che in (8) si pu`o prendere come parametro x3 invece di x4 . In tal caso, posto
x4 = , avremo
9x4 = 7
4 3 9
7
4 1
, , , | R =
, , , | R .
7 7 7
9 3
9
Per il Teorema 11.1, esse sono anche le soluzioni del sistema assegnato.
Osservazione 11.1 Sia
(9)
A=
1 1 2 0 2 0
7 0 3 1 1 0
0 0 0 0 0 0
0 0 1 0 0 1
0 0 0 2 0 4
1 1
1
2
0
0
1 1
1 1
la matrice
2
1
0
1
2
0
0
0
0
0
1
2
0
2
1
2
1
0
1
1
x1 + x2 + 2x3 + x5 + 2x6 = 0
x1 + 2x2 x3 + 2x5 + x6 = 0
0=0
.
x
+
x
+
x
+
2x
+
x
=
0
1
2
3
5
6
x1 x2 + x3 + x5 + x6 = 0
(10)
(11)
Si noti che lidentit`a 0 = 0 sta ad indicare che la matrice associata ha una riga tutta formata
da zeri. Analogamente lassenza della variabile x4 in (11) indica che la quarta colonna della
matrice associata e tutta nulla. Applicando a (11) le riduzioni
E2 E2 + E1
otteniamo
E4 E4 E1
E5 E5 + E1 ,
x1 + x2 + 2x3 + x5 + 2x6 = 0
x
+
x
=
0
5
6
3
4x3 + 2x5 + 3x6 = 0
(12)
Ridurre il sistema (11) equivale a ridurre la matrice (10) nel modo seguente
R2 R2 + R1
Come risultato si ottiene la matrice
R4 R4 R1
1
0
0
0
0
1
3
0
0
0
2
1
0
1
4
0 1 2
0 3 3
0 0 0
0 1 1
0 2 3
R5 R5 + R1 .
35
R5 R5 4R4
(13)
x1 + x2 + 2x3 + x5 + 2x6 = 0
1 1 2 0 1
2
3x
+
x
+
3x
+
3x
=
0
0
3
1
0
3
3
2
3
5
6
0=0
0
e
0 0 0 0 0
x x5 + x6 = 0
0 0 1 0 1 1
3
6x5 x6 = 0
0 0 0 0 6 1
(14)
Questultima matrice e ridotta. Gli elementi speciali sono quelli di posto (1, 1), (2, 2), (4, 3)
e, a scelta, o quello di posto (5, 5) oppure quello di posto (5, 6). Tanto per fissare le idee
supponiamo che lelemento speciale nella quinta riga sia quello di posto (5, 5). Ci`o equivale
a considerare la variabile x6 come parametro arbitrario e le variabili x1 , x2 , x3 ed x5 come
incognite. Otteniamo cos` il sistema (non omogeneo)
x1 + x2 + 2x3 + x5 = 2x6
6x5 = x6
le cui soluzioni sono
7
8
5
1
x6 , x6 , x6 , x6 , x 6
18
9
6
6
per ogni x6 R.
Se nella quinta riga della matrice (14) prendiamo come elemento speciale quello di posto
(5, 6), otteniamo il sistema non omogeneo
x1 + x2 + 2x3 + 2x6 = x5
x6 = 6x5
in cui x5 e assunto come parametro libero e x1 , x2 , x3 , x6 come incognite. Esso ha le 1
soluzioni
16
7
x5 , x5 , 5x5 , x5 , 6x5
per ogni x5 R.
3
3
Se nella quinta riga della matrice in (14) prendiamo come elemento speciale quello di posto
(5, 5), otteniamo il sistema non omogeneo
x1 + x2 + 2x3 + x5 = 2x6
6x5 = x6
in cui x6 e assunto come parametro libero e x1 , x2 , x3 , x5 come incognite. Esso ha le 1
soluzioni
7
8
5
1
7
16
x6 , x6 , x6 , x6 , x 6 | x6 R =
x5 , x5 , 5x5 , x5 , 6x5 | x5 R .
18
9
6
6
3
3
36
Si osservi che il numero di elementi speciali di una matrice ridotta coincide col numero delle
variabili assunte come incognite nel sistema ridotto ad essa associato.
Riassumendo, per ridurre una matrice, basta applicare opportunamente ad essa ed alle
matrici cia via ottenute, le seguenti
Regole di riduzione per righe:
1. Sostituire a tutti gli elementi della riga Ri i corrispondenti elementi di Ri moltiplicati
per 6= 0 e sommare ad essi i corrispondenti elementi della riga Rj , con j 6= i,
moltiplicati per . Possiamo riassumere questa regola come segue
Ri Ri + Rj , essendo 6= 0 e i 6= j.
(17)
(18)
Questa regola e lecita in quanto equivale a scambiare, nel sistema associato, due
equazioni fra loro.
Esempio 11.5 Si consideri la matrice associata al
2 3 4
1 2 1
A=
2 1 1
1 1 1
1 1 2
5
1
2
.
1
4
Ridurre per righe A equivale ad usare le stesse regole adoperate per trasformare il sistema
dato nellEsempio 11.2.
2 3 4 5
2
3
4
5
R2 2R2 R1
1 2 1 1
0 1 2 3 R3 R3 + 2R2
R
3 R3 R1
2 1 1 2
0 2 3 3
2 3 4 5
0 1 2 3 , la quale risulta ridotta (gli elementi sottolineati corrispondono agli
0 0 7 9
elementi speciali scelti).
Si osservi che la (17) pu`o essere usata scegliendo arbitrariamente coppie di valori e
(purch`e sia 6= 0) e coppie di righe i e j (purch`e sia i 6= j). Si capisce quindi che
riducendo una stessa matrice A si pu`o pervenire a matrici ridotte distinte. Tuttavia esse,
pur essendo distinte, conservano la stessa informazione: i sistemi lineari omogenei associati
37
sono equivalenti, cio`e hanno insiemi di soluzioni coincidenti. Il motivo segue immediatamente
dal Teorema 11.1 in quanto ogni sistema lineare omogeneo associato ad una matrice ridotta
dalla matrice A e equivalente al sistema lineare omogeneo associato alla matrice A stessa.
Illustriamo questo fatto con il seguente esempio.
Esempio 11.6 Sia
A=
1 1 2
1 4 2
3 1 1
.
2 1 1
1 1 4
1
1
A=
3
2
1
1 1
0 5
0 0
0 0
0 0
numero 1.
1 2
1 1 2
R2 R2 R1
0 5
R3 5R3 2R2
4 2
0
R3 R3 3R1
1 1
R R 2R 0 2 5 R4 5R4 R2
4
4
1
1 1
0 1 3 R5 5R5 2R2
R5 R5 R1
1 4
0 2
2
2
1 1 2
0 5
0
0
R4 5R4 3R3
0 0 25 = B.
25
0 0
15 R5 5R5 + 2R3
0
10
0 0
0
Riduzione numero 2.
1 1 2
1 1 2
R2 R2 + 4R1
1 4 2
5 0 10 R3 10R3 + R2
R3 R3 R1
2 0 1 R4 10R4 + R2
3
1
1
A=
2 1 1 R4 R4 R1
1 0 1 R 5R 3R
5
5
2
R5 R5 + R1
1 1 4
2 0
6
1 1 2
1 1 2
5
5 0 10
0 10
R4 5R4 3R3
25 0 0
25 0 0 = C.
15 0 0 R5 5R5 + R3
0 0 0
5 0 0
0 0 0
Sia B che C sono matrici ridotte dalla A. Ma, come si vede facilmente, i sistemi a loro
associati sono equivalenti. Infatti si ha:
38
sistema associato a B:
sistema associato a C:
x y + 2z = 0
5y = 0
;
25z = 0
x y + 2z = 0
5x + 10z = 0 .
25x = 0
Entrambi questi sistemi hanno una e una sola soluzione, la banale, cio`e (x, y, z) =
(0, 0, 0).
Si noti che nellEsempio 11.6 sia B che C hanno lo stesso numero di elementi speciali.
Questo non e un caso ma in tutte le matrici ridotte da una stessa matrice fissata, il numero
degli elementi speciali e costante. Esso infatti coincide col numero delle incognite del sistema
ad essa associato (si noti che questo sistema potrebbe essere non omogeneo).
Si osservi ancora che, nellEsempio 11.6, il numero degli elementi speciali delle matrici
ridotte dalla A coincide col numero delle incognite del sistema lineare omogeneo associato
ad A e, questo sistema ammette solo la soluzione banale (0, 0, 0). Anche questo non e un
caso ma, come si verifica facilmente, un sistema lineare omogeneo ha come unica soluzione
quella banale se e solo se il numero degli elementi speciali della matrice ridotta associata alla
matrice incompleta coincide col numero delle incognite.
Vediamo ora, in alcuni esempi, cosa accade quando in un sistema lineare omogeneo il numero degli elementi speciali della matrice ridotta associata alla matrice incompleta e minore
del numero delle incognite.
Esempio 11.7 Studiare in R il sistema lineare omogeneo:
x + y + 2z + 3t = 0
x + y + z + t = 0
2x + 2y + 2z + 2t = 0
x+yzt=1
1 1 2
1 1 1
2 2 2
6 12 15
3
R2 R2 + R1
1
R3 R3 2R1
2
R
6R
4
4
1
18
R4 R4 3R2
1
0
0
0
1 1 2
3
0 2 3
4
0 0 2 4
0 6 3
0
1 2
3
1
2 3
4
0
R4 R4 3R3
0
0 2 4
0 6 12
0
39
1 2
3
2 3
4
0 2 4
0 0
0
Questultima matrice risulta ridotta (possiamo prendere per elementi speciali quelli di
posto (1, 1), (2, 2) e (3, 3)). Assumendo come incognite le variabili i cui coefficienti concorrono
a formare le colonne contenenti gli elementi speciali (nel nostro esempio x, y, z) e le rimanenti
(nel nostro esempio solo la t) come parametri liberi, il sistema assegnato risulta equivalente
al seguente:
x + y + 2z = 3t
2y + 3z = 4t
2z = 4t
Si vede facilmente che questo sistema ha le 1 soluzioni
(x, y, z, t) = (0, t, 2t, t)
per ogni t R.
Esempio 11.8 Studiare in R il sistema lineare omogeneo:
2x1 x2 + x3 + x4 + 3x5 + x6 = 0
2x
1 + x2 x3 + x4 + x5 + x5 = 0
2x1 + x3 x4 + 3x5 = 0
SVOLGIMENTO.
1 1 2
2 1 1
2 1 1
2 0
1
Riduciamo la
3 4 1
1 3 1
1 1 1
1 3 0
1
0
R3 R3 3R2
0
R4 3R4 2R2
0
1
0
R4 4R4 R3
0
0
1 1 2
3
4
1
R2 R2 2R1
0 1 3 5 5 1
R3 R3 2R1
0 3 5 5 7 1
R4 R4 2R1
0 2 3 7 5 2
1 2
3
4
1
1 3 5 5 1
0
4
10
8
2
0
1 11 1 4
1 2
3
4
1
1 3 5 5 1
.
0
4
10
8
2
0
0 54 12 18
Questultima matrice risulta ridotta (possiamo prendere per elementi speciali quelli di
posto (1, 1), (2, 2), (3, 3) e (4, 4)). Prendendo come incognite le variabili i cui coefficienti
concorrono a formare le colonne contenenti gli elementi speciali, il sistema assegnato risulta
equivalente al seguente:
40
x1 x2 + 2x3 + 3x4 = 4x5 x6
41
(20)
Si ricordi che
a11 a22
a21 a22
am1 am2
a1n
a2n
amn
b1
b2
bm
am1 am2 amn bm
e applicheremo ripetutamente ad essa le regole di riduzione per righe in modo che, alla fine,
sia la matrice completa che quella incompleta risultino ridotte.
Esempio 11.9 Studiare in R il sistema lineare:
x + y + 3t = 1
x y + 2t = 2 .
x + y + 4t = 1
SVOLGIMENTO. Nella notazione seguita viene scritta la matrice completa, separando
con una linea verticale la colonna dei termini noti, cos` a sinistra si evidenzia la matrice
incompleta.
1 1 3 1
1
1
3
1
R2 R2 R1
1 1 2 2
0 2 1 1 .
R
3 R3 R1
1 1 4 1
0 0
1 2
Si osservi che sia la matrice incompleta che quella completa sono ridotte (gli elementi speciali sono quelli di posto (1, 1), (2, 2) e (3, 3)). Si ottiene cos` il seguente sistema, equivalente
a quello assegnato,
42
x + y + 3t = 1
2y 2t = 1 .
t = 2
In tal caso i coefficienti di tutte le variabili concorrono a formare le colonne contenenti gli
immediato
elementi speciali quindi tutte le variabili devono essere prese come incognite. E
, 3 , 2).
verificare che il sistema precedente ha una sola soluzione data da ( 11
2 2
Esempio 11.10 Studiare in R il sistema lineare:
x 2y + 3z + t = 1
7x 2y + 7z + 2t = 5 .
2x y + z + 3t = 2
SVOLGIMENTO. Nella notazione seguita viene scritta la matrice completa, separando
con una linea verticale la colonna dei termini noti, cos` a sinistra si evidenzia la matrice
incompleta.
1 2 3 1 1
1 2 3 1 1
R2 R2 + 7R1
7 2 7 2 5
0 12 14 5 2
R
3 R3 2R1
2 1 1 3 2
0 3 5 1 0
R3 4R3 + R1
1 2 3 1 1
0 12 14 5 1 .
0 0 6 9 2
x 2y + 3z + t = 1
12y + 14z + 5t = 2
6z + 9t = 2
Prendendo come incognite le variabili i cui coefficienti concorrono a formare le colonne
contenenti gli elementi speciali possiamo scrivere
x 2y + 3z = 1 t
12y + 14z = 2 5t
6z = 2 9t
Il sistema precedente ha le 1 soluzioni
21t + 16 39t 10 9t 2
(x, y, z, t) =
,
,
,t
18
18
6
per ogni t R.
43
x 2y + 3z + t = 4
xy+zt=2
x + 2y z + 3t = 0 .
x+yzt=1
2x + 3y z 3t = 5
SVOLGIMENTO. Nella notazione seguita viene scritta la matrice completa, separando
con una linea verticale la colonna dei termini noti, cos` a sinistra si evidenzia la matrice
incompleta.
1 2 3
1
1 2 3
1 4
4
R2 R2 R1
0 1 2 2 2
1 1 1 1 2
R3 R3 R1
1 2 1 3 0
R R R
0 4 4 2 4
4
4
1
0 3 4 2 3
1 1 1 1 1
R5 R5 2R1
2 3 1 3 5
0 7 7 5 3
1 2 3
1
4
R3 3R3 4R2
0 1 2 2 2
R4 R4 3R2
0
0
4
10
4
0 0
2
4
3
R5 R5 7R2
0 0
7
9 11
1 2 3
1
4
0 1 2 2 2
R4 2R4 + R3
4
0
0
4
10
R5 4R5 7R3
0 0
0
2
2
0 0
0 34 16
1 2 3
1
4
0 1 2 2 2
= B.
R5 R5 + 17R4
0
0
4
10
4
0 0
0
2
2
0 0
0
0 18
Si ottiene cos` il seguente sistema, equivalente a quello assegnato,
x 2y + 3z + t = 4
y 2z 2t = 2
4z + 10t = 4
2t = 2
0 = 51
44
Il precedente sistema e impossibile (cio`e non ha soluzioni) in quanto lultima delle sue
equazioni
0x + 0y + 0z + 0t = 51
non ha soluzioni. Quindi anche il sistema assegnato e impossibile.
NellEsempio 11.11 sia la matrice B che quella incompleta (cio`e la matrice ottenuta
eliminando lultima colonna della B) risultano ridotte ma il numero degli elementi speciali
della incompleta e minore del numero degli elementi speciali della completa B. Quando
accade questo fatto il sistema non ha mai soluzioni (e impossibile). Se invece il numero
degli elementi speciali della matrice incompleta e uguale al numero degli elementi speciali
della completa B, il sistema ammette soluzioni (vedasi Esempi 11.9 e 11.10). In tal caso
se il numero degli elementi speciali e uguale al numero delle variabili (Esempio 11.9), la
soluzione e unica, mentre se il numero degli elementi speciali e minore del numero delle
variabili (Esempio 11.10) avremo soluzioni, con dato dalla differenza fra il numero
delle variabili e quello degli elementi speciali.
Per risolvere il sistema lineare (19) possiamo procedere nel seguente modo:
1. Si riduca la matrice completa
a11 a22
a21 a22
B=
am1 am2
a1n b1
a2n b2
amn bm
a11 a22
a21 a22
A=
am1 am2
a1n
a2n
amn
1 x2 + 3x3 + x6 = 2
1 2 1 3 4 5 1
3 1
2 3 4 6 3
2 1 3 0 0 1 2
5 3
5 6 8 11 4
1 2
2 1
R3 R3 R2
0 0
R4 R4 R2
1 0
1 2 1 3 4 5
2 1 3 0 0 1
R2 R2 R1
2 1 3 0 0 1
R4 R4 2R1
3 1 7 0 0 1
1 3 4 5 1
3 0 0 1 2
= B0.
0 0 0 0 0
4 0 0 0 0
1
2
2
2
In B 0 gli elementi speciali sono sottolineati. Si ottiene cos` il seguente sistema, equivalente
a quello assegnato,
2x1 x2 + 3x3 + x6 = 2
0=0
x1 + 4x3 = 0
x1 + 4x3 = 0
4x3 = x1
46
5
5
7
4
1
x1 , x2 , x1 , 2 x1 + x2 , 3 + x1 x2 x5
4
4
3
3
3
comunque presi x1 , x2 , x5 R.
Posto
A = (aij ) , i = 1, 2, . . . , m, j = 1, 2, . . . , n,
b1
x1
b2 2
x2
X=
e B = ,
bm
xm
il sistema (4) pu`o scriversi nella seguente forma vettoriale
A X = B.
(21)
Se C e una matrice quadrata di ordine m invertibile, per il Teorema 10.8, il sistema (21) e
equivalente al seguente
(C A) X = C B.
(22)
Di fatto, il metodo di riduzione di Gauss precedentemente esposto consiste nel determinare
(attraverso le successive riduzioni) una matrice invertibile C di ordine m per cui il sistema
(22) si risolva pi`
u facilmente di (21). Illustriamo adesso con alcuni esempi come si costruisce
C. Innanzitutto si ricordi che il metodo di riduzione per righe si basa sulla successiva
applicazione di una delle due regole (17) o (18). Se poniamo D = (drs ) ove, per r =
1, 2, . . . , m e s = 1, 2, . . . , m, si ha
1
se r = s 6= i
6= 0 se r = s = i
,
drs =
0
se r 6= s e (r, s) 6= (i, j)
se (r, s) = (i, j)
allora applicare a (21) la regola (17) equivale a moltiplicare entrambi i membri di (21) per
D (si noti che, avendo supposto 6= 0, D e invertibile). Analogamente la regola (18)
equivale a moltiplicare entrambi i membri di (21) per F , essendo F la matrice che si ottiene
scambiando la riga i con la riga j nella matrice identica Im (si osservi che F 1 = F ). Il
sistema dellEsempio 11.10, in forma vettoriale, e
x
1 2 3 1
1
7 2 7 2 y = 5 .
(23)
z
2 1 1 3
2
t
47
1
G1 = 7
0
Infatti
1 0 0
1 2 3
7 1 0 7 2 7
0 0 1
2 1 1
1 2 3
0 12 14
2 1 1
0 0
1 0 .
0 1
x
1
1
y
2
7
=
z
3
0
t
x
1
1
y
= 2
5
z
3
2
t
0 0
1
1 0
5 ,
0 1
2
1 0 0
G2 = 0 1 0 ,
2 0 1
x
1
1 0 0
1 2 3 1
1 0 0
y
0 1 0 0 12 14 5 = 0 1 0 2 ,
z
0
2 0 1
2 1 1 3
2 0 1
t
x
1 2 3 1
1
y
0 12 14 5 = 2 .
z
0 3 5 1
0
t
Si perviene al sistema ridotto applicando la regola R3
entrambi i membri per
1 0 0
G3 = 0 1 0 ,
1 0 4
x
1 0 0
1 2 3 1
0 1 0 0 12 14 5 y =
z
1 0 4
0 3 5 1
t
x
1 2 3 1
0 12 14 5 y =
z
0 0 6 9
t
48
1 0 0
1
0 1 0 2 ,
1 0 4
0
1
1 .
2
Si osservi che questo sistema si ottiene moltiplicando entrambi i membri di (23) per la matrice
C = G3 G2 G1 .
Si osservi che nellesempio precedente abbiamo moltiplicato entrambi i membri di (23) per
G1 . Avremmo potuto, pi`
u semplicemente, scrivere (23) in forma matriciale e poi moltiplicare
per G1 , cio`e
1 0 0
1 2 3 1 1
1 2 3 1 1
7 1 0 7 2 7 2 5 = 0 12 14 5 2
0 0 1
2 1 1 3 2
2 1 1 3 2
e procedere analogamente con le matrici G2 e G3 .
Come secondo esempio risolviamo il sistema
x1 x2 + 3x3 = 2
x1 + 2x2 + x3 + 2x4 = 1
.
3x1 x2 + x3 = 1
x1 + x2 + 2x3 + x4 = 1
Come ormai dovrebbe essere chiaro, (24) pu`o
2 1
1 2
3 1
1 1
scriversi
3
1
1
2
0
2
0
1
2
1
.
1
1
0
0
G1 =
0
1
2. R2 R2 R1 cui corrisponde la matrice
1
2
G2 =
0
0
3. R2 R3 cui corrisponde la matrice
1
0
G3 =
0
0
49
0
1
0
0
0
1
0
0
0
0
1
0
0
0
1
0
0
0
1
0
0
1
0
0
1
0
;
0
0
0
0
;
0
1
0
0
;
0
1
(24)
1
0
G4 =
0
0
0
1
0
1
1
0
G5 =
0
0
0
1
0
0
Essendo
0
0
G5 G4 G3 G2 G1 =
0
1
0 0 0
1
0 0 1
0
0 1 0 2
1 1 1 2
cio`e
12
0
0
1
0
0
0
1
1
0
0
;
0
1
0
0
.
0
1
0 0
1
0 1
0
,
1 0 2
1 1 2
2 1 3 0 2
1 2 1 2 1
3 1 1 0 1 ,
1 1 2 1 1
1 1
2 1 1
3 1 1 0 1
.
1
0 3 0 1
0
0 1 0 0
Il metodo di risoluzione di un sistema lineare illustrato alla fine del Paragrafo 11, trasforma
il sistema assegnato, quando ha soluzioni, in uno ridotto formato da una equazione avente
esattamente una incognita, una equazione avente al pi`
u due incognite, una equazione avente
al pi`
u tre incognite ... e cos` via fino ad esaurire tutte le incognite del sistema ridotto.
Ovviamente un tale sistema si risolve facilmente. Nell Esempio 11.10, il sistema
x 2y + 3z + t = 1
7x 2y + 7z + 2t = 5
2x y + z + 3t = 2
50
x 2y + 3z = 1 t
12y + 14z = 2 5t .
6z = 2 9t
(25)
1 2 3
1t
0 12 14 2 5t .
(26)
0 0 6 2 9t
Applicando il metodo di riduzione
Ri Ri + Rj , 6= 0, i 6= j,
dal basso verso lalto trasformiamo la (26) nella matrice identica:
1 2 3
1t
4
11t
2
4
0
R1 2R1 + R3
0 12 14 2 5t
0 36 0 20 78t
R
3R
+
7R
2
2
3
0 0 6 2 9t
0 0 6 2 9t
1
R1
R1 18
18 0
0 16 + 21t
1
R1 9R1 + R2 0 36 0
20 78t R2 36 R2
0
0 6
2 9t
R3 16 R3
1 0 0 1621t
18
0 1 0 39t10
18
0 0 1 9t2
6
21t + 16 39t 10 9t 2
,
,
,t
18
18
6
per ogni t R.
In generale, per risolvere completamente un sistema lineare si pu`o procedere riducendo
la matrice ad esso associata procedendo dallalto verso il basso in modo da ottenere gli
elementi speciali e cos` verificare se il sistema e possibile o impossibile. Nel primo caso si pu`o
proseguire col metodo di riduzione procedendo dal basso verso lalto in modo da trasformare
la matrice ridotta in una verificante le seguenti condizioni: 1) tutti gli elementi speciali sono
uguali ad 1; 2) gli elementi delle colonne contenenti un elemento speciale sono tutti nulli,
facendo ovviamente eccezione per lelemento speciale stesso. Da una tale matrice si ricavano
immediatamente le soluzioni del sistema. Illustriamo questo procedimento con alcuni esempi.
51
3x 2y + 4z = 3
xy+z =1
.
2x + 4y + 2z = 1
SVOLGIMENTO. Scriviamo le matrici completa e incompleta del sistema come fatto precedentemente e applichiamo il metodo di riduzione dallalto verso il basso in modo da ottenere
gli elementi speciali e vedere quindi se il sistema e possibile o no.
3 2 4 3
3 2 4
3
R2 3R2 + R1
1 1 1 1
1
0
0 1
R
3 3R3 2R1
2 4 2 1
0 16 2 3
R3 R3 16R2
3 2 4
3
1
0
0 1
0 0 18 3
Abbiamo cos` ridotto la matrice. Gli elementi speciali sono quelli di posto (1, 1), (2, 2) e
(3, 3). Essi appaiono tutti nella matrice incompleta (quella che ha come colonne i coefficienti
delle incognite) pertanto il sistema e possibile. Infine, essendo il numero degli elementi
speciali uguale al numero delle incognite, la soluzione e unica. Per determinarla procediamo
col metodo di riduzione dal basso verso lalto:
3
21
3 2 4
27
18
0
R1 9R1 + 2R3
0 1
1
0
0
3
0 18
R
2 18R2 + R3
0 0 18 3
0
0 18 3
R1 R1 + R2
1
R1
R1 27
27 0
0
18
1 0 0 23
1
R2 0 1 0 16 .
3 R2 18
0 18 0
1
0 0 18 3
0 0 1 16
R3
R3 18
2 1 1
(x, y, z) =
, ,
.
3 6 6
Esempio 12.2 Studiare in R il sistema lineare:
2x 3y + 4z + 3t = 1
2x + 6z + 4t = 3
.
x+yzt=2
x + 2y + 3z + 2t = 0
SVOLGIMENTO. Scriviamo le matrici completa e incompleta del sistema e applichiamo il
metodo di riduzione dallalto verso il basso in modo da ottenere gli elementi speciali e vedere
quindi se il sistema e possibile o no.
52
2 3 4
3 1
2
0
6
4 3
1
1 1 1 2
1 2
3
2 0
R3 2R3 5R2
R4 2R4 + R2
R4 R4 R3
2
2
0
0
2 3 4 3
2 0 6 4
R3 3R3 + R1
5 0 1 0
R4 3R4 + 2R1
1 0 17 12
2 3 4
3
1
3
2 0
6
4
0 0 28 20 1
0 0 28 20 1
3 4
3
1
0
6
4
3
.
0 28 20 1
0
0
0
0
1
3
7
2
Abbiamo cos` ridotto la matrice. Gli elementi speciali fissati sono quelli di posto (1, 2),
(2, 1) e (3, 3) (invece di questultimo si potrebbe scegliere quello di posto (3, 4) e procedere di
conseguenza). Gli elementi speciali sono tutti appartenenti alla matrice incompleta pertanto
il sistema e possibile. Infine, essendo il numero degli elementi speciali (=3) minore del
numero delle variabili (=4), abbiamo 1 soluzioni al variare del parametro libero t. Per
determinarle procediamo col metodo di riduzione dal basso verso lalto:
3
1
2 3 4
0 3 2 1 2
2 0
6
4
3
6
4
3
R1 R1 2R2 2 0
0 0 28 20 1
0 0 28 20 1
0 0
0
0
0
0 0
0
0
0
0 42 0
6 27
28 0
R1 14R1 + R3
0
4 39
0 0 28 20 1
R2 14R2 + 3R3
0 0
0
0
0
1
9
1
0
1
0
R1 42 R1
7
14
1 0 0 1 39
1
7
28 .
R2 28 R2
5
1
0
0
1
7
28
1
R3 28
R3
0 0 0 0 0
Quindi le soluzioni del sistema assegnato sono
1 1
5
39 1 9
+ t,
+ t,
t, t
t R.
(x, y, z, t) =
28 7 14 7 28 7
Si osservi che, similmente a quanto visto alla fine del Paragrafo 11, applicare ad una
matrice le regole di riduzione dal basso verso lalto equivale a moltiplicarla per una opportuna
matrice invertibile.
53
13
kx + y + z = 1
x + ky + z = k
.
x + y + kz = k 2
kx + (2 k)y + kz = k 2 k + 1
SVOLGIMENTO. Scriviamo le matrici completa e incompleta del sistema e applichiamo il
metodo di riduzione dallalto verso il basso in modo da ottenere gli elementi speciali e vedere
quindi, al variare di k R, se il sistema e possibile o no.
k
1
1
1
R2 R2 R1
1
k
1
k
R3 R3 kR1
1
1
k
k2
R4 R4 kR1
k 2 k k k2 k + 1
k
1
1k k1
1 k2 1 k
k k 2 2 2k
1
1
0
k1
=B
0
k2 k
2
0 k 2k + 1
Se k = 1, B diventa
1
0
0
0
1
0
0
0
1
0
0
0
1
0
,
0
0
k
1
1
1
1k k1 0
R3 R3 + R2
k1
2
2
1k
R4 R4 + 2R2
k k
1k 0
k k 2 2 2k 0 k 2 2k + 1
k
1
1
1
1k
k1 0 k1
R4 R4 R3
2 k k2
0
0 k2 1
2 k k2
0
0 k2 1
54
k
1
1k
k1
2 k k2
0
0
0
1
1
0 k1
= C.
0 k2 1
0
0
k
1
1
1
R1 (1 k)(k + 2)R1 kR3
1k
k1 0 k1
R
2
2 (k + 2)R2 R3
(1 k)(k + 2)
0
0 k 1
0
(1 k)(k + 2) (1 k)(k + 2) (1 k)(k + 2) k(k 2 1)
0
(k 1)(k + 2)
0
(k 1)(k + 2) k 2 + 1
(1 k)(k + 2)
0
0
k2 1
R1 R1 + R2
0
0
(1 k)(k + 2) (k 1)(k + 1)2
0
(k 1)(k + 2)
0
k1
(1 k)(k + 2)
0
0
k2 1
R2
1
R
(1k)(k+2) 1
1
R
(k1)(k+2) 2
R3
1
R
(1k)(k+2) 3
R1
2
0 0 1 (k+1)
k+2
1
.
0 1 0
k+2
k+1
1 0 0 k+2
1
k+1
(k + 1)2
(x, y, z) =
,
,
.
k+2 k+2 k+2
Esempio 13.2 Studiare, al variare del parametro reale k, il sistema lineare omogeneo:
(1 k)x + y + z = 0
2x + (2 k)y + 2z = 0 .
x + y + (1 k)z = 0
SVOLGIMENTO. Essendo il sistema omogeneo scriviamo solo la matrice incompleta e
applichiamo ad essa il metodo di riduzione dallalto verso il basso.
55
1k
1
1
2
2k
2
1
1
1k
R3 R3 + R2
1k
1 1
R2 R2 2R1
2k
k 0
R3 R3 + (k 1)R1
2
k + 2k k 0
1k
1 1
2k
k 0 = B.
2
k + 4k 0 0
1 1 1
B= 0 0 0
0 0 0
3 1 1
B = 8 4 0 .
0
0 0
Questa matrice risulta ridotta con elementi speciali quello di posto (1, 3) e quello di posto
(2, 2). Riduciamo B verso lalto (si osservi che possiamo eliminare la terza riga di B)
3 1 1
4 0 4
R1 4R1 + R2
8 4 0
8 4 0
R1 14 R1
R2 41 R2
1 0 1
2 1 0
per ogni x R.
Sia ora k 6= 0, 4. Allora k 2 + 4k 6= 0 e B ha tre elementi speciali. In tal caso il sistema,
avendo tre incognite ed essendo omogeneo, ha lunica soluzione banale (0, 0, 0).
Esempio 13.3 Studiare, al variare del parametro reale k, il sistema lineare:
x+y+z =1
kx + y + z = k
.
x y + kz = 2
2x + 3y + z = k 1
SVOLGIMENTO. Scriviamo le matrici completa e incompleta del sistema e applichiamo il
metodo di riduzione dallalto verso il basso in modo da ottenere gli elementi speciali e vedere
quindi, al variare di k R, se esso e possibile o no.
56
1 1 1
1
R2 R2 R1
k 1 1
R3 R3 + R1
1 1 k
2
R4 R4 3R1
2 3 1 k1
1
1
1
1
k1 0
k1
0
=B
2
0 k+1
3
1 0 2 k 5
Se k = 1, B diventa
1
1
1 1 1
1 1 1
0 0 0
0 0 0
0
0
R4 2R4 + R3
2 0 2
3
2 0 2
3
1 0 2 4
0 0 2 5
Quindi, per k = 1, il numero degli elementi speciali coincide con quello delle incognite.
Inoltre gli elementi speciali sono nella matrice incompleta. Pertanto il sistema ha una sola
soluzione. Determiniamola procedendo col metodo di riduzione dal basso verso lalto applicato alla matrice ridotta in cui abbiamo eliminato la seconda riga perch`e formata tutta da
zeri.
1 1 1
1
2 2 0 3
R2 R2 + R3
2 0 2
3
2 0 0 2
R
1 2R1 + R3
0 0 2 5
0 0 2 5
R1 21 R1
0 2 0 4
0 1 0 2
2 0 0 2 R2 21 R2 1 0 0 1 .
0 0 2 5
0 0 1 52
R3 12 R3
R1 R1 R2
1
k1
B=
2
1
2 k k2
1
Allora
1
1
1
0
0
k1
R2 1 R2
k1
0 k+1
3
0 2 k 5
1
1
1
0
0
1
R3 R3 2R2
0
0
k2 1
3 R4 R4 + R2
0 k+1
0 2
k5
57
1
1
0
0
Se k
1
1
0
0
1
1
1
0
0
1
.
0 k+1
1
0 2 k 4
= 1, il sistema e impossibile. Sia k 6= 1, +1. Allora
1
1
1
1
0
0
1
1
R4 (k + 1)R4 + 2R3
0 k+1
0
1
0 2 k 4
0
1
1
1
0
0
1
.
0 k+1
1
2
0
0
k 3k 2
3 17
quesultima riga e ricordando che k = 2 , la matrice diventa
1 1
1
1
k+1 k+1
0
k
1 0
0
1
R1 (k + 1)R1 R3 1
0
0
1
0 0 k+1
1
0
0
k+1 1
0 0
0
k 2 3k 2
1
0 k+1
0
0
0
R1 R1 (k + 1)R2 1
1
0
0
k+1 1
1
0
1
0
1
k+1
R1 R1 k+1 R1
1
1 0 0
1
R3 R3 k+1 R3
1
0 0 1
k+1
2
2
2
2
,
1,
e
1,
.
5 + 17 5 + 17
5 17 5 17
Esempio 13.4 Studiare, al variare del parametro reale k, il sistema lineare:
x + ky t = k
(k + 1)x + y + t = 1 .
2x + y + kt = 2
SVOLGIMENTO. Scriviamo le matrici completa e incompleta del sistema e applichiamo il
metodo di riduzione dallalto verso il basso in modo da ottenere gli elementi speciali e vedere
quindi, al variare di k R, se esso e possibile o no.
1
k 1 k
R2 R2 (k + 1)R1
k+1 1 1 1
R3 R3 2R1
2
1 k 2
58
1
k
1
k
0 k 2 k + 1 k + 2 k 2 k + 1 = B
0
1 2k
k+2
2 2k
Se k = 2, B diventa
1 2 1 2
1 2 1 2
0 1 0 1 R3 R3 + 5R2 0 1 0
1 .
0 5
0
6
0 0
0
1
Quindi per k = 2 il sistema e impossibile.
Sia adesso k 6= 2.
1
k
0 k 2 k + 1
0
1 2k
1
k
0 k 2 k + 1
0
k2 k
Abbiamo
1
k
k + 2 k 2 k + 1 R3 R3 R2
k+2
2 2k
1
k
k + 2 k 2 k + 1 .
0
k2 k + 1
Se k = 0, 1 sia la matrice incompleta che la completa sono ridotte ma la matrice incompleta ha due elementi speciali (per esempio, quelli di posto (1, 1) e (2, 3)) mentre la completa
ha tre elementi speciali (per esempio, quelli di posto (1, 1), (2, 3) e (3, 4)). Quindi per k = 0, 1
il sistema e impossibile.
Se k 6= 0, 1 la matrice incompleta e la completa hanno tre elementi speciali (nei posti
(1, 1), (2, 3) e (3, 2)). Poich`e il sistema ha tre incognite si ha una sola soluzione. Lasciamo
al lettore la determinazione di questa soluzione.
14
Ricordiamo che per il Teorema 10.6, una matrice A di ordine n e invertibile se e solo se esiste
una matrice B di ordine n tale che A B = In , essendo In la matrice identica di ordine n. In
questo paragrafo mostreremo come sia possibile, mediante il metodo di riduzione, verificare
se una matrice A e invertibile e, in tal caso, determinarne linversa.
Esempio 14.1 Determinare leventuale inversa
1 2
1 1
A=
2 1
59
della matrice:
1
1 .
3
x1 x2 x3
B = y1 y2 y3
z1 z2 z3
tale che A B = I3 , cio`e
1 2 1
x1 x2 x3
1 0 0
1 1 1 y1 y2 y3 = 0 1 0
2 1 3
z1 z2 z3
0 0 1
la quale equivale a
x1 + 2y1 z1 x2 + 2y2 z2 x3 + 2y3 z3
1 0 0
x1 + y1 + z1
x2 + y 2 + z 2
x3 + y3 + z3 = 0 1 0 .
0 0 1
2x1 + y1 + 3z1 2x2 + y2 + 3z2 2x3 + y3 + 3z3
(27)
Uguagliando nella (27) la prima, seconda e terza colonna della matrice a primo membro
rispettivamente con la prima, seconda e terza colonna di quella a secondo membro, deduciamo
che A ha inversa se i seguenti tre sistemi lineari
x + 2y z = 1
x + 2y z = 0
x + 2y z = 0
x+y+z =0
x+y+z =1
x+y+z =0
,
,
2x + y + 3z = 0
2x + y + 3z = 0
2x + y + 3z = 1
hanno soluzione. Tali soluzioni, se esistono, costituiscono le tre colonne dellinversa B.
Poich`e i precedenti sistemi differiscono solamente nelle colonne dei termini noti possiamo
risolverli, in modo pi`
u compatto, nel seguente modo. Si riduca per righe la seguente matrice
formata nella prima parte dai coefficienti delle incognite (uguali per tutti e tre i sistemi) e,
nella seconda parte, dalle tre colonne dei termini noti:
1 2 1 1 0 0
R2 R2 + R1
1 1 1 0 1 0
R
3 R3 2R1
2 1 3 0 0 1
1 2 1 1
0 0
0 1 2 1 1 0
0 3 5 2 0 1
1 2 1 1 0 0
0 1 2 1 1 0
0 0 1 1 3 1
1 2 0
0
3 1
0 1 0 1 5 2
0 0 1 1 3 1
R3 R3 + 3R2
R1 R1 R3
R2 R2 2R3
R1 R1 2R2
60
1 0 0
2 7 3
0 1 0 1 5 2 R3 R3
0 0 1 1 3 1
1 0 0 2 7 3
0 1 0 1 5 2 .
0 0 1 1 3 1
Le soluzioni dei tre sistemi sono quindi
(x1 , y1 , z1 ) = (2, 1, 1), (x2 , y2 , z2 ) = (7, 5, 3), (x3 , y3 , z3 ) = (3, 2, 1)
e la matrice inversa della A e
2 7 3
B = 1 5 2 .
1 3 1
1
A=
2
e invertibile se, mediante il metodo di
1
1
2
la matrice
2 1
1 1
1 3
2 1 1 0 0
1 1 0 1 0
1 3 0 0 1
(28)
in modo che la sottomatrice che nella (28) e a sinistra della | (quella coincidente con A)
coincida con la matrice identica. In tal caso, la sottomatrice che otterremo a destra della |
fornisce linversa di A. Nel nostro esempio abbiamo trasformato la (28) nella
1 0 0 2 7 3
0 1 0 1 5 2 ,
0 0 1 1 3 1
pertanto
2 7 3
1 5 2
1 3 1
e linversa di A.
61
Possiamo schematizzare quanto detto nel seguente modo. Sia data la matrice A di ordine
n. Si vuole sapere se essa e invertibile e, al tempo stesso, determinarne linversa (se esiste).
Si pu`o procedere nel seguente modo.
Metodo per determinare leventuale inversa di una matrice A:
1. Si formi la matrice (A | In ), in cui In denota la matrice identica di ordine n.
2. Si applichi il metodo di riduzione a (A | In ) sia dallalto verso il basso che, eventualmente, dal basso verso lalto:
(a) se, mediante il metodo di riduzione, non e possibile trasformare A nella matrice
In allora A non e invertibile;
(b) se, mediante il metodo di riduzione, A viene trasformata in In avremo trasformato
(A | In ) in (In | B). In tal caso A e invertibile e B e la sua inversa.
Esempio 14.2 Determinare linversa della matrice:
1
2 1 0
1 1 3 2
5 0 1
A=
1
4 1 0 0
0
3 0 0
4
0
0
0
0
1
2 1 0 4 1 0 0 0 0
R4 3R4 + R5
1 1 3 2 0 1 0 0 0 0
R3 3R3 5R5
5 0 1 0 0 0 1 0 0
(A | I5 ) =
4 1 0 0 0 0 0 0 1 0 R2 3R2 R5
R1 3R1 2R5
0
3 0 0 0 0 0 0 0 1
3 0 3 0 12 3 0 0 0 2
3 0 9 6 0 0 3 0 0 1 R3 4R3 R4
3 0 0 3 0 0 0 3 0 5 R2 4R2 + R4
12 0 0 0 0 0 0 0 3 1 R 4R R
1
1
4
0 3 0 0 0 0 0 0 0 1
0 0 12 0 48 12 0 0 3 9
0 0 36 24 0 0 12 0 3 3
0 0 0 12 0 0 0 12 3 21 R2 R2 2R3
12 0 0 0 0 0 0 0 3
1
0 3 0 0 0 0 0 0 0
1
62
0
0
0
12
0
0
0
0
12
0
0
0
1
0
0 3 9
0 12 0 48 12 0
0 36 0 0 0 12 24 9
39
0 0 12 0 0 0 12 3 21
R1 3R1 R2
0 0 0 0 0 0
0
3
1
3 0 0 0 0 0
0
0
1
R1 1 R1
144
0 0 0 144 36 12 24 18 66
1
R2 36
R2
0 36 0
0
0 12 24 9
39
0 0 12 0
0
0
12 3 21 R3 12 R3
0 0 0
0
0
0
0
3
1 R4 1 R4
12
3 0 0
0
0
0
0
0
1
R5 31 R1
0 0 0 1 14 12 16 18 11
24
13
0 1 0 0 0 13 23 14
12
1
0 0 1 0 0 0
1 4 74
1
1
0 0 0 0 0 0
0
4
12
1
1 0 0 0 0 0
0
0
3
1
1
1 0 0 0 0 0 0
0
4
12
1
0 1 0 0 0 0 0
0
0
3
1
2
1
13
1
0 0 1 0 0 0
. Pertanto A =
3 4
3
12
0 0 0 1 0 0 0
1 41 74
1
1
1
1
11
0 0 0 0 1 4 2 6 8 24
0
0
0
0
1
4
0
0
1
3
0
12
1
1
0
4
12
1
0
0
3
2
1
13
3 4
12
1 14 74
1
81 11
6
24
1 2 1
A = 1 1 3 .
1 5 5
SVOLGIMENTO. Applichiamo il precedente metodo.
1 2 1 1 0 0
R2 R2 + R1
(A | I3 ) = 1 1 3 0 1 0
R3 R3 R1
1 5 5 0 0 1
1 2 1 1 0 0
1
0 3 4 1 1 0 R3 R3 R2 0
0 3 4 1 0 1
0
2 1 1
0 0
1 0 .
3 4 1
0 0 2 1 1
evidente che A non pu`o mai essere trasformata nella I3 , pertanto non e invertibile.
E
63
Esempio 14.4 Dire per quali valori del parametro reale k la seguente matrice e invertibile
e, per questi, determinarne linversa:
1
k 1
2
1 .
A= 1
1 4 k
SVOLGIMENTO. Applichiamo il precedente metodo.
1
k 1 1 0 0
R2 R2 R1
2
1 0 1 0
(A | I3 ) = 1
R
3 R3 + R1
1 4 k 0 0 1
1
k
1
1 0 0
0 2k
2
1 1 0 R3 2R3 (k 1)R2
0 k4 k1 1 0 1
1
k
1
1
0
0
0
2k
2
1
1
0 .
0 k2 k 6 0 k + 1 1 k 2
Se k 2 k 6 = 0, cio`e k = 2, 3, la matrice non e invertibile.
Sia, per il momento, k = 2. Allora
1
k
1
1
0
0
1 2 1 1
0
0
2k
2
1
1
0 = 0 0
2 1 1
0 k2 k 6 0 k + 1 1 k 2
0 4 0
3 1
2
0
2
5
1
2
R1 2R1 + R3
0 4 2 2 0 2 R3 R3 R2
R2 R2 + R3
0 4 0 3 1 2
0
0
2
2 0 2 5 1 2
2
0
0
4
0
2
R1 R1 R3
0 4 2 2 0 2
0 4 0 3 1 2
R
2 R2 + R3
0 0 2 1 1 0
0 0 2 1 1 0
R1 12 R1
1 0 0 2 0 1
R2 41 R2 0 1 0 43 14 12 .
0 0 1 21 12 0
R3 21 R1
Allora, per k = 2, la matrice A e invertibile e la sua inversa e
2 0 1
3 1 1 .
4
4
2
21 12 0
64
Consideriamo adesso k 6= 2, 2, 3.
1
k
1
1
0
0
0
2k
2
1
1
0 R3 (k 2)R3 + (k 2 k 6)R2
0 k2 k 6 0 k + 1 1 k 2
1
0
0
1
k
1
0 2k
R1 (k 2)R1 + kR2
2
1
1
0
2
0
0
2(k k 6) 4 2(k 4) 2(k 2)
k2
0
k+2
2
k
0
0
2k
2
1
1
0
2
0
0
2(k k 6) 4 2(k 4) 2(k 2)
R1 2(k 2 k 6)R1 (k + 2)R3
R2 (k 2 + k + 6)R2 + R3
0 0 4k 2 + 16 2k 3 4k 2 8k + 16 2k 2 + 8
0 0 k2 k 2
k 2 + 3k 2
2k 4
0 0
4
2k 8
2k 4
(essendo = 2k 3 6k 2 8k + 24, = k 3 3k 2 4k + 12 e = 2k 2 2k 12)
1
R
2(k2)(k2 k6) 1
1
R2 (k2)(k2 k6) R2
1
R3
R3 2(k2 k6)
R1
1 0 0
0 1 0
0 0 1
2(k+2)
k2 k6
k+1
k2 k6
2
k2 k6
k2 4
k2 k6
1k
k2 k6
k4
k2 k6
k2k+2
k6
2
k2 k6
k2
k2 k6
k2 4
k2k+2
k2 k6
k2 k6
k6
1k
2
2k+1
.
k k6
k2 k6
k2 k6
2
k2 k6
15
k4
k2 k6
k2
k2 k6
Teorema di
65
1 10 20 4 3
8
0 5 9 11 2
4
8 7 12 4
8
2
5 9 19 21 3 5
56 1 45 34
0 7
A=
1 10 20 3
8
0 5 9 2
4
5 9 19 3 5 .
56 1 45 0 7
Vogliamo ora definire per ricorrenza una funzione di M (n; K) in K che ad ogni matrice
quadrata A di ordine n associa un elemento det A K, detto il determinante di A.
Passo 1. Sia A = (a11 ) una matrice quadrata di ordine n = 1. In tal caso poniamo
det A = det (a11 ) = a11 .
Passo 2. Sia
A=
a11 a12
a21 a22
det A = det
Passo 3. Sia
a11 a12
a21 a22
66
Definizione 15.2 Sia A = (aij ) una matrice quadrata di ordine n. Per ogni i {1, 2, . . . , n}
e j {1, 2, . . . , m} dicesi complemento algebrico dellelemento aij , e si indica con Aij , il
numero (1)i+j moltiplicato per il determinante del minore complementare dellelemento aij
(si noti che questo minore e una matrice quadrata di ordine n 1 di cui si suppone ne sia
stato definito il determinante).
Per esempio, posto
2 3 1
A = 1 4 0 ,
1 3 5
2 3
2+3
(1) det
= (6 3) = 3.
1 3
Vale, in generale, il seguente teorema di cui omettiamo la dimostrazione.
Teorema 15.1 (Teorema di Laplace) Fissata una linea qualsiasi (riga o colonna) di una
matrice quadrata A di ordine n 2, la somma dei prodotti degli elementi della linea per i
rispettivi complementi algebrici e un valore che e indipendente dalla linea scelta.
In altre parole il teorema precedente afferma che comunque si scelgano due linee differenti
(non necessariamente parallele), la somma dei prodotti degli elementi di una linea per i
rispettivi complementi algebrici e uguale per entrambe le lineee scelte.
Definizione 15.3 (Definizione ricorsiva di determinante) Data una matrice quadrata
A di ordine n 2, si dice determinante di A (e si scrive det A oppure |A|) la somma dei
prodotti di una linea qualsiasi di A per i rispettivi complementi algebrici.
Come esempio facciamo vedere che, quando A ha ordine 2 oppure 3, le definizioni di
det A date ai Pass1 2 e 3 coincidono con quella ricorsiva del Passo 4.
Sia n = 2 e sia
a11 a12
A=
.
a21 a22
Fissata come linea la prima riga abbiamo
a11 a12
= a11 A11 +a12 A12 = a11 (1)1+1 det (a22 )+a12 (1)1+2 det (a21 ) =
det A = det
a21 a22
a11 a12 a12 a21 .
Sia n = 3 e sia
67
a21 a23
a21 a22
1+2
1+3
a12 (1) det
+ a13 (1) det
= a11 (a22 a33 a32 a23 )
a31 a33
a31 a32
a12 (a21 a33 a23 a31 ) + a13 (a21 a32 a31 a22 ) = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 a13 a22 a31
a12 a21 a33 a11 a23 a32 .
Esempio 15.2 Calcolare il det A, essendo
1
0
A=
3
1
2 1 1
0 2 1
.
1 1 0
1 0 0
2 1 1
1 1 1
det A = 3(1)3+1 det 0 2 1 + 1(1)3+2 det 0 2 1 +
1 0 0
1 0 0
1 2 1
1 2 1
1(1)3+3 det 0 0 1 + 0(1)3+4 det 0 0 2 = 3(3) (3) + 1 = 13.
1 1 0
1 1 0
Propriet`
a dei determinanti. Sia A una matrice quadrata di ordine n 2. Allora
1. Se in A esiste una linea con gli elementi tutti nulli, det A = 0.
2. Se si scambiano fra loro di posto due lineee parallele si ottiene una nuova matrice A0
per la quale si ha det A0 = det A.
3. Se in A vi sono due lineee parallele uguali, allora det A = 0.
4. Se si moltiplicano tutti gli elementi di una linea di A per K, si ottiene una nuova
matrice A0 per la quale si ha det A0 = det A.
5. Se in A vi sono due linee parallele proporzionali, allora det A = 0.
68
6. Se gli elementi di una linea di A sono binomi, allora det A = det B + det C, essendo B
e C rispettivamente le matrici ottenute da A sostituendo ad ogni binomio il suo primo
addendo ed il suo secondo addendo.
Per esempio se
a21
a22
a23
A=
a31
a32
a33
si ha
a11 0
0
A = a21 a22 0
a31 a32 a33
1 2 1 3
4 1
2 1
A=
3 1 2 1 .
1 1 0
3
69
1 2 1 3
4 1
2 1
3 1 2 1 R2 R2 R3
1 1 0
3
1 0 1 3
1 0
0
0
C2 C2 2C1
3 7 2 1 .
1 3 0
3
Le matrici ottenute hanno
1 0
1 0
det A = det
3 7
1 3
la colonna i-esima):
1 2 1 3
1 2
0
0
3 1 2 1
1 1 0
3
1 3
0 1 3
0
0
= 1(1)2+1 det 7 2 1 = 6.
2 1
3 0
3
0
3
(29)
Diremo che la matrice A0 e la matrice ridotta in senso stretto della A se A0 pu`o essere
ottenuta dalla A mediante la regola (29).
70
Teorema 15.4 Sia A una matrice quadrata di ordine n e sia A la matrice ridotta in senso
stretto della A. Allora det A = det A.
Dimostrazione. Si veda la propriet`a 7 dei determinanti.
Definizione 15.4 Sia A una matrice m n e sia h min{m, n}. Scelte in A h righe e h
colonne qualsiasi, gli h2 elementi in cui esse si intersecano formano una matrice quadrata
che prende il nome di minore di ordine h della matrice A.
Definizione 15.5 Si dice rango o caratteristica di una matrice A di tipo m n, lordine
massimo dei minori di A aventi determinante diverso da zero. Il rango di A si indica con
r(A).
Dalla propriet`a 10 dei determinanti si ottiene facilmente il seguente risultato.
Teorema 15.5 Il rango di una matrice A coincide con quello della sua trasposta AT .
Sia A una matrice ridotta. Fissati in A gli elementi speciali, sia M il minore ottenuto
prendendo in A gli elementi in cui si intersecano le righe e le colonne passanti per gli elementi
speciali. Allora, per le propriet`a 2 e 8 dei determinanti, det M 6= 0. Per esempio si consideri
la matrice ridotta
3 1 1 2
1 2
0
0
0 0 0 0
5
14 5 5 7
A= 0
.
0 8 14 6 1 0
0
0
0 0 0 0
Si ha
1 3 2
14 7 .
M = 0
0 14 0
1 2 3
M 0 = 0 7 14
0 0 14
che e una matrice triangolare. Pertanto det M = det M 0 = (1) 7 (4) 6= 0.
Teorema 15.6 Il rango di una matrice A coincide col numero degli elementi speciali di una
qualsiasi matrice ridotta dalla A mediante il metodo di riduzione per righe.
71
1 2 3 1
2 4 6 2
A=
3 1 5 2
1 1 1 2
4 2 6 4
1
2
2
1
3
2
4
1
1
2
SVOLGIMENTO. Per il Teorema 15.6, il rango di A coincide col numero degli elementi
speciali di una sua matrice ridotta per righe.
1 2 3 1 1 2
1 2 3 1 1 2
R2 R2 2R1
0 0 0 0 0 0
2 4 6 2 2 4
R3 R3 + 3R1
0 5 14 5 5 7
3 1 5 2 2 1
0 1 4 3 2 3
1 1 1 2 1 1 R4 R4 + R1
R5 R5 + 4R1
0 6 18 8 7 10
4 2 6 4 3 2
1 2
3 1 1 2
0
0
0 0 0 0
R4 7R4 3R3
R6 R6 R3
0
5
14
5
5
7
R5 7R5 10R3
0 8 14 6 1 0
0 8 14 6 1 0
3 1 1 2
1 2
0
0
0 0 0 0
0
. Pertanto il rango di A e 3.
5
14
5
5
7
0 8 14 6 1 0
0
0
0 0 0 0
Si osservi il numero degli elementi speciali di una matrice ridotta A0 coincide col numero
delle sue righe non nulle. Pertanto abbiamo il seguente
Metodo per determinare il rango di una matrice: Il rango di una matrice A e dato
dal numero di righe non nulle di una sua qualsiasi matrice ridotta per righe.
72
A=
1
1
2
0
2
0
7
0
3
1
1
0
0
0
0
0
0
0
0
0
1
0
0
1
0
0
0
2
0
4
1
2
A=
3
4
1 1
2 1
.
1 2
1 1
Determinare una matrice A0 ridotta per colonne della A. Cercare una matrice ridotta per
righe della AT che coincida con (A0 )T .
1 0 0
1 1 1
2 4 1
2 2 1
C2 C2 + C1
A=
3 4 1 C3 4C3 + C2
3 1 2 C3 C3 + C1
4 5 3
4 1 1
73
2
A0 =
3
4
0 0
4 0
dove gli elementi sottolineati sono stati scelti come speciali. Adesso
4 0
5 7
1 2 3 4
1
2
3
4
R2 R2 + R1
AT = 1 2 1 1
0 4 4 5
R
R
+
R
3
3
1
1 1 2 1
0 1 1 3
1 2 3 4
0 4 4 5 .
0 0 0 7
Sia dato il sistema
R3 4R3 + R2
m
X
(30)
i=1
i6=j
e
bj =
m
X
i bi .
(31)
i=1
i6=j
(32)
Supponiamo che (32) abbia infinite soluzioni. Come visto nel Paragrafo 11, applicando
ripetutamente il Teorema 11.3 e possibile ridurre (32) ad un sistema in cui almeno una fra
le sue equazioni (supponiamo la j-esima) coincida con lidentit`a 0 = 0. Questo equivale a
dire che lequazione j-esima di (32) e combinazione lineare delle rimanenti.
74
Teorema 15.8 Sia A M(n; K). Supponiamo che esista una matrice B M(n; K) tale
che A B = In . Allora esiste una matrice C M(n; K) tale che C A = In .
Dimostrazione. Siano
a11 a12
a21 a22
A=
an1 an2
a1n
b11 ab2
a2n
b21 b22
, e B=
ann
bn1 bn2
b1n
b2n
.
bnn
n
X
i=2
i6=j
per ogni (x1 , x2 , . . . , xn ) Kn . Ricordando che (b1j , b2j , . . . , bnj ) e una soluzione del sistema
(j), abbiamo
P
P
1 = a1j b1j +a2j b2j +. . .+anj bnj = ni=2 i (ai1 b1j + ai2 b2j + . . . + ain bnj ) = ni=2 i 0 = 0. Imi6=j
i6=j
possibile, quindi per j = 1, 2, . . . , n il sistem (j) ammette lunica soluzione (b1j , b2j , . . . , bnj ).
Allora, come esplicitamente osservato nel Paragrafo 11, il numero degli elementi speciali della
75
matrice ridotta della A e uguale ad n (in altre parole il rango di A e n). Per i Teoremi 15.5
e 15.6, anche AT ha rango n. Ne segue che esiste una ed una sola matrice Y M(n; K)
tale che AT Y = In (si osservi che li-esima colonna di Y e lunica soluzione del sistema
T
AT Xi = Fi ). Quindi AT Y
= InT = In , da cui Y T A = In . Pertanto la matrice cercata
T
e C = Y .
Il seguente risultato fornisce una formula per calcolare la matrice inversa quando essa
esiste.
Teorema 15.9 Una matrice A di ordine n e invertibile se e solo se det A 6= 0. Posto inoltre
A = (aij ) e A1 = (bij ), si ha
Aji
bij =
det A
essendo Aji il complemento algebrico dellelemento aji di A (si veda la Definizione 15.2).
Esempio 15.6 Sia data la matrice
1 2 4
A = 3 1 2 .
1 1 1
Dire se A e invertibile e, in caso affermativo, determinare linversa A1 .
SVOLGIMENTO. Si ha det A = 11 6= 0. Pertanto A e invertibile. Abbiamo quindi A1 =
(Bij ) essendo:
1
2
2
4
(1)1+1 det
(1)2+1 det
1 1
1 1
3
2
b11 =
= , b12 =
= ,
11
11
11
11
3 2
2 4
(1)1+2 det
(1)3+1 det
1 2
1 1
8
1
b13 =
= , b21 =
= ,
11
11
11
11
1 4
1 4
(1)2+2 det
(1)3+2 det
1 1
3 2
3
10
b22 =
= , b23 =
= ,
11
11
11
11
3 1
1 2
(1)1+3 det
(1)2+3 det
1 1
1 1
4
1
b31 =
= , b32 =
= ,
11
11
11
11
1 2
(1)3+3 det
3 1
7
= .
b33 =
11
11
76
Pertanto
A1
3
2
11
11
1
3
11
= 11
4
11
1
11
8
11
10
11
7
11
a11 a22
a21 a22
A=
an1 an2
a1n
a2n
ann
e detta la matrice incompleta del sistema (33). Per la risoluzione dei sistemi lineari, oltre al
metodo di riduzione illustrato nei paragrafi precedenti, si possono applicare i seguenti due
importanti teoremi di cui omettiamo la dimostrazione.
Teorema 15.10 (Teorema di Cramer). Se det A 6= 0, allora il sistema (33) ha ununica
soluzione data da
det A1 det A2
det An
,
,...,
det A det A
det A
essendo Ai , i = 1, 2, . . . , n, la matrice che si ottiene sostituendo nella matrice incompleta A
del sistema la colonna i-esima con la colonna
b1
b2
bn
dei coefficienti. Per esempio
b1 a22
b2 a22
A1 =
bn an2
77
a1n
a2n
.
ann
a11 a22
a21 a22
B=
am1 am2
a1n b1
a2n b2
amn bm
hanno lo stesso rango. In tal caso, posto r(A) = r(B) = h min{n, m} e indicato con
H un minore di A di ordine h avente determinante diverso da zero, (34) e equivalente
ad un sistema di h equazioni in h incognite avente come equazioni quelle i cui coefficienti
concorrono a formare le righe di H (le altre equazioni si scartano) e come incognite quelle i
cui coefficienti concorrono a formare le colonne di H (le altre incognite si portano a termine
noto). Il sistema cos` ottenuto si pu`o risolvere mediante il Teorema di Cramer.
Esempio 15.7 Studiare, applicando il Teorema di Rouche-Capelli, il sistema lineare:
x 2y + 3z + t = 1
7x 2y + 7z + 2t = 5 .
2x y + z + 3t = 2
SVOLGIMENTO. Come visto nellEsempio 11.10 la matrice incompleta e la matrice completa hanno lo stesso numero di elementi speciali, cio`e hanno lo stesso rango pertanto il sistema
ammette soluzioni. Il massimo ordine di un minore della matrice incompleta A del sistema
assegnato e 3. Infatti il minore formato dalle prime tre colonne di A ha determinante 18.
Quindi, per il Teorema di Rouche-Capelli, il sistema assegnato equivale al seguente
x 2y + 3z = 1 t
7x 2y + 7z = 5 2t
2x y + z = 2 3t
78
1 1t 3
1 2 1 t
1 t 2 3
det 5 2t 2 7 det 5 5 2t 7 det 7 2 5 2t
2 3t 1 1
2 2 3t 1
2 1 2 3t
.
,
,
18
18
18
16
Definizione 16.1 Sia O un punto fissato del piano. Si chiama vettore applicato in O un
segmento orientato OP , dove P e un punto del piano diverso da O.
Se OP e OQ sono entrambi diversi dal vettore nullo ed hanno direzioni pure diverse,
costruiamo il seguente parallelogramma OP RQ
Il vettore OR definisce la somma OP + OQ.
Siano ora OP e OQ due vettori entrambi diversi dal vettore nullo ed aventi la stessa
direzione (cio`e giacenti sulla stessa retta).
quel vettore OR che ha la stessa direzione dei vettori dati, lo stesso verso del
vettore che ha modulo maggiore, e modulo uguale alla differenza dei moduli (il
maggiore meno il minore).
3. Se OP e OQ hanno verso opposto e lo stesso modulo, si definisce OP + OQ il
~
vettore nullo O.
~ il vettore avente la stessa direzione e lo
Definizione 16.4 Dicesi opposto del vettore ~v 6= O
~ = O.
~
stesso modulo di ~v , ma verso opposto. Lopposto di ~v si indica con ~v . Porremo O
Definizione 16.5 Dati due vettori ~v e w
~ si chiama differenza di ~v e w
~ (e si indica con
~v w)
~ il vettore ~v + (w)
~
Si pu`o verificare che linsieme dei vettori applicati in un punto, con loperazione di somma,
risulta essere un gruppo abeliano.
Definizione 16.6 Prodotto di un numero per un vettore.
Siano ~v un vettore non nullo e a R, a 6= 0. Dicesi prodotto di a per ~v il vettore (che
si indica con a~v ) cos` definito:
1. il modulo di a~v e uguale a |a||~v |;
2. la direzione di a~v e quella di ~v ;
80
vx
2. Le componenti di ~v si indicano con vx e vy e scriveremo ~v =
.
vy
p
vx
3. Se ~v =
allora si ha | ~v | = vx2 + vy2 .
vy
Definizione 16.8 Versore. Dicesi versore un vettore di modulo 1.
Quindi ~v e un versore se e solo se vx2 + vy2 . Si ha inoltre che per ogni vettore non nullo ~v
esiste uno ed un solo versore avente la stessa direzione e lostesso verso di ~v , esso e dato da
1
~v , si chiama versore associato a ~v e si indica con vers ~v .
| ~v |
1
0
~
~
I vettori i =
ej=
sono due versori, detti i versori fondamentali del sistema
0
1
di coordinate O~x~y .
81
|| w~v~ ||
|w
~|
| ~v |
se ~v e
se ~v e w
~ hanno verso opposto.
2. ~v //w
~ se e solo se vx wy vy wx = 0.
Esempio 16.1 Siano ~v = 3~i + 4~j e w
~ = 6~i + h~j. Trovare, se esistono, i valori di h R per
cui ~v //w.
~
SVOLGIMENTO. Per la (2) della Proposizione 16.3 deve essere vx wy vy wx = 3h 24 = 0.
Quindi h = 8.
Pi`
u in generale e possibile provare il seguente risultato.
Teorema 16.2 Siano ~u e ~v due vettori non nulli e non paralleli del piano. Allora, comunque
si fissi un vettore w
~ nel piano esiste una ed una sola coppia ordinata (a, b) R2 tale che
w
~ = a~u + b~v .
Vogliamo ora stabilire una condizione necessaria e sufficiente affinch`e due vettori non
nulli del piano siano ortogonali. A tale scopo richiamiamo alcuni importanti risultati della
geometria euclidea.
Teorema 16.3 Teorema di Pitagora. In un triangolo rettangolo, il quadrato costruito
sullipotenusa e equivalente alla somma dei quadrati costruiti sui cateti.
82
Dimostrazione.
LGH in figura.
Entrambi questi quadrati hanno lato uguale a LH + HG. Si osservi inoltre che i triangoli
LHG, GEF , BCE, ABL (contenuti nel primo quadrato) sono equivalenti fra loro, e i
triangoli LHG, LN G, GQR, GRS (contenuti nel secondo quadrato) sono pure equivalenti
2
fra loro. Pertanto LG = As(LBEG) = As(ACF H) As(LHG) As(GEF ) As(BCE)
As(ABL) = As(LP RT ) As(LHG) As(LN G) As(GQR) As(GRS) = As(N P QG) +
2
2
As(HGST ) = LH + HG .
b si ha che
Teorema 16.4 Sia P OQ un triangolo qualsiasi. Posto = P OQ
2
< < .
Dimostrazione.
(Dimostrazione obbligatoria) Se = 2 , allora per il teorema di
2
2
2
b e retto, per il teorema di
Pitagora, P O + QO = P Q . Sia 0 < < 2 . Se langolo P QO
2
2
2
2
2
b non sia
Pitagora abbiamo P Q = OP OQ < OP + OQ . Supponiamo ora che P QO
retto. Allora si ha uno dei due casi mostrati nella figura seguente
83
Siano ~v = OP e w
~ = OQ due vettori non nulli e non paralleli. Langolo in O del triangolo
OP Q (non orientato e di misura in radianti compreso fra 0 e ) si chiama langolo formato
dai due vettori non nulli ~v e w
~ e si denota col simbolo ~vc
w.
~
1. |~v |2 + |w|
~ 2 > |~v w|
~ 2 se e solo se 0 ~vc
w
~ < 2 ;
2. |~v |2 + |w|
~ 2 = |~v w|
~ 2 se e solo se ~vc
w
~ = 2 ;
3. |~v |2 + |w|
~ 2 < |~v w|
~ 2 se e solo se
~vc
w
~ .
~
~
facilmente. Sia ora ~v 6= O e w
~ 6= O. Posto ~v = OP e w
~ = OQ si ha |~v w|
~ = P Q e il
risultato segue dal Teorema 16.4.
0
~ =
Convenendo che il vettore nullo O
pu`o essere considerato sia parallelo che
0
ortogonale ad un qualsiasi altro vettore w,
~ il seguente corollario e conseguenza immediata
del Teorema 16.5 e della definizione di modulo di un vettore.
vx
wx
Corollario 16.1 Siano ~v =
ew
~=
. Allora
vy
wy
1. 0 ~vc
w
~<
2. ~vc
w
~=
3.
se e solo se vx wx + vy wy > 0;
se e solo se vx wx + vy wy = 0;
~vc
w
~ se e solo se vx wx + vy wy < 0.
vx
wx
Definizione 16.10 Prodotto scalare. Siano ~v =
ew
~=
due vettori del
vy
wy
piano. Dicesi prodotto scalare o prodotto interno di ~v e w
~ il numero reale ~v w
~ cos` definito:
wx
~v w
~ = vx vy
= vx wx + vy wy .
wy
Teorema 16.6 Si ha
~v w
~ = |~v ||w|
~ cos ~vc
w.
~
vx
wx
Dimostrazione. Poniamo ~v = OP =
e w
~ = OQ =
. Nel caso in cui
vy
wy
~ e w
~
uno dei due vettori e nullo il teorema segue facilmente. Supponiamo ~v 6= O
~ 6= O.
85
b
b
c~
c~ c
b c~
Si ha vx = |~v | cos ~v~i, vy = |~v | sin ~v~i, wx = |w|
~ cos w
~ i, wy = |w|
~ sin w
~ i e ~v w
~ = ~v~i w
~ i. Quindi
b c~
b
c~
b
c~ vx wx +vy wy
cos ~vc
w
~ = cos(~v~i w
~ i) = cos ~v~i cos w
~ i + sin ~v~i sin w
~ i = |~v||w|
, da cui la tesi.
~
Si osservi che questo risultato si pu`o ottenere come conseguenza del teorema di Carnot.
Infatti, considerando il triangolo OP Q, si ha P Q = |~v w|
~ e, per il teorema di Carnot,
|~v w|
~ 2 = |~v |2 + |w|
~ 2 2|~v ||w|
~ cos ~vc
w,
~
cio`e
da cui la tesi.
Si osservi che, nel corso della dimostrazione del precedente teorema, e stata ottenuta la
seguente rilevante uguaglianza per due vettori non nulli ~v e w:
~
cos ~vc
w
~=
~v w
~
vx wx + vy wy
p
=p 2
.
|~v ||w|
~
vx + vy2 wx2 + wy2
(35)
< ~vc
w
~ .
17
Analogamente ai vettori applicati del piano possiamo definire i vettori applicati dello spazio. Omettiamo di ripetere (perch`e del tutto equivalenti) le definizioni di vettore applicato,
vettore nullo, uguaglianza fra vettori, somma di vettori, vettore opposto, prodotto di uno
scalare per un vettore.
1
~i = 0 ,
0
0
~j = 1 ,
0
0
~k = 0 .
1
87
~v w
~
vx wx + vy wy + vz wz
p
.
=p 2
| ~v || w
~|
vx + vy2 + vz2 wx2 + wy2 + wz2
In particolare ~v e w
~ sono ortogonali se e solo se vx wx + vy wy + vz wz = 0.
Definizione 17.1 Coseni direttori. Sia ~v un vettore non nullo. Si dicono coseni direttori
di ~v i coseni che ~v forma con gli assi coordinati. Abbiamo quindi
vx
,
vx2 + vy2 + vz2
b
cos ~v~i = p
b
cos ~v~j = p
vx2
c
cos ~v~k = p
vx2
vy
,
+ vy2 + vz2
vz
.
+ vy2 + vz2
Corollario 17.1 La somma dei quadrati dei coseni direttori di un vettore non nullo e uguale
ad 1.
Definizione 17.2 Prodotto vettoriale. Siano ~v e w
~ due vettori. Dicesi prodotto vettoriale di ~v e w
~ il vettore ~v w
~ coincidente col vettore nullo se ~v e w
~ sono paralleli oppure, se
non sono paralleli, con il vettore avente modulo uguale a | ~v || w
~ | sin ~vc
w,
~ direzione ortogonale
al piano individuato da ~v e w
~ e verso come indicato nella seguente figura
88
Si osservi che, se ~v e w
~ sono non nulli, il verso di ~v w
~ e determinato dalla Regola della
mano sinistra: si dispongano le tre dita della mano sinistra pollice, indice e medio in modo
che lindice sia ortogonale al piano formato dal pollice e dal medio. Se il pollice indica il
verso di ~v e il medio quello di w,
~ allora lindice indicher`a il verso di ~v w.
~
Si ha
~i
~j
~k
~i
~
O
~k
~j
~j
~k
~
O
~i
~k
~j
~i
~
O
2. (a~v ) w
~ = a(~v w)
~ e ~v (aw)
~ = a(~v w).
~
3. ~v (w
~ + ~u) = ~v w
~ + ~v ~u e (~v + w)
~ ~u = ~v ~u + w
~ ~u.
4. ~v w
~ = (w
~ ~v ).
Si noti che, in generale, il prodotto vettoriale non gode della propriet`a associativa.
Teorema 17.2 Siano ~v = vx~i + vy~j + vz~k e w
~
~i
~v w
~ = vx
wx
~j ~k
vy vz .
wy wz
vx vy
vx vz
vy vz
~
~
~
~i
~v w
~ = (vx~i + vy~j + vz k) (wx~i + wy~j + wz k) =
wx wz j + wx wy =
wy wz
~i ~j ~k
= vx vy vz .
wx wy wz
Definizione 17.3 Prodotto misto. Dicesi prodotto misto dei tre vettori ~u, ~v e w
~ (e si
denota con ~u ~v w),
~ il numero reale che si ottiene facendo il prodotto scalare fra ~u e ~v w.
~
Se almeno uno dei tre vettori e nullo oppure se ~v //w
~ allora ~u ~v w
~ = 0. Si ha inoltre
Teorema 17.3 Il prodotto misto ~u ~v w
~ e uguale a zero se e solo se i tre vettori sono
complanari.
Teorema 17.4 Se ~u = ux~i + uy~j + uz~k, ~v = vx~i + vy~j + vz~k e w
~ = wx~i + wy~j + wz~k, allora
ux uy u z
~u ~v w
~ = vx vy vz .
wx wy wz
18
Vettori liberi
Un vettore libero e un segmento orientato libero di muoversi nello spazio senza cambiare
lunghezza, direzione e verso. Se AB e un segmento orientato da A a B, esso rappresenta
un vettore libero. Un altro segmento CD orientato da C a D rappresenta lo stesso vettore
libero se e solo se i due segmenti giacciono su rette parallele (o sulla stessa retta), hanno la
stessa lunghezza e sono orientati concordemente.
90
vettore OP applicato in O.
Il modulo di un vettore libero e la lunghezza di uno qualunque dei segmenti che lo
rappresentano.
Si faccia attenzione a non confondere il vettore libero P O col vettore applicato in O,
OP , che lo rappresenta.
Per effettuare una qualunque operazione con i vettori liberi basta applicarli in uno stesso
punto, effettuare la corrispondente operazione fra i vettori applicati, e prendere il risultato
ottenuto convenendo che, se il risultato e un vettore, bisogna considerarlo come libero. Vale
inoltre la seguente proposizione.
Proposizione 18.1 Regola della poligonale. Per sommare due o pi`
u vettori liberi,
~v1 , ~v2 , . . . , ~vn (n 2, si scrive ~v1 = P1 P0 , ~v2 = P2 P1 , . . ., ~vn = Pn Pn1 , e si
91
somma formalmente
~v1 + ~v2 + . . . + ~vn = (P1 P0 ) + (P2 P1 ) + . . . + Pn Pn1 = Pn P0 .
Se ~v = B A e un vettore libero con A (x1 , y1 , z1 ) e B (x2 , y2 , z2 ), le componenti
del vettore libero ~v sono
vx = x2 x1 ,
Risulta
| ~v | = |AB| =
19
vy = y2 y1 ,
vz = z2 z1 .
a
un vettore ortogonale ad r. Un punto P (x, y) del piano appartiene ad r se
b
e solo se il vettore P P0 e ortogonale a ~v . Cio`e se e solo se
~v (P P0 ) = 0.
(36)
x x0
a b
= 0,
y y0
a(x x0 ) + b(y y0 ) = 0,
ax + by ax0 by0 = 0.
ove, posto c = ax0 by0 , si ha
ax + by + c = 0 con (a, b) 6= (0, 0),
(37)
rappresentano una stessa retta, allora esiste un numero reale k 6= 0 tale che a0 = ka,
b0 = kb e c0 = kc.
Se b 6= 0, la (37) pu`o scriversi
a
c
y = x ,
b
b
c
a
la quale, posto m = b e n = b , diventa
y = mx + n
e viene detta lequazione esplicita della retta.
Caso 2: Equazioni parametriche della retta. Sia
r la
retta passante per il punto P0
l
(x0 , y0 ) e parallela al vettore non nullo w
~ =
= l~i + m~j. Il punto P (x, y)
m
appartiene adr se e solo
~ cio`eP P
~ (vedasi Proposizione 16.3).
se P P0 //w,
0 = tw
x x0
tl
Quindi si ha
= P P0 = tw
~=
, da cui
tm
y y0
x = x0 + lt
,
(38)
y = y0 + mt
dette le equazioni parametriche di r. Si osservi che, per t = 0, il punto P coincide con
P0 .
Per passare dalla rappresentazione parametrica a quella cartesiana di r basta eliminare
il parametro t tra le (38). Cio`e:
0
0
(1) Se l 6= 0 e m 6= 0 si ha t = xx
e t = yy
e quindi lequazione cartesiana di r e
l
m
x x0
y y0
=
.
l
m
(2) Se l = 0 e quindi, essendo w
~ 6= 0, m 6= 0 le (38) diventano
x = x0
,
y = y0 + mt
da cui lequazione cartesiana di r e x = x0 .
(3) Se m = 0 e quindi l 6= 0 si ha, analogamente al caso precedente, la seguente
equazione cartesiana
y = y0 .
Viceversa il passaggio dalla rappresentazione cartesiana alla parametrica si pu`o fare
nel seguente modo. Essendo ~v = a~i + b~j ortogonale ad r, w
~ = b~i + (a)~j e ortogonale
~ e parallelo ad r. Inoltre:
a ~v (vedasi (35)). Quindi w
93
x = bt
.
y = cb at
(2) Se a 6= 0, allora P0 ( ac , 0) e un punto della retta r di rappresentazione cartesiana
ax + by + c = 0 e, in tal caso, le equazioni parametriche di r sono
x = ac + bt
.
y = at
Caso 3: Retta r per i due punti distinti
A (x1 , y1 ) e B (x2 , y2 ). Un vetto
x2 x1
re parallelo ad r e w
~ = BA =
. Quindi r ha le seguenti equazioni
y2 y1
paramentriche
x = x1 + t(x2 x1 )
,
y = y1 + t(y2 y1 )
dalle quali si pu`o ricavare, col procedimento descritto sopra, lequazione cartesiana.
Quindi lequazione della retta r passante per i due punti distinti A (x1 , y1 ) e B
(x2 , y2 ) e:
xx1
x2 x1
yy1
y2 y1
se x2 x1 6= 0 e y2 y1 6= 0;
x = x1 se x2 x1 = 0 (quindi y2 y1 6= 0);
y = y1 se y2 y1 = 0 (quindi x2 x1 6= 0).
Riassumendo lequazione della retta del piano passante per i due punti distinti A
(x1 , y1 ) e B (x2 , y2 ) e
x y 1
x1 y1 1 = 0.
x2 y2 1
La seguente tabella riassume le condizioni di parallelismo e perpendicolarit`a fra due rette
r e r0 .
94
RETTE
r) ax + by + c = 0
a
b
r0 ) a0 x + b0 y + c0 = 0
r) ax + by + c = 0
r0 )
r)
r)
a
b
x = x0 + lt
y = y0 + mt
x = x0 + lt
y = y0 + mt
//
a0
b0
cio`e
a
b
ab0 a0 b = 0
`
ORTOGONALITA
PARALLELISMO
l
m
x = x00 + l0
y = y00 + m0
l
m
//
l0
m0
a0
b0
cio`e
aa0 + bb0 = 0
cio`e
a
b
al + bm = 0
//
l
m
cio`e
am bl = 0
cio`e
lm0 ml0 = 0
l
m
l0
m0
cio`e
ll0 + mm0 = 0
Esempio
19.1 Scrivere lequazione della retta r passante per P0 (1, 3) e parallela a
2
w
~=
.
1
SVOLGIMENTO. Si ha
da cui (eliminando t)
x1
2
x = 1 + 2t
,
y = 3 + t
= y + 3.
Esempio 19.2 Scrivere lequazione della retta s passante per P0 (1, 3) ed ortogonale a
~v = (2, 1). Scrivere le equazioni parametriche di s.
x1
SVOLGIMENTO. Si ha ~v (P P0 ) = 0, 2 1
= 0. Quindi lequazione di s
y+3
e 2(x 1) + y + 3 = 0. Per trovare le sue equazioni parametriche basta scrivere la precedente
95
x1=t
,
y+3
=t
2
da cui
x=1+t
y = 3 2t
Esempio 19.3 Scrivere lequazione della retta r passante per i punti A (1, 3) e B
(1, 4).
SVOLGIMENTO. I due punti hanno la stessa ascissa. Quindi r ha equazione x = 1.
Esempio 19.4 Determinare lintersezione fra le due rette distinte r) ax + by + c = 0 e
s) a0 x + b0 y + c0 = 0.
SVOLGIMENTO. Lintersezione fra r ed r0 e data dallinsieme dei punti P le cui coordinate
sono soluzioni del sistema lineare
ax + by + c = 0
.
(39)
a 0 x + b0 y + c0 = 0
a
0
0
Supponiamo dapprima che ab a b = 0, cio`e che il vettore ~v =
(ortogonale ad r) e
b
0
a
parallelo al vettore w
~ =
(ortogonale ad r0 ). In tal caso il sistema (39) o ha infinite
b0
soluzioni oppure e impossibile (si veda il Teorema 15.11). Pi`
u precisamente, posto
a b
a b c
A=
e B=
,
a 0 b0
a0 b0 c0
si ha, nella nostra ipotesi, r(A) = 1 (vedasi Definizione 15.5). Se anche r(B) = 1 il sistema
(39) ha infinite soluzioni e quindi r coincide con r0 . Se r(B) = 2, (39) e impossibile, quindi
r r0 = . In entrambi i casi diremo che r e r0 sono parallele.
Sia ora ab0 a0 b 6= 0. Per il teorema di Cramer 15.10, (39) ha una ed una sola soluzione.
Essa fornisce le coordinate dellunico punto intersezione fra le rette r ed r0 .
Teorema 19.1 La distanza fra il punto P0 (x0 , y0 ) dalla retta r di equazione ax + by +
cz + d = 0 e data da
|ax0 + by0 + c|
d(P0 , r) =
.
a 2 + b2
Se b 6= 0 lequazione della retta r)ax + by + c = 0 pu`o essere scritta nella forma esplicita
a
c
y = x .
b
b
Il numero m = ab dicesi coefficiente angolare di r. Se b = 0 r non ha coefficiente angolare.
Si pu`o dimostrare che m = tan essendo langolo fra il semiasse positivo delle ascisse
e la retta r rappresentato in figura:
96
20
(40)
(42)
con parametro arbitrario non nullo. Le (42) sono le coordinate omogenee di uno stesso
punto (proprio o improprio) del piano. Quindi due rette distinte hanno sempre un solo punto
a comune di cui le (42) sono le coordinate omogenee.
Se ab0 a0 b 6= 0 le due rette si incontrano nel punto proprio di coordinate non omogenee
bc0 b
0 c a0 cac0
,
, e le due rette si dicono incidenti.
ab0 a0 b ab0 a0 b
Se invece ab0 a0 b = 0 il punto comune alle due rette e improprio. Ed allora, se una delle
rette, per esempio r0 , e la retta impropria, esse si incontrano, come abbiamo visto, nel punto
improprio (b, a, 0) della retta r.
Se entrambe le rette sono proprie, la condizione ab0 a0 b = 0 e la condizione di parallelismo
ed in tal caso, ponendo a0 = a e b0 = b, il sistema (41) ammette la soluzione (b, a, 0).
In conclusione due rette distinte e proprie si incontrano in uno e un sol punto, che e
improprio se e solo se le rette sono parallele.
Siano date le due rette distinte r ed r0 , di equazioni omogenee rispettivamente ax0 + by 0 +
ct0 = 0 e a0 x0 + b0 y 0 + c0 t0 = 0. Definiamo fascio di rette individuato da r e r0 la totalit`a delle
98
rette la cui equazione si ottiene facendo una combinazione lineare delle equazioni delle due
rette con e parametri non entrambi nulli:
(ax0 + by 0 + ct0 ) + (a0 x0 + b0 y 0 + c0 t0 ) = 0.
(43)
Per individuare una retta del fascio bisogna fissare e a meno di un fattore di poporzionalit`a (cio`e bisogna fissare o oppure ).
Talvolta e utile scrivere lequazione del fascio usando un solo parametro. Per esempio se
6= 0 (43) pu`o scriversi, posto = h,
(ax0 + by 0 + ct0 ) + h(a0 x0 + b0 y 0 + c0 t0 ) = 0.
Questa equazione contiene tutte le rette del fascio ad eccezione della retta
a0 x0 + b0 y 0 + c0 t0 = 0.
Si pu`o dimostrare che le rette del fascio individuato dalle rette (distinte) r ed r0 sono
tutte e sole le rette passanti per il punto P = r r0 . In particolare se P e un punto proprio
allora le rette del fascio sono tutte e sole le rette passanti per esso, detto centro del fascio;
se P e improprio allora r ed r0 sono parallele e le rette del fascio sono tutte le rette parallele
alle rette date.
In coordinate non omogenee possiamo scrivere che lequazione del fascio di rette passanti
per P0 (x0 , y0 ) e (x x0 ) + (y y0 ) = 0 per ogni , R con 2 + 2 6= 0. Mentre
lequazione del fascio di rette parallele alla retta ax + by + c = 0 e ax + by + = 0 per ogni
R.
Esempio 20.1 Trovare, se esistono, le equazioni delle rette s passanti per P0 (1, 1) e
che formano con gli assi un triangolo di area assegnata uguale a 21 .
SVOLGIMENTO. La retta s, qualora esista, appartiene al fascio
(x + 1) + (y 1) = 0.
Poich`e s interseca entrambi gli assi cartesiani possiamo scrivere la precedente equazione nel
seguente modo
k(x + 1) + y 1 = 0
ove si e posto k =
1k
, 0).
k
1 k
|OA||OB|
1
.
= |1 k|
2
2
k
99
Abbiamo quindi
1 k 1
1
= ,
|1 k|
2
k 2
(1 k)2
= 1,
k
(1 k)2
= 1,
|k|
k 2 2k + 1 = |k|
3 5
k=
.
2
Per k =
3+ 5
2
otteniamo i punti
Per k =
3 5
2
!
1+ 5
0,
,
2
otteniamo i punti
!
1 + 5
A 0,
,
2
1 5
,0 .
3+ 5
1 + 5
,0 .
3 5
21
Due segmenti corrispondenti sotto lazione di una traslazione oltre ad essere uguali sono
pure paralleli (sono equipollenti).
Se ~v 6= 0, tv non ha punti fissi, mentre ogni retta parallela a ~v e fissa.
Fissato nel piano il sistema di riferimento cartesiano ortogonale O~x~y e posto ~v = (a, b),
la traslazione piana tv : R2 R2 fa corrispondere al punto P (x, y) il punto P1 (x1 , y1 )
tale che x1 = x + a e y1 = y + b. Convenendo di rappresentare sia i vettori che le coordinate
di un punto come vettori colonna, possiamo scrivere
x+a
a
x
x1
x1
=
, essendo ~v =
.
= tv
, ovvero
y1
y+b
b
y1
y
101
x1
x
a
=
+
.
(44)
y1
y
b
2
Esempio 21.1 Sia ~v =
e sia r la retta di equazione 3x + 2y = 12. Determinare
0
lequazione della retta traslata di r sotto lazione di tv o, in altre parole, lequazione di tv (r).
SVOLGIMENTO. Si ha
tv
da cui
x
y
x1
y1
x1 = x + 2
,
y1 = y
x+2
y
x = x1 2
,
y = y1
scriverelequazione
4+2
0
4
, A1
,B
passante per i punti A1 e B1 . Per esempio si ha A
0+0
6
0
0+2
. Lequazione della retta passante per A1 e B1 e
e B1
6+0
x6
y
= , ovvero 3x + 2y = 18.
4
6
1
Esempio 21.2 Sia ~v =
e sia r la retta di equazione 2x + 3y = 6. Determinare
3
lequazione della retta traslata di r sotto lazione di tv o, in altre parole, lequazione di tv (r).
SVOLGIMENTO. Procediamo come nellEsempio 21.1. Si ha
x+1
x
x1 1
x1
=
=
=
.
y1
y+3
y
y1 3
Quindi lequazione di tv (r) e
2(x1 1) + 3(y1 3) = 6,
102
2x + 3y = 17.
Risolviamo lo stesso esercizio usando il secondo metodo. Due punti distinti di r sono:
3
0
A
, B
.
0
2
I traslati di A e B sono
3+1
0+3
0+1
2+3
a
x
x1
Proposizione 21.2 Siano ~v =
e P1 = tv (P ). Posto P
e P1
, si
b
y
y1
ha
x
x1 a
=
.
(45)
y
y1 b
Come usualmente considerato in trigonometria, un angolo orientato e langolo generato
dalla rotazione di una semiretta intorno alla propria origine; viene convenzionalmente considerato positivo se la rotazione avviene in verso antiorario, negativo in caso contrario. La
semiretta di partenza e quella di arrivo si chiamano primo e secondo lato dellangolo.
Rotazione di centro un punto P0 ed angolo . La rotazione di centro P0 ed angolo e
quellapplicazione P0 , : R2 R2 che ad ogni punto P R2 associa il punto P1 = P0 , (P )
tale che |P0 P | = |P0 P1 | e P\
P0 P1 = .
Si osservi che, sotto lazione di P0 , , lunico punto fisso e P0 mentre si hanno rette fisse
se e solo se e un multiplo di , in tal caso esse sono tutte
le rette per P0 .
0
Cominciamo col considerare il caso in cui P0 O
(rotazione attorno allorigine).
0
x
Sia P
e supponiamo che la retta OP formi un angolo con lasse delle ~x. Vogliamo
y
determinare le coordinate del punto P1 = O, (P0 ). Per semplicit`a supponiamo > 0 e che i
punti P e P1 si trovino nel primo quadrante (si veda la figura seguente). Allo stesso risultato
si perviene anche negli altri casi.
103
x1 = |OH| = |OP | cos( + ) = |OP | cos cos |OP | sin sin = x cos y sin
y1 = |HP1 | = |OP | sin( + ) = |OP | sin cos + |OP | cos sin = x sin + y cos
e quindi
x1
y1
cos sin
sin cos
x
y
(46)
x
y
x1
di un punto P del piano, le coordinate
del punto P1 ottenuto ruotando attorno
y1
allorigine P di un angolo (si ricordi che il verso positivo delle rotazioni e quello antiorario)
sono date dalla (46).
x1
Consideriamo adesso il problema inverso: siano noti langolo e le coordinate
y1
del punto P1 = O, (P ). Quali sono le coordinate di P ?
x
x1
Proposizione 21.3 Sia P1 = O, (P ). Posto P
e P1
, si ha
y
y1
x
cos sin
x1
.
(47)
=
y1
y
sin cos
x
y
x
y
in funzione di
cos sin
sin cos
104
x1
y1
x1
y1
, abbiamo
cos sin
cos sin
=
.
sin cos
sin cos
Infatti si ha
cos sin
sin cos
cos sin
sin cos
1 0
0 1
Si osservi che lapplicazione rappresentata dalla (47) si ottiene applicando una rotazione
di alla (46) e cambiando il nome alle variabili. Quindi la (47) e lapplicazione inversa
della (46).
Esempio 21.3 Sia r la retta di equazione x + y = 1. Scrivere lequazione della retta s
ottenuta applicando a r una rotazione di centro lorigine e angolo = 4 .
Ricordando la (47), abbiamo
x
y
sin
cos
sin 4 cos
da cui
x1
y1
x=
22 x1
y=
2
x
2 1
2
y
2 1
2
2
2
y
2 1
2
2
2
2
2
2
x1
y1
Sostituendo nellequazione
di r otteniamo 2y1 = 1. Quindi, cambiando nome alle variabili,
lequazione di s e y = 22 .
Un altro procedimento per risolvere lesercizio consiste nel fissare due punti distinti A, B
r, calcolare le coordinate dei punti A0 = O, 4 (A) e B 0 = O, 4 (B) e, infine, scrivere
lequazione della retta passante per
A0 e B 0 . Essa coincide con lequazione della retta s
0
1
eB
. Per la (46), si ha
cercata. Siano per esempio A
0
1
!
2 !
2
2
cos
1
sin
1
4
4
2
2
2
=
A0
=
,
2
2
2
0
sin 4 cos 4
0
2
B0
cos 4 sin 4
sin 4 cos 4
0
1
2
.
2
105
2
2
2
2
22
2
2
0
1
22
2
2
!
.
x
cos 6 sin 6
x1
2
=
=
y
sin 6 cos 6
y1
12
da cui
x=
y=
3
x
2 1
+ 21 y1
12 x1
1
2
3
2
x1
y1
3
y
2 1
x0
Consideriamo adesso il caso generale di una rotazione di centro P0
. Sia
y0
x
x1
P
un punto generico del piano. Vogliamo ricavare le coordinate
del punto
y
y1
P1 = P0 , (P ). Procediamo nel seguente modo:
x0
1. Applichiamo una traslazione di ~v =
, in tal modo i punti P0 e P vengono
y0
x x0
traslati rispettivamente nellorigine e nel punto Q
.
y y0
2. Applichiamo una rotazione di centro O P0 ed angolo (si veda la (46)). Allora Q
viene ruotato nel punto
cos sin
x x0
R
.
sin cos
y y0
x1
x0
3. Il punto cercato P1
si ottiene traslando R di un vettore ~v =
,
y1
y0
x1
cos sin
x x0
x0
=
+
.
(48)
y1
sin cos
y y0
y0
Procedendo in modo analogo alla Proposizione 21.3, si dimostra il seguente risultato.
x0
e langolo . Se P1 = P0 , (P ), con
Proposizione 21.4 Siano dati il punto P0
y
0
x
x1
, allora
P
e P1
y1
y
x0
x
cos sin
x1 x0
.
(49)
+
=
y0
y1 y0
y
sin cos
106
x
y
cos
sin
sin 4 cos
da cui
x1 3
y1 4
x=
2
x
2 1
y=
3
4
2
y
2 1
8 2
2
2
y
2 1
2
2
67 2
2
2
x
2 1
2
2
2
2
2
2
x1 3
y1 4
3
4
+
+
Sostituendo nellequazione di r
otteniamo 2y1 + 7 4 2 = 0. Quindi, cambiando nome
alle variabili, lequazione di s e 2y + 7 4 2 = 0.
Esempio 21.6 Sia r la retta di equazione 2x 3y = 1. Scrivere lequazione della retta s
ottenuta applicando a r una rotazione di centro P0 (1, 2) e angolo = 6 .
Ricordando la (49), abbiamo
x
y
cos
sin
sin 6 cos
da cui
x1 1
y1 2
x=
y=
3
x
2 1
12 x1
1
2
+ 12 y1
3
y
2 1
3
2
12
1
2
3
2
x1 1
y1 2
1
2
3
2
52 3
2
+
+
317
cambiando nome alle variabili, lequazione di s e (2 3 + 3)x + (2 3 3)y + 4 3 17 = 0.
x
x
,
Unapplicazione f : R R si dice lineare se per ogni
R2 e per ogni
y
y
, R si ha
x
x
x
x
f
+
= f
+ f
.
y
y
y
y
x
x
cos sin
x + x
O,
+
=
=
y
y
sin cos
y + y
cos sin
x
cos sin
x
x
x
=
+
= O,
+O,
.
sin cos
y
sin cos
y
y
y
107
Si verifichi che, se P0 6=
0
0
x1
1 0
x
=
(50)
y1
0 1
y
Consideriamo ora il caso generale di una retta r passante per il punto P0 (x0 , y0 ) e
formante un angolo col semiasse positivo delle ~x. Per ottenere le coordinate di P1 = r (P )
applichiamo, nellordine, le seguenti isometrie:
x0
1. La traslazione del vettore ~v =
si ha
y0
x
x x0
P
Q1
.
y
y y0
Si osservi che con la precedente applicazione P0 viene traslato nellorigine e la retta r
nella retta r0 parallela ad r e passante per lorigine.
2. La rotazione di centro lorigine ed angolo . Per la (46), essendo cos() = cos e
sin() = sin , abbiamo
cos sin
x x0
Q1 Q2
.
y y0
sin cos
Si osservi che, come risultato della precedente rotazione, r0 e coincide con lasse delle
~x.
3. La riflessione nellasse ~x (si veda (50)
1 0
cos sin
x x0
.
Q2 Q3
y y0
0 1
sin cos
4. La rotazione di centro lorigine ed angolo
cos sin
1 0
cos sin
x x0
,
Q3 Q4
y y0
sin cos
0 1
sin cos
108
cos 2 sin 2
x x0
Q4
.
sin 2 cos 2
y y0
x0
5. La traslazione di ~v =
y0
cos 2 sin 2
x x0
x0
Q4 Q5
+
.
sin 2 cos 2
y y0
y0
Si osservi che Q5 coincide col punto P1 cercato.
x0
In conclusione la riflessione nella retta r passante per P0
e formante un angolo
y0
col semiasse positivo delle ascisse si pu`o rappresentare nel seguente modo
x1
cos 2 sin 2
x x0
x0
=
+
.
(51)
y1
sin 2 cos 2
y y0
y0
Dalla (51), procedendo in modo analogo alla Proposizione 21.3, segue il seguente risultato.
Proposizione 21.5 Sia r la retta passante per il punto P0 (x0 , y0 ) e formante un angolo
col semiasse positivo delle ~x. Siano (x1 , y1 ) le coordinate del punto P1 = r (P ). Allora le
coordinate (x, y) di P sono date da
x
cos 2 sin 2
x1 x0
x0
=
+
.
(52)
y
sin 2 cos 2
y1 y0
y0
Si osservi che, cambiando nome alle variabili, la (51) e la (52) coincidono. Questo risultato
era facilmente prevedibile in quanto la composizione di due riflessioni (ovviamente entrambe
nella stessa retta r) e lidentit`a. Si pu`o provare che r e lineare se e solo se r passa per
lorigine.
Esempio 21.7 Sia s la retta di equazione 2x 3y = 1. Scrivere lequazione della retta s0
ottenuta applicando ad s una riflessione nella retta r di equazione x + y = 1.
1
Sia langolo che r forma col semiasse positivo delle ascisse. Posto P0
, per la (52),
0
abbiamo
x
cos 2 sin 2
x1 1
1
=
+
.
y
sin 2 cos 2
y1 0
0
109
cos 2 =
2 tan
= 1.
1 + tan2
sin 2 =
Quindi
x
y
y1 + 1
x1 + 1
2
r,
Sia langolo che la retta r forma col semiasse positivo delle ascisse. Posto P0
1
per la (52), abbiamo
cos 2 sin 2
x1 2
2
x
=
+
.
sin 2 cos 2
y1 + 1
1
y
La retta r ha coefficiente angolare m = 23 . Pertanto tan = 23 e
cos 2 =
sin 2 =
Quindi
s)
x
y
1 tan2
5
= ,
2
1 + tan
13
12
2 tan
= .
2
1 + tan
13
5
(x1 2) 12
(y + 1) + 2
13
13 1
12
5
13 (x1 2) 13 (y1 + 1) 1
12
12
5
5
(x1 2) (y1 + 1) 2 (x1 2) (y1 + 1) 1 = 1.
13
13
13
13
x0
y0
x x0
positivo delle ascisse. Sia ~v =
il vettore della glissoriflessione. Allora, dovendo
y y0
essere ~v parallelo ad r, deve accadere che o x = x0 se r e parallela allasse ~y , oppure
yy0
= tan se r non e parallela allasse ~y .
xx0
Applicando opportunamente la (51) e la (45) si determinano le due rappresentazioni
della glissoriflessione a seconda che supponiamo r,v = tv r oppure r,v = r tv . Abbiamo
rispettivamente
x1
cos 2 sin 2
x x0
x
P1
=
+
,
(53)
y1
sin 2 cos 2
y y0
y
x1
cos 2 sin 2
x + x 2x0
x0
P1
=
+
.
(54)
sin 2 cos 2
y1
y + y 2y0
y0
Si osservi che la (53) e la (54), avendo i primi membri uguali, devono avere pure i secondi
membri uguali. Vale infatti la seguente proposizione.
Proposizione 21.6 Il secondo membro della (53) e uguale al secondo membro della (54).
x
verifichino le seguenti condizioni:
Dimostrazione. Possiamo supporrre che e
y
1. 0 < (si ricordi che e langolo che la retta r forma con il semiasse positivo delle
ascisse);
x
x
0
~ cio`e
~ la glissoriflessione coinciderebbe con la
2. ~v 6= O,
6=
(se ~v = O
y0
y
riflessione nella retta r);
3. x = x0 se = 2 (caso in cui r e parallela allasse ~y ) oppure
(caso in cui r non e parallela allasse ~y ).
yy0
xx0
= tan se 6=
Provare che
x x0
cos 2 sin 2
x
cos 2 sin 2
x + x 2x0
x0
+
=
+
sin 2 cos 2
y y0
y
sin 2 cos 2
y + y 2y0
y0
equivale a provare la seguente uguaglianza
cos 2 sin 2
x x0
x x0
=
.
sin 2 cos 2
y y0
y y0
Abbiamo i seguenti casi
111
(55)
1 0
0
0
=
,
0 1
y y0
y y0
che e banalmente verificata.
Caso 2: = 0. Allora y y0 = 0 e la (55) equivale a
1 0
x x0
x x0
=
,
0 1
0
0
che e banalmente verificata.
Caso 3: 6= 0, 2 . Allora la (55) equivale a
(x x0 ) cos 2 + (y y0 ) sin 2 = x x0
,
(x x0 ) sin 2 (y y0 ) cos 2 = y y0
.
2
yy
2
2
cos sin + 2 xx00 sin cos = 1
.
xx0
2 yy0 sin cos cos2 + sin2 = 1
Ricordando infine che
yy0
xx0
= tan , abbiamo
sin
sin cos = 1
cos2 sin2 + 2 cos
2 cos
sin cos cos2 + sin2 = 1
sin
Dalle (53) e (54), procedendo in modo analogo alla Proposizione 21.3, segue il seguente
risultato.
Proposizione 21.7 Sia r la retta passante per il punto P0 (x0 , y0 ) e formante un angolo
col semiasse positivo delle ~x. Siano (x1 , y1 ) le coordinate del punto P1 = r,v (P ). Allora
le coordinate (x, y) di P sono date da
x
cos 2 sin 2
x1 x
x0
,
(56)
=
+
y0
y
sin 2 cos 2
y1 y
112
o, equivalentemente,
x
cos 2 sin 2
x1 x0
2x0 x
+
=
.
y
sin 2 cos 2
y1 y0
2y0 y
(57)
3
~v =
.
3
La retta r ha
m = 1.
coefficiente
angolare
Pertanto
tan = 1, cos 2 = 0 e sin 2 = 1.
x0
1
x x0
Posto P0
=
r e ~v =
, abbiamo
y0
0
y y0
x1
3
=
,
y
3
da cui x = 2 e y = 3. Per la (56),
1
x1 + 2
0 1
x
,
+
=
0
y1 3
1 0
y
da cui
x = y1 + 4
.
y = x1 2
0 1
x1 1
4
x
=
+
,
1 0
y1
3
y
pervenendo allo stesso risultato.
Una similitudine e unapplicazione f del piano in se che conserva i rapporti fra le distanze: esiste cio`e una costante k > 0 tale che per ogni coppia di punti P e Q del piano si
ha d(f (P ), f (Q)) = |f (P )f (Q)| = k|P Q| = kd(P, Q). La costante k si dice rapporto di
similitudine. Ovviamente ogni isometria e una similitudine ma non viceversa.
Proposizione 21.8 Sia f una similitudine nel piano con rapporto k. Allora:
f e unapplicazione biunivoca e continua;
f manda rette in rette;
113
x0
Proposizione 21.10 Lomotetia di centro C
e rapporto fa corrispondere al
y0
x
x1
punto P
il punto P1
definito dalla seguente legge
y
y1
x1
0
x x0
x0
=
+
.
(58)
y1
0
y y0
y0
0
Dalla (58) segue subito che unomotetia di centro O
e unapplicazione lineare.
0
Proposizione 21.11 Sia f : R2 R2 una generica similitudine. Allora lespressione
analitica di f e
cos sin
x
x1
x
=
+
(59)
y1
sin cos
y
y
114
oppure
x
cos sin
x
=
+
sin cos
y
y
x
per un opportuno angolo e un opportuno vettore
.
y
22
x1
y1
(60)
a
0
b
0 un vettore ad esso ortogonale. Un punto P (x, y, z) appartiene
~v =
6=
c
0
a se e solo se
~v (P P0 ) = 0,
cio`e
a(x x0 ) + b(y y0 ) + c(z z0 ) = 0.
Questultima equazione e detta lequazione cartesiana del piano ed e equivalente alla
seguente
ax + by + cz + d = 0, a2 + b2 + c2 > 0.
Caso 2: Equazione vettoriale del piano. Siano P0 (x0 , y0 , z0 ), P1 (x1 , y1 , z1 ),
P2 (x2 , y2 , z2 ), tre punti non allineati dello spazio. Allora esiste un unico piano
passante per essi. Esso pu`o vedersi come il piano per P0 ortogonale al vettore
~v = (P1 P0 ) (P2 P0 ) (che non e nullo, essendo i tre punti non allineati). Pertanto
si ha
(P P0 ) (P1 P0 ) (P2 P0 ) = 0
che e lequazione vettoriale
115
= 0.
1
Esempio 22.1 Siano ~v = 2 e P0 (2, 0, 3). Lequazione del piano passante per
1
x2
P0 e ortogonale a ~v e 1 2 1 y = 0, ovvero x 2 + 2y (z 3) = 0.
z3
Esempio 22.2 Siano P0 (2, 0, 3), P1 (1, 1, 0) e P2 (0, 1, 0). Il piano passante per
questi tre punti ha equazione
x2
y
z 3
1 2 1 0 0 3 = 0.
02 10 03
Parallelismo ed ortogonalit`
a fra piani. I due piani distinti ) ax + by + cz +d =0 e
a
0
0
0
0
0
b e
) a x + b y + c z + d = 0 sono paralleli se e solo se i due vettori associati ~v =
c
0
a
w
~ = b0 (ortogonali rispettivamente a e 0 ) sono paralleli. Cio`e
c0
~
// 0 ~v = w
~ ~v w
~ = O.
I piani e 0 sono ortogonali se e solo se
~v w
~ aa0 + bb0 + cc0 = 0.
Equazioni parametriche di una
retta.
La retta r dello spazio passante per il punto
l
P0 (x0 , y0 , z0 ) e parallela a ~v = m e il luogo dei punti P (x, y, z) dello spazio tali
n
che P P0 e parallelo a ~v . Cio`e
P P0 = t~v ,
x x0
lt
y y0 = mt ,
z z0
nt
x = x0 + lt
y = y0 + mt
z = z0 + nt
che sono dette le equazioni parametriche di r. Le componenti (l, m, n) si chiamano i parametri
direttori.
116
Equazioni della retta passante per due punti. Siano A (x1 , y1 , z1 ) e B (x2 , y2 , z2 )
due punti distinti
e sia r la retta passante per essi. Un vettore parallelo ad r e
dello spazio
x2 x1
~v = B A = y2 y1 . Le equazioni parametriche di r sono pertanto
z2 z1
x = x1 + t(x2 x1 )
y = y1 + t(y2 y1 ) .
(61)
z = z1 + t(z2 z1 )
Se x1 6= x2 , y1 6= y2 e z1 6= z2 dalle (61) si ricavano le seguenti equazioni di r
x x1
y y1
z z1
=
=
.
x2 x1
y2 y1
z2 z1
Se x1 = x2 , y1 6= y2 e z1 6= z2 si ha
r)
x = x1
yy1
=
y2 y1
zz1
z2 z1
Se x1 = x2 , y1 = y2 e z1 6= z2 si ha
r)
x = x1
,
y = y1
ax + by + cz + d = 0
r)
.
a0 x + b0 y + c0 z + d0 = 0
117
2
Esempio 22.3 Siano ) 2x y + z 1 = 0 e 0 ) x z = 0. Poich`e i due vettori 1
1
2x y + z 1 = 0
r)
.
xz =0
Per determinare un vettore ~v parallelo ad r basta scrivere le sue equazioni parametriche. Nel
nostro esempio, posto z = t abbiamo
y = 3t 1
x=t
r)
z=t
1
3 .
Quindi ~v =
1
Proposizione 22.1 Siano dati i piani e e le rette r ed s. Inoltre sia
~v un vettore ortogonale ad ,
w
~ un vettore ortogonale a ,
~u un vettore parallelo ad r,
~q un vettore parallelo ad s.
Allora
~ oppure esiste k 6= 0 tale che ~v = k w;
1. // se e solo se ~v //w,
~ cio`e ~v w
~ =O
~
2. se e solo se ~v w,
~ cio`e se e solo se ~v w
~ = 0;
~ oppure esiste k 6= 0 tale che ~v = k~q;
3. r//s se e solo se ~u//~q, cio`e se e solo se ~u ~q = O
4. r s se e solo se ~u ~q, cio`e se e solo se ~u ~q = 0;
5. //r se e solo se ~v ~u, cio`e se e solo se ~v ~u = 0;
~ oppure esiste k 6= 0 tale che
6. r se e solo se ~v //~u, cio`e se e solo se ~v ~u = O
~v = k~u.
Intersezione di una retta e un piano. Siano un piano e r una retta. Consideriamo
r. Si hanno tre casi:
118
x = x0 + lt
y = y0 + mt .
z = z0 + nt
(62)
x = x0 + lt
x = x00 + l0 t0
y = y00 + m0 t0
y = y0 + mt
r)
s)
z = z00 + n0 t0
z = z0 + nt
(con lavvertenza di chiamare in modo diverso i paramentri nelle due rappresentazioni).
119
x0 + lt = x00 + l0 t0
y0 + mt = y00 + m0 t0 .
z0 + nt = z00 + n0 t0
Se r s e come nel caso 1, il sistema precedente e risolubile con una sola soluzione
(t0 , t00 ). I valori di t0 e t00 , sostituiti rispettivamente al posto di t e di t0 nelle equazioni
di r ed s, forniscono le coordinate del punto intersezione fra le due rette. Nei casi 2
e 3 il sistema non ha soluzioni. Nel caso 4 il sistema ha infinite soluzioni (con una
incognita libera).
Angolo fra due rette. Langolo fra due rette dello spazio e langolo formato da due vettori
non nulli paralleli rispettivamente alle due rette (si noti che si definisce langolo fra due rette
anche se queste non sono incidenti).
Ovviamente,
esse
formano anche langolo .
Angolo fra due piani. Langolo fra due piani e langolo formato da due vettori non nulli
ortogonali ai due piani. Se i due piani
langolo allora essi formano pure
langolo
formano
a
a0
. Pertanto, indicato con ~v = b il vettore ortogonale al piano e con w
~ = b0
c
c0
il vettore ortogonale al piano , si ha
c =
cos
Angolo fra una retta ed un piano non ortogonali. Langolo fra una retta r ed un
piano non ortogonali e dato dallangolo acuto che r forma con la sua proiezione ortogonale
su , e quindi e il complementare dellangolo che unvettore
non nullo parallelo
ad r forma
l
a
con un vettore ortogonale ad . Pertanto se ~v = m //r e w
~ = b , si ha
n
c
c
sin rc
= |cos~v w|,
~ da cui
sin rc
=
|al + bm + cn|
.
a2 + b2 + c2 l2 + m2 + n2
120
23
Analogamente alle coordinate omogenee nel piano introdotte nel paragrafo 20, si possono
introdurre le coordinate omogenee di un punto P nello spazio. Se P (x, y, z), allora le
coordinate omogenee di P sono date da una qualsiasi quaterna (x0 , y 0 , z 0 , t0 ) tale che t0 6= 0 e
0
0
0
x = xt0 , y = yt0 e z = zt0 .
Il punto P (x0 , y 0 , z 0 , 0), con x0 2 + y 0 2 + z 0 2 > 0, e detto punto improprio dello spazio.
Se ax + by + cz + d = 0 e lequazione del piano , allora
ax0 + by 0 + cz 0 + dt0 = 0
(63)
l
Se ~v = m e parallelo ad r, le sue componenti sono le prime tre coordinate del punto
n
0
a
a
0
b
b0 sono ortogonali rispettivamente
improprio di r. Infatti i vettori w
~=
ew
~ =
c
c0
ai piani ax0 + by 0 + cz 0 + dt0 = 0 e a0 x0 + b0 y 0 + c0 z 0 + d0 t0 = 0, quindi sono ortogonali a r e al
vettore ~v . Pertanto
w
~ ~v = al + bm + cn = 0,
w
~ 0 ~v = a0 l + b0 m + c0 n = 0.
Ci`o vuol dire che l, m e n soddisfano la seconda e terza equazione del sistema (64) e quindi
sono le prime tre coordinate del punto improprio di r.
121
Esempio 23.1 Determinare il punto improprio della retta r passante per i due punti P1
(1, 0, 2) e P2 = (0, 2, 1).
SVOLGIMENTO. La retta r ha equazioni
x1
y0
z2
=
=
,
01
20
1 2
da cui si ottengono le equazioni parametriche
x=1t
y = 2t
.
z = 2 3t
1
Il vettore ~v = 2 e parallelo a r. Quindi il suo punto improprio e (1, 2, 3, 0).
3
Esempio 23.2 Scrivere
lequazione del piano passante per il punto P0 (2, 0, 1) ed ortoxy =0
.
gonale alla retta r)
2x + z + 1 = 0
SVOLGIMENTO. Per determinare le componenti del vettore ~v parallelo ad r e sufficiente
scrivere le sue equazioni parametriche:
x=t
y=x
y=t
.
, r)
r)
z = 2x 1
z = 2t 1
1
Quindi ~v = 1 . Lequazione del piano cercato si ottiene scrivendo lequazione del
2
piano passante per P0 ed ortogonale al vettore ~v :
x2
1 1 2 y 0 = 0,
z (1)
1(x 2) + 1(y 0) 2(z + 1) = 0,
x + y 2z 4 = 0.
Proposizione 23.1 La retta r e parallela alla retta r0 se e solo se hanno lo stesso punto
improprio (si ricordi che in effetti un punto improprio (a, b, c, 0), a2 + b2 + c2 > 0, individua
le infinite quaterne (ka, kb, kc, 0) al variare di k R).
Il piano e parallelo al piano se e solo se le loro rette improprie coincidono.
122
.
a 2 + b2 + c2
x=t
y=t .
Esempio 23.3 Calcolare la distanza fra il punto P0 (6, 0, 0) e la retta r)
z = 2t
SVOLGIMENTO. Il piano passante per P0 ed ortogonale ad r e dato da
x6
1 1 2 y 0 = 0.
z0
Quindi
) x + y + 2z 6 = 0.
Per trovare il punto P1 = r sostituiamo nellequazione di i valori di x, y e z dati nelle
equazioni di r: t + t + 2(2t) 6 = 0, da cui t= 1, quindi P
e la proiezione
1 (1, 1, 2)
ortogonale di P0 su r. Si ha d(P0 , r) = |P0 P1 | = 25 + 1 + 4 = 30.
123
Esempio 23.4 Trovare lequazione della retta r passante per P0 (2, 0, 1) ed ortogonale
al piano ) 2x + y 3z + 2 = 0.
2
SVOLGIMENTO. Il vettore ~v = 1 e ortogonale ad , quindi ~v //r. Allora lequazione
3
di r coincide con quella della retta passante per P0 e parallela a ~v . Cio`e
x = 2 + 2t
y = 0 + 1t
r)
.
z = (1) + (3)t
xy =0
e il piano ) x + y 2z 1 = 0.
2x + z + 1 = 0
Provare che r e si intersecano in un punto P0 . Determinare inoltre le equazioni della retta
s passante per P0 e il punto Q (2, 0, 1).
Esempio 23.5 Siano dati la retta r)
xy =0
2x + z + 1 = 0
.
x + y 2z 1 = 0
x=1+t
y = t
Esempio 23.6 Nello spazio siano assegnati il punto P0 (1, 1, 0), la retta r)
z = 3 + 2t
e il piano ) x y + 4 = 0. Trovare, se esistono, la o le equazioni delle rette parallele ad ,
passanti per P0 ed incidenti r.
SVOLGIMENTO. Nel nostro esempio si vede subito che P0 6 , P0 6 r e r non e parallela ad
. Pertanto esiste una sola retta s parallela ad ed incidente r. Essa si ottiene intersecando
il piano passante per P0 e contenente la retta r con il piano passante per P0 e parallelo
ad .
x+y1=0
Piano . Si scrive lequazione del fascio di piani per r)
2y + z 3 = 0
(x + y 1) + (2y + z 3) = 0.
124
1 1 0 y (1) = 0,
z0
da cui x y 2 = 0.
Lequazione della retta s e cos
xy2=0
.
5x + 3y z 2 = 0
x=1+t
y = t
Esempio 23.7 Nello spazio siano assegnati il punto P0 (2, 1, 5), la retta r)
z = 3 + 2t
e il piano ) x y + 4 = 0. Trovare, se esistono, la o le equazioni delle rette parallele ad ,
passanti per P0 ed incidenti r.
SVOLGIMENTO. Nel nostro esempio si vede subito che P0 6 , P0 r (infatti se nelle
equazioni parametriche di r si pone t = 1 si ottengono le coordinate di P0 ) e r non e
parallela ad . Pertanto ogni retta s parallela ad e passante per P0 (quindi incidente r
in P0 ) e una soluzione del nostro problema. Essa si ottiene intersecando il piano passante
per P0 e parallelo ad con un
qualunque piano del fascio di piani contenente r.
1
Piano . Essendo 1 ortogonale ad , otteniamo che lequazione di e
0
1 1 0 y + 1 = 0,
z5
da cui x y 3 = 0.
Fascio di piani contenenti r: (x + y 1) + (2y + z 3) = 0.
Al variare di , R, con 2 + 2 > 0, otteniamo una retta s soluzione del nostro
problema
xy3=0
.
(x + y 1) + (2y + z 3) = 0
125
x=1+t
y = t
Esempio 23.8 Nello spazio siano assegnati il punto P0 (1, 1, 0), la retta r)
z = 3 + 2t
e il piano ) 3x + 5y + z + 7 = 0. Trovare, se esistono, la o le equazioni delle rette parallele
ad , passanti per P0 ed incidenti r.
SVOLGIMENTO.Nel nostro
esempio si vede subito che P0 6 ,
P0 6
r e r e parallela ad
1
3
(infatti il vettore 1 parallelo ad r e ortogonale al vettore 5 che e ortogonale ad
2
1
).
Leventuale soluzione s del nostro problema, dovendo essere parallela ad , deve giacere
sul piano passante per P0 e parallelo ad . Inoltre s deve essere incidente r, quindi
r 6= . Questo contraddice il fatto che ed r sono paralleli. Quindi il nostro problema
non ha soluzioni.
a
a0
A=
a
a0
b
b0
b
b0
c
c0
c
c0
d
d0
.
d
d0
Allora
1. r ed s sono complanari se e solo se det A = 0;
2. r ed s sono sghembe se e solo se det A 6= 0.
Dimostrazione. Le equazioni omogenee delle rette date sono
0
0
ax + by 0 + cz 0 + dt0 = 0
ax + by 0 + cz 0 + dt0 = 0
r)
, s)
.
0 0
0 0
0 0
0 0
ax +by +cz +dt =0
a0 x0 + b0 y 0 + c0 z 0 + d0 t0 = 0
Lintersezione r s si ricava dallo studio del seguente sistema lineare omogeneo (nelle
incognite x0 , y 0 , z 0 , e t0 )
0
ax + by 0 + cz 0 + dt0 = 0
a0 x0 + b0 y 0 + c0 z 0 + d0 t0 = 0
.
(65)
ax0 + by 0 + cz 0 + dt0 = 0
0 0
0
a x + b0 y 0 + c0 z 0 + d0 = 0
126
x = x0 + lt
x = x00 + l0 t
y = y0 + mt ed s)
y = y00 + m0 t
r)
z = z0 + nt
z = z00 + n0 t
due rette sghembe. Allora esiste una ed una sola retta p, ortogonale sia ad r che ad s, che le
interseca entrambe. Se P0 e Q0 sono i punti intersezione di p con r e con s rispettivamente,
la distanza |P0 Q0 | si chiama distanza fra r ed s.
La retta p si trova nel seguente modo: si considerano il punto generico P (x0 + lt, y0 +
mt, z0 + nt) di r e il punto generico Q (x00 + l0 t0 , y00 + m0 t0 , z00 + n0 t0 ) di s (nota che nelle
coordinate di Q abbiamo cambiato nome alla variabile t)
e si impone
al vettore
0 P Q di
l
l
m0 . Quindi
m
essere ortogonale sia ad r che a s, cio`e ai due vettori ~v =
ew
~ =
n0
n
abbiamo il sistema (nelle variabili t e t0 )
(P Q) ~v = 0
.
(P Q) w
~ =0
Esso ammette ununica soluzione (t0 , t00 ). Quindi P0 (x0 + lt0 , y0 + mt0 , z0 + nt0 ) e Q0
(x00 + l0 t00 , y00 + m0 t00 , z00 + n0 t00 ).
Esempio 23.9 Siano date le rette
x=t
y=t
r)
z = 1 + 2t
x=t
y = 2t .
ed s)
z = t
1 1 0 0
2 0 1 1
= 3 6= 0,
2 1
0 0
1 0
1 0
127
t t0
r ed s sono sghembe. Supposti P r e Q s, abbiamo P Q = t + 2t0 . I vettori
0
2t 1 + t
1
1
1
2 . Quindi
paralleli ad r ed s sono rispettivamente ~v =
e (w
~=
2
1
(P Q ~v = 0
(P Q) w
~ =0
diventa
che ha lunica soluzione 13 , o . Quindi P0 13 , 31 , 13 e Q0 (0, 0, 0). Da cui
3
d(r, s) = |P0 Q0 | =
.
3
La retta p che incontra ortogonalmente r ed s e la retta passante per P0 e Q0 . Cio`e
x = 13 t
y = x = 13 t .
p)
z = x = 13 t
Condizione di allineamento fra tre punti. I tre punti (in coordinate omogenee) P
(x0 , y 0 , z 0 , t0 ), P1 (x01 , y10 , z10 , t01 ) e P2 (x02 , y20 , z20 , t02 ) sono allineati se e solo se la matrice
0
x y0 z0 t
x01 y10 z10 t01
x02 y20 z20 t02
ha rango minore od uguale a 2.
24
Spazi vettoriali
: KV
V,
tali che
(u, v)
u+v
(, u)
u = u
129
130
25
Sottospazi Vettoriali
x1 + 3y1 4z1 = 0
.
x2 + 3y2 4z2 = 0
Sommando membro a membro abbiamo
(x1 + 3y1 4z1 ) + (x2 + 3y2 4z2 ) = 0,
x1 + x2 + 3(y1 + y2 ) 4(z1 + z2 ) = 0.
Da cui u + v = (x1 + x2 , y1 + y2 , z1 + z2 ) W e la 1 della Definizione 25.1 risulta provata.
Sia u W . Allora x1 + 3y1 4z1 = 0. Moltiplicando questultima equazione per R,
abbiamo x1 + 3y1 4z1 = 0. Essendo u = (x1 , y1 , z1 ) = (x1 , y1 , z1 ) W e la 2
della Definizione 25.1 risulta provata.
Esempio 25.2 Siano V = R3 e K = R. Sia W = {(x, y, z) | (x, y, z) R3 e x + 3y 4z =
2}. Verificare se W e un sottospazio vettoriale di R3 .
SVOLGIMENTO. Siano u = (3, 1, 1) e v = (6, 0, 1). Si verifica immediatamente che u, v
W . Poich`e u + v = (9, 1, 2) e 9 + 3 1 4 2 = 4 6= 2, la 1 della Definizione 25.1 risulta falsa.
Pertanto W non e un sottospazio vettoriale di W .
Si osservi che linsieme W descritto nellEsempio 25.2 non pu`o essere un sottospazio
vettoriale di V perch`e o 6 W . Come mostra il seguente esempio, o W V non implica
necessariamente che W sia un sottospazio vettoriale di V .
131
2x1 y1 + z1 = 0
x1 + 3y1 4z1 = 0
.
2x2 y2 + z2 = 0
x2 + 3y2 4z2 = 0
Siano , R3 . Dal sistema precedente segue
2x1 y1 + z1 = 0
x1 + 3y1 4z1 = 0
,
2x
2 y2 + z2 = 0
x2 + 3y2 4z2 = 0
e quindi
2(x1 + x2 ) (y1 + y2 ) + z1 + z2 = 0
.
x1 + x2 + 3(y1 + y2 ) 4(z1 + z2 ) = 0
132
Dimostrazione.
(Dimostrazione facoltativa) Per n = 1 lasserto segue dalla 2 della
Definizione 25.1. Per n = 2 lasserto segue dal Teorema 25.1. Sia n = 3. Allora 1 u1 +2 u2
W (perch`e il caso n = 2 `e stato provato), quindi per il Teorema 25.1 si ha (1 u1 + 2 u2 ) +
3 u3 W , da cui lasserto per n = 3. Cos` procedendo si prova il corollario per ogni n N,
n 4.
Teorema 25.2 Siano V uno spazio vettoriale su K e siano W1 e W2 due suoi sottospazi
vettoriali. Allora W1 W2 e un sottospazio vettoriale di V .
Dimostrazione. (Dimostrazione obbligatoria) Si osservi innanzitutto che, essendo
o W1 W2 , si ha W1 W2 6= . Siano u, v W1 W2 e , K. Allora u, v W1 e
u, v W2 e quindi, essendo W1 e W2 sottospazi vettoriali, u + v W1 e u + v W2 .
Cio`e u + v W1 W2 . Per il Teorema 25.1, si ha la tesi.
Nel seguente teorema mostriamo che, in generale, non vale per lunione di due sottospazi
un teorema analogo al Teorema 25.2.
Teorema 25.3 Sia V uno spazio vettoriale sul campo K. Siano W1 e W2 due sottospazi
vettoriali di V . Condizione necessaria e sufficiente affinch`e W1 W2 sia un sottospazio
vettoriale di V `e che W1 W2 oppure W2 W1 .
Dimostrazione. (Dimostrazione obbligatoria) Necessit`a. Supponiamo che W1 W2
sia un sottospazio vettoriale di V , W1 6 W2 e W2 6 W1 . Allora esistono u, v V tali che
u W1 , u 6 W2 , v W2 , v 6 W1 . Essendo u, v W1 W2 e avendo supposto che W1 W2
sia un sottospazio vettoriale, si ha u + v W1 W2 . Quindi u + v W1 oppure u + v W2 .
Se u + v W1 , per ogni , K si ha (u + v) + u W1 . Da cui, posto = 1 e = 1,
u + v u W1 . E ci`o contraddice il supposto v 6 W1 . Se u + v W2 , per ogni , K si
ha (u + v) + v W2 . Da cui, posto = 1 e = 1, u + v v W2 . E ci`o contraddice
il supposto u 6 W2 .
Sufficienza. Supponiamo W1 W2 (oppure W2 W1 ) allora W1 W2 = W2 (oppure
W1 W2 = W1 ). Quindi W1 W2 `e sottospazio di V .
Definizione 25.2 Sia V uno spazio vettoriale sul campo K. Dicesi combinazione lineare
dei vettori u1 , u2 , . . . , un V a coefficienti nel campo K ogni vettore del tipo 1 u1 + 2 u2 +
. . . + n un con 1 , 2 , . . . , n K.
Definizione 25.3 Sia V uno spazio vettoriale sul campo K e sia A = {u1 , u2 , . . . , un }
V . Dicesi Span(A) (spanning dellinsieme A) linsieme di tutte le combinazioni lineari dei
vettori u1 , u2 , . . . , un a coefficienti nel campo K. Cio`e
Span(A) = {1 u1 + 2 u2 + . . . + n un | 1 , 2 , . . . , n K}.
133
134
Dimostrazione. (Dimostrazione facoltativa) La prima parte del teorema e immediata conseguenza della Definizione 25.3. Proviamo la seconda parte. Si ha Span({u1 , u2 , . . . , un1 })
Span({u1 , u2 , . . . , un1 , un }). Infatti per ogni (n1)-upla 1 , 2 , . . . , n1 di elementi di K si
ha 1 u1 +2 u2 +. . .+n1 un1 = 1 u1 +2 u2 +. . .+n1 un1 +0un Span({u1 , u2 , . . . , un1 , un }).
Proviamo ora che Span({u1 , u2 , . . . , un1 , un }) Span({u1 , u2 , . . . , un1 }). Per ogni nupla 1 , 2 , . . . , n di elementi di K si ha 1 u1 + 2 u2 + . . . + n1 un1 + n un = 1 u1 +
2 u2 + . . . + n1 un1 + n (1 u1 + 2 u2 + . . . + n1 un1 ) = (1 + n 1 )u1 + (2 + n 2 )u2 +
. . . + (n1 + n n1 )un1 + Span({u1 , u2 , . . . , un1 }).
Caratterizzazioni di un sottospazio vettoriale finitamente generato. Alla luce degli
Esempi 25.1, 25.4 e 25.5 possiamo concludere che un sottospazio lineare finitamente generato
W dello spazio vettorale V sul campo K pu`o essere caratterizzato nei tre modi seguenti:
1. Mediante la, o le, sue equazioni (si vedano gli Esempi 25.1 e 25.4). Se W coincide
con tutto lo spazio V oppure con {o} (il sottospazio contenente
il solo vettore nullo)
x=0
y=0 .
le equazioni diventano, rispettivamente, 0x + 0y + 0z = 0 e
z=0
2. Mediante la descrizione dei suoi punti.
Come abbiamo visto nellEsempio 25.5 il vettore u = (3y + 4z, y, z) descrive il
sottospazio W di R3 la cui equazione e x + 3y 4z = 0.
Il sottospazio W dellEsempio 25.4 coincide con linsieme dei vettori u = (x, 2x, 74 x) al
variare di x R.
3. Mediante un insieme A di suoi generatori. Cio`e producendo un sottoinsieme A
di vettori di V tali che Span(A) = W (si veda lEsempio 25.5).
Determiniamo un insieme di generatori per il sottospazio W dell Esempio 25.4. Poich`e
u = (x, 2x, 47 x), per ogni x R, descrive i vettori di W abbiamo u = (x, 2x, 74 x) =
x(1, 2, 74 ). Pertanto W = Span({(1, 2, 74 )}).
Esempio 25.6 Siano V = R3 e K = R. Siano u1 = (1, 2, 5), u2 = (2, 4, 0), u3 = (1, 0, 1)
e u4 = (4, 8, 10). Determinare le equazioni di W1 = Span({u1 }), W2 = Span({u1 , u2 }),
W3 = Span({u1 , u2 , u3 }) e W4 = Span({u1 , u2 , u4 }).
SVOLGIMENTO. Determiniamo W1 = Span({u1 }). Il vettore u = (x, y, z) W1 se e
solo se esiste R tale che u1 = u o, equivalentemente, (1, 2, 5) = (x, y, z). Cio`e
u = (x, y, z) W1 se e solo se il seguente sistema (nella incognita e avente x, y e z come
termini noti) ammette soluzioni
=x
2 = y .
5 = z
Pertanto
135
1 x
x
1
R2 R2 2R1
2 y
0 y 2x .
R
3 R3 + 5R1
5 z
0 z + 5x
Il sistema associato a questultima matrice ha soluzioni se e solo se
y 2x = 0
.
z + 5x = 0
(66)
1 + 22 = x
21 + 42 = y .
51 + 02 = z
Pertanto
1 2 x
x
1 2
2 4 y R2 R2 2R1 0 0 y 2x .
5 0 z
5 0
z
Il sistema associato a questultima matrice ha soluzioni se e solo se
y 2x = 0.
(67)
1 + 22 + 3 = x
21 + 42 + 03 = y .
51 + 02 + 3 = z
Pertanto
136
1 2 1 x
x
1 2 1
R2 R2 2R1
2 4 0 y
0 0 2 y 2x
R
3 R3 + 5R1
5 0 1 z
0 10 6 z + 5x
1 2 1
x
R3 R3 + 3R2 0 0 2
y 2x .
0 10 0 z + 3y x
Il sistema associato a questultima matrice ha per ogni terna (x, y, z), fissata arbitrariamente in R3 , una ed una sola soluzione. Pertanto W = R3 . In tal caso, non essendoci alcun
legame fra x, y e z, non si puo parlare di equazioni fra questi parametri, o, se proprio si
vuole, si ha 0x + 0y + 0z = 0.
Determiniamo W4 = Span({u1 , u2 , u4 }). Il vettore u = (x, y, z) W4 se e solo se esistono
1 , 2 , 3 R tali che 1 u1 + 2 u2 + 3 u4 = u oppure, equivalentemente, 1 (1, 2, 5) +
2 (2, 4, 10) + 3 (4, 8, 10) = (x, y, z). Cio`e u = (x, y, z) W4 se e solo se il seguente sistema
(nelle variabili 1 , 2 , 4 e avente x, y e z come termini noti) ammette soluzioni
1 + 22 + 43 = x
21 + 42 + 83 = y
.
51 + 02 103 = z
Pertanto
1 2 4
x
x
1 2 4
2 4 8
y R2 R2 2R1 0 0 0
y 2x .
5 0 10 z
5 0 10
z
Il sistema associato a questultima matrice ha soluzioni se e solo se
y 2x = 0.
(68)
ha la matrice completa
u11 u21
u12 u22
u1n u2n
um1 x1
um2 x2
.
umn xn
(69)
Si noti che (69) ha come ultima colonna (quella corrisondente ai termini noti) il vettore generico (x1 , x2 , . . . , xn ) di Rn e come matrice incompleta la matrice avente come
colonne, nellordine, uT1 , uT2 , . . . , uTm .
2. Si applichi ripetutamente il metodo di riduzione per righe in modo da ottenere, alla
fine, una matrice B la cui sottomatrice formata dalle prime m colonne risulti ridotta.
3. Si eguaglino a zero gli ultimi elementi (quelli corrispondenti alla colonna dei termini
noti) delle eventuali righe di B che hanno 0 nei primi m posti. Ovviamente, se la
sottomatrice di B formata dalle prime m colonne non ha righe nulle, si ha Span(A) =
Rm .
Esempio 25.7 Siano V = R3 e K = R. Siano u1 = (2, k, 1), u2 = (k, 1, 1) e u3 = (1, 1, k).
Determinare, al variare di k R, le equazioni di W = Span({u1 , u2 , u3 }).
SVOLGIMENTO. Consideriamo la matrice
2 k 1 x
2
k
1
x
R2 R2 R1
k 1 1 y
k 2 1 k 0 y x = B.
R
3 R3 kR1
1 1 k z
1 2k 1 k 2 0 z kx
Se k = 1 abbiamo
2 1 1
x
2 1 1
x
B = 1 0 0 y x R3 R3 R2 1 0 0 y x .
1 0 0 z x
0 0 0 yz
Quindi per k = 1 lequazione di W e y z = 0 e si ha W = {(x, y, y) | x, y R}.
Sia adesso k 6= 1. Abbiamo
x
2
k
1
.
k2
1k 0
yx
2
k k + 1
0
0 x (1 + k)y + z
B R3 R3 (1 + k)R2
Quindi:
Se k 2 k + 1 = 0, cio`e k =
1 5
,
2
lequazione di W e
1 5
x
y+z =0
2
n
o
1 5
e si ha W =
y
z,
y,
z
|
y,
z
R
.
2
Definizione 25.5 Sia V uno spazio vettoriale su K e siano W1 e W2 due suoi sottospazi.
Si dice somma di W1 con W2 il sottoinsieme W1 + W2 di V cos` definito
W1 + W2 = {u + v | u W1 , v W2 }.
Teorema 25.6 La somma W1 + W2 di due sottospazi vettoriali di V e ancora un sottospazio
di V . Inoltre, W1 + W2 e il minimo (rispetto allinclusione) tra tutti i sottospazi di V che
contengono W1 W2 .
Dimostrazione.
(Dimostrazione facoltativa) Siano u, v W1 + W2 . Allora esistono
u1 , v1 W1 e u2 , v2 W2 tali che u = u1 + u2 e v = v1 + v2 . Se , K, si ha
u + v = (u1 + u2 ) + (v1 + v2 ) = (u1 + v1 ) + (u2 + v2 ) che appartiene a W1 + W2
in quanto u1 + v1 W1 e u2 + v2 W2 .
Sia W un sottospazio di V contenente W1 W2 . Proviamo che W1 + W2 W . Infatti,
se u W1 + W2 , esistono u1 W1 e u2 W2 per cui u = u1 + u2 . Allora u1 , u2 W1 W2
ed, essendo W un sottospazio di V contenente W1 W2 , si ha u1 + u2 W .
Si osservi che ogni vettore u1 W1 (u2 W2 ) appartiene alla somma W1 + W2 . Infatti
u1 = u1 + o con u1 W1 e o W2 (u2 = o + u1 con o W1 e u2 W2 ).
Definizione 25.6 La somma fra due sottospazi W1 e W2 di V si dice diretta, e si scrive
W1 W2 (invece di W1 + W2 ) se W1 W2 = {o}. In tal caso i sottospazi W1 e W2 si dicono
complementari.
Teorema 25.7 Ogni vettore v W1 W2 si esprime in uno e un sol modo come somma di
un vettore di W1 pi`
u un vettore di W2 . Cio`e esiste una e una sola coppia di vettori w1 W1
e w2 W2 tali che v = w1 + w2 .
Dimostrazione. (Dimostrazione facoltativa) Per definizione di somma diretta esiste sicuramente almeno una coppia (w1 , w2 ) W1 W2 tale che v = w1 + w2 . Supponiamo esista
unaltra coppia (u1 , u2 ) W1 W2 tale che v = u1 + u2 . Allora w1 + w2 = u1 + u2 , da cui
w1 u1 = u2 w2 W1 W2 , essendo w1 u1 W1 e u2 w2 W2 . Poich`e W1 W2 = {o},
segue w1 = u1 e w2 = u2 , cio`e (u1 , u2 ) = (w1 , w2 ).
Esempio 25.8 Siano V = R4 e K = R. Siano W1 = {(x, y, z, t) R4 | x + y z + t =
2x + 3y + z + 3t = 0} e W2 = {(x, y, z, t) R4 | 2x y + z t = x + y + 3z + t = 0}.
139
x+yz+t=0
,
2x + 3y + z + 3t = 0
2x y + z t = 0
,
x + y + 3z + t = 0
4
W1
+ W2 = 3 y 43 t, y, 31 y 13 t, t + 43 z, 53 z t, z, t | y,t, z, t R =
= 34 y 43 t 43 z, y 53 z t, 13 y 13 t + z, t + t | y, t, z, t R .
Si osservi che abbiamo cambiato nome alle variabili del punto generico di W2 (perch`e?).
4
5
1
4
4
1
Essendo
z,
y
t,
z,
t
+
t
=
y
t
+
3
3
3
3
43 5 3
= 43 , 1, 13 , 0 y + 43 , 0, 31 , 1 t +
,
1,
0
z
+
(0,
1,
4 3 31
4 0,51) t,
1
4
i vettori u1 = 3 , 1, 3 , 0 , u2 = 3 , 0, 3 , 1 , u3 = 3 , 3 , 1, 0 e u4 = (0, 1, 0, 1)
formano un insieme di generatori di W1 + W2 .
Determiniamo le equazioni di W1 + W2 :
4
4
0
3 43 43 0 x
3 43 43
x
4
5
4
32
4
1
R
+
R
R
3 x + 43 y
1
2
3 2
9
1 01 3 1 y
0 3 16
0
1
0 z R3 4R3 + R1
0 3
0 x 4z
3
3
0
1
0
1 t
0
1
0
1
t
4
0
x
3 43 43
0 4 32 4
x + 43 y
3
9
3
R4 43 R4 + R1 + 43 R2
16
0
0 3
0
x 4z
32
4
4
0
0 9
0 3t + x + 3y
4
0
x
3 43 43
0 4 32 4
x + 43 y
32
3
9
3
.
R
R4 16
4
3
16
3
9
0
0 3
0
x 4z
2048 y
t
0
0
0
0 27 3 + z + 3
Quindi lequazione di W1 + W2 `e
y
3
+z+
t
3
= 0.
140
Le equazioni di W1 W2 sono
x+yz+t=0
2x + 3y + z + 3t = 0
.
2x y + z t = 0
x + y + 3z + t = 0
Per determinare i
1 1 1
2 3
1
2 1 1
1 1
3
punti
1
3
1
1
1 1 1 1
R2 R2 2R1
0 1
3
1
R3 R3 2R1
0 3 3 3
R4 R4 + R1
0 0 4 0
R3 R3 + 3R2
R4 3R4 + R3
1
0
0
0
1
0
0
0
(70)
(70):
1 1 1
1 3 1
0 12 0
0 4 0
1 1 1
1 3 1
.
0 12 0
0 0 0
x=0
z=0
.
y+t=0
26
Esempio 26.1 Nello spazio vettoriale R4 sul campo R, determinare la lineare dipendenza o
indipendenza dei vettori u = (1, 2, 3, 4), u2 = (3, 1, 3, 3) e u3 = (2, 0, 0, 1).
SVOLGIMENTO. In base alle Definizioni 26.1 e 26.2 bisogna verificare se lequazione vettoriale
1 u1 + 2 u2 + 3 u3 = o
nelle variabili reali 1 , 2 e 3 ammette solamente la soluzione banale (1 , 2 , 3 ) = (0, 0, 0)
(in questo caso u1 , u2 e u3 risultano linearmente indipendenti) oppure altre soluzioni oltre la
banale (in tal caso u1 , u2 e u3 risultano linearmente dipendenti). La precedente equazione
equivale al seguente sistema omogeneo:
1 + 32 + 23 = 0
21 2 = 0
.
31 + 32 = 0
41 + 32 + 3 = 0
Pertanto
1
3
2 1
3 3
4
3
1 3
2 1
0 3
0 13
2
1
3
0
2 1
R4 2R4 + R1
3 3
0
1
7 3
2
1 3 2
2 1 0
0
R4 3R4 + 13R3
0 3 0
0
0
0 0 0
2
0
R3 2R3 + 3R2
0 R4 2R4 + 7R2
0
Poich`e il numero delle incognite coincide col numero degli elementi speciali, il sistema
omogeneo ha la sola soluzione banale. Quindi i tre vettori dati sono linearmente indipendenti.
Esempio 26.2 Nello spazio vettoriale R4 sul campo R, determinare se i vettori u1 = (1, 2, 3, 4),
u2 = (3, 1, 3, 3) e u3 = (12, 3, 0, 21) sono linearmente dipendenti o indipendenti.
SVOLGIMENTO. In base alle Definizioni 26.1 e 26.2 bisogna verificare se lequazione vettoriale
1 u1 + 2 u2 + 3 u3 = o
nelle variabili reali 1 , 2 e 3 ammette solamente la soluzione banale (1 , 2 , 3 ) = (0, 0, 0)
(in questo caso u1 , u2 e u3 risultano linearmente indipendenti) oppure altre soluzioni oltre la
banale (in tal caso u1 , u2 e u3 risultano linearmente dipendenti). La precedente equazione
equivale al seguente sistema omogeneo:
1 + 32 + 123 = 0
21 2 + 33 = 0
.
31 + 32 = 0
41 + 32 + 213 = 0
142
Pertanto
1
3
2 1
3 3
4
3
1 3 12
7 0 21
0 0 0
0 0 0
12
1
R2 3R2 + R1
3
7
R3 R3 R1
4
0
R4 R4 R1
21
3
3 12
0 21
R3 7R3 + 4R2
0 12 R4 7R4 3R2
0 9
Poich`e il numero delle incognite e maggiore del numero degli elementi speciali, il sistema
omogeneo ha infinite soluzioni. Quindi i tre vettori dati sono linearmente dipendenti.
Teorema 26.1 Un vettore u V e linearmente dipendente se e soltanto se u = o.
Dimostrazione. (Dimostrazione obbligatoria) Se u = o allora 1u = 1o = o, essendo
1 lelemento unit`a del campo K. Quindi u = o e linearmente dipendente. Viceversa sia u
linearmente dipendente. Esiste allora K, 6= 0, tale che u = o. Ne segue u = o per la
legge di annullamento della moltiplicazione per scalari.
Teorema 26.2 Sia V uno spazio vettoriale su K e siano u1 , u2 , . . . , un V . Se m vettori fra
di essi (con 1 m < n) sono linearmente dipendenti, allora tutti i vettori sono linearmente
dipendenti.
Dimostrazione. Supponiamo, senza perdere la generalit`a che u1 , u2 , . . . , um siano linearmente dipendenti. Allora esistono 1 , 2 , . . . , m K non tutti nulli (cio`e (1 , 2 , . . . , m ) 6=
(0, 0, . . . , 0)) tali che 1 u1 + 2 u2 + . . . + m um = o. Ne segue
1 u1 + 2 u2 + . . . + m um + 0um+1 + . . . + 0un = o
con (1 , 2 , . . . , m , 0, . . . , 0) 6= (0, 0, . . . , 0). Pertanto u1 , u2 , . . . , un sono linearmente dipendenti.
Dal teorema precedente segue facilmente il seguente corollario.
Corollario 26.1 Se n vettori sono linearmente indipendenti allora m vettori qualunque fra
essi (con 1 m n) sono linearmente indipendenti.
Teorema 26.3 Condizione necessaria e sufficiente affinch`e n 2 vettori u1 , u2 , . . . , un
V siano linearmente dipendenti e che almeno uno fra essi sia combinazione lineare dei
rimanenti.
143
Dimostrazione.
(Dimostrazione facoltativa) Condizione necessaria. Se u1 , u2 , . . . , un
sono linearmente dipendenti, allora esistono 1 , 2 , . . . , n K non tutti nulli tali che
1 u1 + 2 u2 + . . . + n un = o. Senza ledere la generalit`a, possiamo supporre che sia 1 6= 0.
Allora, risolvendo rispetto ad u1 , si ha u1 = (1 )1 2 u2 (1 )1 3 u3 . . . (1 )1 n un ,
cio`e u1 e combinazione lineare dei vettori u2 , u3 , . . . , un .
Condizione sufficiente. Supponiamo che uno degli n vettori, ad esempio u1 , sia combinazione lineare dei rimanenti, cio`e u1 = 2 u2 +3 u3 +. . .+n un . Allora (1)u1 +2 u2 +3 u3 +
. . . + n un = o con (1, 2 , . . . , n ) 6= (0, 0, . . . , 0). Quindi u1 , u2 , . . . , un sono linearmente
dipendenti.
Presentiamo adesso un metodo pratico che permetta di individuare in un insieme di
vettori di Kn un sottoinsieme linearmente indipendente di cardinalit`a massima. Questo
metodo si basa sui due seguenti teoremi.
Teorema
Sia = {v1 , v2 , . . . , vm } un insieme di vettori di Kn tali che la matrice
T 26.4
T
T
A = v1 | v2 | . . . | vm
risulti ridotta per righe. Allora i vettori corrispondenti alle colonne
contenenti gli elementi speciali sono linearmente indipendenti e, supposto che il loro numero
sia , contiene al massimo vettori linearmente indipendenti.
Dimostrazione. (Dimostrazione facoltativa) Senza ledere la generalit`a, possiamo pensare
che v1T , v2T , . . . , vT siano le colonne di A contenenti gli elementi speciali (si noti che ogni
colonna di A contiene
u un elemento
al pi`
speciale, quindi m).
La matrice B = v1T | v2T | . . . | vT , anchessa ridotta per righe, pu`o essere vista come la
matrice incompleta di un sistema lineare omogeneo avente n equazioni e incognite. Poich`e
il numero di incognite coincide con quello degli elementi speciali il sistema ha la sola soluzione
banale. In altre parole lequazione vettoriale 1 v1 + 2 v2 + . . . + v = o, nelle variabili
1 , . . . , , ha la sola soluzione banale 1 = 2 = . . . = = 0. Pertanto v1 , v2 , . . . , v sono
linearmente indipendenti.
Se < m, A contiene (oltre alle colonne v1T , v2T , . . ., vT ) m colonne nelle quali
non
T
T
T
T
T
appaiono elementi speciali. Sia v una di esse. Allora B = v1 | v2 | . . . | v | v pu`o
essere vista come la matrice completa di un sistema lineare di n equazioni in incognite
avente vT come colonna dei termini noti e v1T | v2T | . . . | vT come matrice incompleta.
Pertanto il sistema non omogeneo associato a B ha una ed una sola soluzione. Supposto
che essa sia (1 , 2 , . . . , ), abbiamo 1 v1 + 2 v2 + . . . + v = v), cio`e v e combinazione
lineare dei vettori v1 , v2 , . . . , v . Ripetendo il ragionamento per ognuna delle m colonne
di A non contenenti elemento speciale si ha la tesi.
Esempio 26.3 Siano assegnati i vettori di R5 v1 = (1, 0, 0, 0, 0), v2 = (2, 0, 3, 0, 0), v3 =
(3, 0, 4, 0, 0), v4 = (4, 0, 4, 0, 0), v5 = (5, 0, 4, 1, 0) e v6 = (6, 0, 4, 1, 0). Abbiamo
144
A=
v1T
v2T
v3T
v4T
v5T
v6T
1
0
0
0
0
2
0
3
0
0
3
0
4
0
0
4
0
4
0
0
5
0
4
1
0
6
0
4
1
0
Nella matrice precedente abbiamo sottolineato gli elementi speciali (si noti che nella
prima riga si ha una sola possibilit`a di scelta per lelemento speciale,
T mentre
nella terza riga
T
T
si hanno tre possibilit`a e, nella quarta, due). La matrice B = v1 | v2 | v5 , formata dalle
colonne di A contenenti gli elementi speciali, equivale al seguente sistema lineare omogeneo
(si osservi che la seconda e quarta equazione potrebbero essere omesse)
x1 + 2x2 + 5x3 = 0
x
=
0
3
0x1 + 0x2 + 0x3 = 0
la cui unica soluzione e (x1 , x2 , x3 ) = (0, 0, 0). Cio`e
x1 v1 + x2 v2 + x3 v5 = o se e solo se x1 = x2 = x3 = 0.
Quindi v1 , v2 e v5 sono linearmente indipendenti.
Si consideri ora una colonna di A che non contiene elementi speciali, per esempio v4T .
Formiamo la matrice
1 2 5 4
T
0 0 0 0
T
T
T
C = v1 | v2 | v5 | v4 =
0 3 4 4 .
0 0 1 0
0 0 0 0
Essa equivale al seguente sistema lineare non omogeneo
x1 + 2x2 + 5x3 = 4
0x1 + 0x2 + x3 = 0
Il Teorema 26.4 permette di individuare in Kn un sottoinsieme linearmente indipendente di cardinalit`a massima solo nellipotesi che la matrice A avente come colonne i vettori
di sia ridotta per righe. Come procedere quando A non e ridotta? La risposta a questa
domanda si ottiene facilmente dal seguente teorema.
Teorema 26.5 I vettori
u1 = (a11 , a21 , . . . , an1 ),
u2 = (a12 , a22 , . . . , an2 ),
..............................
um = (a1m , a2m , . . . , anm )
sono linearmente indipendenti se e solo se, comunque fissati , K, con 6= 0, e comunque
scelti i, j {1, 2, . . . , n} con i 6= j,
v1 = (a11 , . . . , a(i1)1 , ai1 + aj1 , a(i+1)1 , . . . , an1 ),
v2 = (a12 , . . . , a(i1)2 , ai2 + aj2 , a(i+1)2 , . . . , an2 ),
.............................................................................
vm = (a1m , . . . , a(i1)m , aim + ajm , a(i+1)m , . . . , anm )
sono linearmente indipendenti.
Dimostrazione. (Dimostrazione facoltativa) Ovviamente u1 , u2 , . . . , um sono linearmente
indipendenti se e solo se il sistema lineare omogeneo
...........................
...........................
(73)
T
1. si formi la matrice A = v1T | v2T | . . . | vm
;
2. si riduca per righe A e si fissino gli elementi speciali nella matrice ridotta B;
3. si considerino le colonne di A che corrispondono, nella matrice ridotta B, alle
colonne contenenti gli elementi speciali. Ovviamente esse individuano un sottoinsieme
di . Esso costituisce un sottoinsieme di cardinalit`a massima di vettori linearmente
indipendenti di .
Esempio 26.4 Sia = {v1 , v2 , v3 , v4 , v5 } R5 , essendo v1 = (1, 2, 1, 3, 1),
v2 = (1, 1, 1, 0, 0), v3 = (1, 1, 0, 1, 1), v4 = (1, 2, 2, 4, 2) e v5 = (0, 0, 1, 1, 1).
Determinare un sottoinsieme linearmente indipendente di avente massima cardinalit`
a.
SVOLGIMENTO. Consideriamo la matrice
1 1 1
1
0
0
R2 R2 R1
T
2 1 1 2
T
T
T
T
A = v1 | v2 | v3 | v4 | v5 = 1 1 0 2 1
3
0
1
4
1 R3 R3 R1
1
0
1
2
1
1 1 1
1
0
R3 R3 + 2R2
1
0
0
1
0
A1 = 2 0 1 3 1 R4 R4 3R2
3
0
1
2
1 R5 R5 R2
1
0
1
2
1
1 1 1
1 1 1
1
0
1 0
0
0
1
0 R R +R
1 0
4
4
3
0
0
1
0
0
1
1
1
A
=
A2 =
3
0 0
0 0
0
1
1
1 R5 R5 + R3
0 0
1
1
1
0 0
0
1
0
1
0
1 1
.
0
0
0
0
Sia linsieme dei vettori corrispondenti alle colonne di A3 . Per il Teorema 26.4, i
vettori corrispondenti alle prime tre colonne di A3 formano un sottoinsieme linearmente
indipendente di avente cardinalit`a massima. Per il Teorema 26.5, i vettori corrispondenti
alle prime tre colonne di A2 sono linearmente indipendenti mentre quelli rimanenti sono una
loro combinazione lineare. Applicando di nuovo il Teorema 26.5 alle matrici A2 e A1 e poi
A1 ed A, otteniamo che i vettori corrispondenti alle prime tre colonne di A formano un
sottoinsieme linearmente indipendente di avente cardinalit`a massima.
Corollario 26.2 Il massimo numero di vettori linearmente indipendenti nello spazio vettoriale Kn e n.
147
148
Teorema 26.7 Sia V uno spazio vettoriale su un campo K avente una base B = {u1 , u2 , . . . , un }.
Se v1 , v2 , . . . , vh , h n, sono h vettori linearmente indipendenti, allora si pu`o costruire una
nuova base di V aggiungendo a v1 , v2 , . . . , vh n h vettori opportunamente scelti in B.
Dal Teorema 26.7 segue in particolare, per h = n, il seguente corollario
Corollario 26.3 Se uno spazio vettoriale V ammette una base formata da n vettori, allora
ogni sottoinsieme di n vettori linarmente indipendenti di V e una base di V .
Teorema 26.8 Sia V uno spazio vettoriale su un campo K avente una base formata da n
vettori. Allora valgono le seguenti propriet`
a:
1. Ogni sottoinsieme di V linearmente indipendente ha cardinalit`
a minore od uguale ad
n.
2. Qualsiasi base di V possiede n vettori.
3. Ogni insieme di generatori di V , formato da n vettori, e linearmente indipendente.
La propriet`a 2 del Teorema 26.8 giustifica la seguente importante definizione.
Definizione 26.4 Sia V 6= {o} uno spazio vettoriale finitamente generato su un campo K.
Si dice dimensione di V , e si indica con dim V , la cardinalit`
a di una qualsiasi base di V . Se
V = {o}, si pone dim {o} = 0.
Esempio 26.5 Siano assegnati i vettori di R4 v1 = (2, 3, 1, 4), v2 = (0, 1, 1, 2), v3 =
(2, 9, 4, 2), v4 = (1, 1, 2, 2), v5 = (5, 14, 8, 2) e v6 = (1, 0, 1, 0). Determinare un suo sottoinsieme linearmente indipendente di cardinalit`
a massima e verificare se esso e una base di
4
R.
SVOLGIMENTO. Applichiamo il metodo illustrato precedentemente.
2 0 2 1 5 1
3 1 9 1 14 0
2 0 2 1 5 1
3 1 9 1 14 0 R3 R3 R2
1 1 2 1 3 0 R4 R4 2R2
1 2 2 2 2 0
2 0 2 1 5 1
2 0
3 1 9 1 14 0
3 1
4 0 7 0 11 0 R4 5R3 2R4 4 0
10 0 16 0 26 0
0 0
149
Sia
R3 R3 R1
2
9
7
3
1 5 1
1 14 0
.
0 11 0
0 3 0
Nella matrice precedente abbiamo sottolineato gli elementi speciali. Pertanto un sottoinsieme linearmente indipendente di {v1 , . . . , v6 } di cardinalit`a massima e = {v1 , v3 , v4 , v6 }.
Per i Corollari 26.2 e 26.3, e una base di R4 . Ovviamente si ha Span() = R4 .
Esempio 26.6 Siano assegnati i vettori di R4 v1 = (2, 3, 1, 4), v2 = (0, 1, 1, 2), v3 =
(2, 6, 4, 2), v4 = (4, 10, 6, 0), v5 = (4, 9, 5, 2) e v6 = (4, 11, 7, 2). Determinare un suo
sottoinsieme linearmente indipendente di cardinalit`
a massima e verificare se esso e una base
di R4 .
SVOLGIMENTO. Applichiamo il metodo illustrato precedentemente. Sia
2 0 2 4 4 4
R2 R2 3R1
3 1 6 10 9 11
T
T
T
T
T
T
A = v1 | v2 | v3 | v4 | v5 | v6 =
1 1 4 6 5 7 R3 R3 2R1
R4 R4 R1
4 2 2 0 2 2
2 0 2 4
4
4
3 1 0 2 3 1 R3 R3 R2
5 1 0 2 3 1 R4 R4 2R2
2 2 0 4 6 2
2 0 2 4
4
4
2 0 2 4
4
4
3 1 0 2 3 1
R4 R4 + 4R3 3 1 0 2 3 1 .
2 0 0 0
2 0 0 0
0
0
0
0
8 0 0 0
0
0
0 0 0 0
0
0
Nella matrice precedente abbiamo sottolineato gli elementi speciali. Pertanto un sottoinsieme linearmente indipendente di {v1 , . . . , v6 } di cardinalit`a massima e = {v1 , v2 , v3 }.
Per i Corollari 26.2 e 26.3, non e una base di R4 .
Cerchiamo Span(). Usando le precedenti riduzioni, il sistema associato alla matrice
2 0 2 x
3 1 6 y
1 1 4 z
4 2 2 t
si riduce a
2
3
2
0
0
1
0
0
2
x
0
y 3x
.
zy+x
0
0 9x 6y + 4z + t
150
1 1
1 1
1 1
1
R2 R2 + R1 0 1 R3 R3 + R2 0 1 ,
0
0
0
1 R4 R4 R1
1 R4 R4 R2
0
1 2
0 1
0
0
{v1 , v2 } e linearmente indipendente e quindi, generando W1 , ne costituisce una base. Abbiamo cos` dim W1 = 2.
Consideriamo W2 . Poich`e
4 3 9
4 3
9
1 0 3 R2 4R2 R1
0 3 3
0 2 2 R4 R4 R1 0 2 2
4 1 11
0 2 2
4 3 9
0 3 3
0 0 0 ,
0 0 0
R3 3R3 + 2R2
R4 3R4 2R2
1 1 4 3
1 1 4 3
1
0 1 0
R2 R2 + R1 0 1 5 3 R4 R4 + R3
0
0
1 0 2 R4 R4 R1
1 0 2
1 2 4 1
0 1 0 2
1 1 4 3
0 1 5 3
.
0
1 0 2
0
0 0 0
Allora W1 +W2 = Span({v1 , v2 , u1 , u2 }) = Span({v1 , v2 , u1 }). Quindi {v1 , v2 , u1 } e una
base di W1 + W2 e dim (W1 + W2 ) = 3.
Consideriamo infine W1 W2 . Per la formula di Grassmann,
dim (W1 + W2 ) + dim (W1 W2 ) = dim W1 + dim W2 ,
3 + dim (W1 W2 ) = 2 + 2,
dim (W1 W2 ) = 1.
Le equazioni di W1 W2 si ottengono mettendo a sistema quelle di W1 con quelle di W2 .
Determiniamo quindi le equazioni di W2 , essendo gi`a date quelle di W1 . Poiche W2 =
Span({u1 , u2 }),
4 3 x
4 3
x
1 0 y R2 4R2 R1
0 3
4y x
0 2 z R4 R4 R1
0 0 3z + 8y 2x .
4 1 t
0 0
3t x 8y
Le equazioni di W2 sono quindi
3z + 8y 2x = 0
.
3t x 8y = 0
x+y+z =0
y + 2z + t = 0
.
3z + 8y 2x = 0
3t x 8y = 0
152
1
1 1 0
1 1 1 0
0
1 2 1
R3 R3 + 2R1 0 1 2 1
2 8 3 0 R4 R4 + R1
0 10 5 0
1 8 0 3
0 7 1 3
1 1
1 0
1
0 1
0
2
1
R4 R4 + R3
R4 R4 3R2
0 10
0
5 0
0 10 5 0
0
formato da tre
1
1
10
0
1
2
5
0
0
1
.
0
0
x+y+z =0
y + 2z + t = 0 ,
10y + 5z = 0
e W1 W2 = {(y, y, 2y, 3y) | y R}. Quindi {(1, 1, 2, 3)} e una base di W1 W2 .
Definizione 26.5 Definizione di base ordinata. Sia V uno spazio vettoriale su K di
dimensione finita n. Si dice base ordinata di V ogni n-upla ordinata B = (u1 , u2 , . . . , un ) di
vettori linearmente indipendenti di V .
Il concetto di base ordinata e di fondamentale importanza nella teoria degli spazi vettoriali; esso riveste un ruolo analogo a quello del riferimento di coordinate cartesiane nella
geometria euclidea. Infatti, possiamo rappresentare univocamente ogni vettore rispetto una
base ordinata mediante una n-upla di scalari, detti le componenti del vettore. Le operazioni di addizione vettoriale e di moltiplicazione per scalari si traducono poi nelle analoghe
operazioni sulle componenti.
Teorema 26.10 Sia V uno spazio vettoriale sul campo K di dimensione finita n e sia B =
(u1 , u2 , . . . , un ) una sua base ordinata. Per ogni vettore v V esiste una ed una sola n-upla
ordinata di scalari (1 , 2 , . . . , n ) Kn , detta la n-upla delle componenti di v rispetto la
base ordinata B, tale che
v = 1 u1 + 2 u2 + . . . + n un .
Dimostrazione. (Dimostrazione facoltativa) Essendo B una base di V , v e combinazione
lineare dei vettori di B. Pertanto v = 1 u1 + 2 u2 + . . . + n un . Se esiste unaltra n-upla
ordinata (1 , 2 , . . . , n ) Kn tale che v = 1 u1 + 2 u2 + . . . + n un , abbiamo
1 u1 + 2 u2 + . . . + n un = 1 u1 + 2 u2 + . . . + n un
da cui
(1 1 )u1 + (2 2 )u2 + . . . + (n n )un = o.
153
Pertanto 1 = 1 , 2 = 2 , . . . , n = n .
Siano A = (u1 , u2 , . . . , un ) e B = (v1 , v2 , . . . , vn ) due basi ordinate dello spazio vettoriale V . Se w V allora esistono due n-uple (1 , 2 , . . . , n ) e (1 , 2 , . . . , n ) che sono
rispettivamente le componenti di w rispetto le basi ordinate A e B. Per evitare confusione
le indicheremo da ora in poi con (1 , 2 , . . . , n )A e (1 , 2 , . . . , n )B per indicare la base
rispetto la quale la n-upla data rappresenta le componenti.
Sia B = (u1 , u2 , . . . , un ) una base ordinata dello spazio vettoriale V sul campo K. La
n-upla delle componenti del vettore nullo o di V e il vettore nullo (0, 0, . . . , 0)B Kn ,
infatti o = 0u1 + 0u2 + . . . + 0un . La n-upla delle componenti del vettore u1 di B e
(1, 0, . . . , 0)B Kn , infatti u1 = 1u1 + 0u2 + . . . + 0un ; la n-upla delle componenti del vettore
u2 di B e (0, 1, . . . , 0)B Kn , infatti u2 = 0u1 +1u2 +. . .+0un ; . . .; la n-upla delle componenti
del vettore un della base ordinata B e (0, 0, . . . , 1)B Kn , infatti un = 0u1 + 0u2 + . . . + 1un .
Definizione 26.6 Base canonica. Nello spazio vettoriale Kn dicesi base canonica la base
ordinata En = (e1 , e2 , . . . , en ) con e1 = (1, 0, . . . , 0), e2 = (0, 1, . . . , 0), . . ., en = (0, 0, . . . , 1).
Teorema 26.11 Sia En la base canonica di Kn . Se u = (u1 , u2 , . . . , un ) Kn allora le
componenti di u rispetto En coincidono con la n-upla (u1 , u2 , . . . , un ). Cio`e
(u1 , u2 , . . . , un )En = (u1 , u2 , . . . , un ).
Teorema 26.12 Sia V uno spazio vettoriale di dimensione finita sul campo K e sia B =
(u1 , u2 , . . . , un ) una sua base ordinata. Lapplicazione (detta lisomorfismo delle componenti
rispetto la base ordinata B)
fB : V Kn
che ad ogni vettore v = v1 u1 + v2 u2 + . . . + vn un = (v1 , v2 , . . . , vn )B V associa la n-upla
ordinata (v1 , v2 , . . . , vn ) Kn delle componenti di v rispetto la base ordinata B soddisfa le
seguenti propriet`
a:
1. fB e biunivoca.
2. Per ogni v, w V , si ha fB (v + w) = fB (v) + fB (w).
3. Per ogni v V e per ogni K, si ha fB (v) = fB (v).
Dimostrazione. (Dimostrazione facoltativa) 1) Lapplicazione fB e sia suriettiva che iniettiva. La suriettivit`a si ha perch`e, essendo B una base ordinata di V , per ogni (v1 , v2 , . . . , vn )
Kn abbiamo v = v1 u1 + v2 u2 + . . . + vn un V e fB (v) = (v1 , v2 , . . . , vn ). Linettivit`a di fB
segue immediatamente dal Teorema 26.10.
2) Siano
v = v1 u1 + v2 u2 + . . . + vn un , e w = w1 u1 + w2 u2 + . . . + wn un .
154
Allora
v + w = (v1 + w1 )u1 + (v2 + w2 )u2 + . . . + (vn + wn )un ,
e quindi
fB (v) = (v1 , v2 , . . . , vn ) Kn , fB (w) = (w1 , w2 , . . . , wn ) Kn ,
fB (v+w) = (v1 +w1 , v2 +w2 , . . . , vn +wn ) = (v1 , v2 , . . . , vn )+(w1 , w2 , . . . , wn ) = fB (v)+fB (w).
3) Se v = v1 u1 + v2 u2 + . . . + vn vn V e K, allora si ha
v = (v1 )u1 + (v2 )u2 + . . . + (vn )un
e quindi
fB (v) = (v1 , v2 , . . . , vn ) Kn ,
fB (v) = (v1 , v2 , . . . , vn ) = (v1 , v2 , . . . , vn ) = fB (v).
Teorema 26.13 Sia V uno spazio vettoriale sul campo K avente la base ordinata B =
(u1 , u2 , . . . , un ). Allora lapplicazione
fB1 : Kn V
che ad ogni (1 , 2 , . . . , n ) Kn associa il vettore v = 1 u1 +2 u2 , . . . , n un = (1 , 2 , . . . , n )B
di V e biunivoca e si ha
fB1 ((1 , 2 , . . . , n )+(1 , 2 , . . . , n )) = fB1 (1 , 2 , . . . , n )+fB1 (1 , 2 , . . . , n ) (74)
per ogni , K e (1 , 2 , . . . , n ), (1 , 2 , . . . , n ) Kn .
Dimostrazione. (Dimostrazione facoltativa) Lapplicazione fB1 e linversa della fB definita nel Teorema 26.12. Pertanto fB1 e biunivoca. Proviamo che vale la (74). Siano
v1 = fB1 (1 , 2 , . . . , n ) e v2 = fB1 (1 , 2 , . . . , n ). Allora fB (v1 ) = (1 , 2 , . . . , n )B e
fB (v2 ) = (1 , 2 , . . . , n )B . Ne segue, per il Teorema 26.12, fB (v1 + v2 ) = fB (v1 ) +
fB (v2 ) = (1 , 2 , . . . , n )+
+(1 , 2 , . . . , n ) = (1 + 1 , 2 + 2 , . . . , n + n ), e quindi
fB1 (1 + 1 , 2 + 2 , . . . , n + n ) = v1 + v2 .
(75)
155
1
1 2
1
2 2
1 1 0
2
3 0
1
1 2
0
1 0
1 1 0
4
7 0
2
1
1 2
0
0
1 0
R2 R2 R1
0
1 1 0
1
2
3 0
2
1
1
2
0
1
R4 R4 + 4R3
1 1
0
0
2
3
2
2
R4 2R4 + R2
0
1
2 2
0 2
.
0 0
0 1
(76)
+ + 2 + 2 = 7
+ 2 + 2 = 8
(77)
= 5
2 + 3 + = 3
la cui matrice associata e
1
1 2
1
2 2
1 1 0
2
3 0
2
0
0
1
7
8
.
5
3
3
1
1 2 2
7
R1 3R1 + R4
0
0
1
1
0
2
R2 3R2 + R4
3
1 1 0 0
5
R
3R
+
R
3
3
4
0
3 0 0 27
0
156
0 6 6 6
0 0
6 24
0 0
0 42
3 0
0 27
R1 R1 R3
0
0
3
0
0
0
3
0
0 6 6 36
0 0
6
24
R1 R1 + R2
0 0
0
42
3 0
0
27
R 1R
1
6 1
0 6 0 12
0 0
1
R
0 0 6 24
0 0
2
2
6
0 0 0 42
1 0
R3 3 R3
1
3 0 0 27
0 1
R4 3 R4
1
0
0
0
0
2
1
4
0 14
0
9
(78)
+ 2 + + 2 = 7
2 + + 2 = 8
(79)
= 5
3 + + 2 = 3
il quale ha soluzione (, , , ) = (9, 4, 14, 2), quindi v = (9, 4, 14, 2)C .
Si osservi che non e il caso di risolvere di nuovo il sistema (79). Infatti basta porre in
esso al posto di , al posto di , al posto di e, infine, al posto di per ottenere
il sistema (77). Ovviamente questa sostituzione si ricava osservando le uguaglianze (76) e
(78).
Esempio 26.9 Si considerino in R3 la basi ordinate A = (u1 , u2 , u3 ) e B = (v1 , v2 , v3 )
essendo u1 = (2, 1, 3), u2 = (1, 1, 1), u3 = (0, 2, 1), v1 = (0, 1, 1), v2 = (2, 3, 1) e
v3 = (2, 2, 2). Siano note, nella base A, le componenti dei due vettori w1 = (5, 2, 7)A e
w2 = (3, 14, 2)A . Determinare le componenti di w1 e w2 nella base B.
SVOLGIMENTO. Di questo esercizio daremo due metodi di risoluzione. Il primo si basa sul
u
metodo visto nellEsempio 26.8. Il secondo mostrer`a una tecnica di risoluzione molto pi`
generale ed interessante e introduce al problema della ricerca della matrice di cambiamento
di base.
I metodo. Come abbiamo detto vogliamo riutilizzare le tecniche viste nellEsempio 26.8.
Pertanto come primo passo dobbiamo determinare le coordinate dei vettori w1 e w2 : w1 =
(5, 2, 7)A = 5u1 2u2 + 7u3 = 5(2, 1, 3) 2(1, 1, 1) + 7(0, 2, 1) = (12, 17, 20), w2 =
(3, 14, 2)A = 3u1 + 14u2 + 2u3 = 3(2, 1, 3) + 14(1, 1, 1) + 2(0, 2, 1) = (20, 15, 7).
157
2a22 + 2a23 = 20
2a12 + 2a13 = 12
a11 + 3a12 + 2a13 = 17
a21 + 3a22 + 2a23 = 15 .
(80)
Si vede subito che (a parte il nome delle variabili) i sistemi precedenti differiscono solamente per i termini noti. Poich`e li vogliamo risolvere col metodo di riduzione, possiamo
compattare entrambi i sistemi in ununica matrice le cui due colonne finali coincidono con
le due colonne dei termini noti.
0 2 2 12 20
0
2
2
12
20
R2 R2 R1
1 3 2 17 15
1 1 0 5 35
R
3 R3 R1
1 1 2 20 7
1 3 0 8 27
0 2 2 12 20
R3 R3 R2 1 1 0 5 35
0 4 0 3 8
0 0 4 27 48
4
4 0 0 23 132 R1 R2 0
0 4 0 3 8
0
R2 4R2 + R3
R1 2R1 + R3
0 0 23 132
0 4 27 48 R2 R3
4 0 3 8
R1 14 R1
4 0 0 23 132
1 0 0 23
33
4
2 .
0 4 0 3 8 R2 14 R2 0 1 0 43
27
0 0 4 27 48
0 0 1 4 12
R3 14 R3
le componenti di w1 nella base B sono date dal prodotto riga per colonna di P A,B con la
matrice 3 1 i cui elementi sono le componenti di w1 in base A
2a12 + 2a13 = 2
a11 + 3a12 + 2a13 = 1
2a22 + 2a23 = 1
a21 + 3a22 + 2a23 = 1
2a32 + 2a33 = 0
a31 + 3a32 + 2a33 = 2
(81)
Si vede subito che (a parte il nome delle variabili) i sistemi precedenti differiscono solamente per i termini noti. Poich`e li vogliamo risolvere col metodo di riduzione, possiamo
compattarli in ununica matrice le cui tre colonne finali coincidono con le tre colonne dei
termini noti.
0 2 2 2 1 0
0
2
2
2
1
0
R2 R2 R1
1 3 2 1 1 2
1 1 0 1 2 2
R
R
3
3
1
1 1 2 3 1 1
1 3 0 1
2 1
0 2 2 2
R3 R3 R2
1 1 0 1
0 4 0 2
0 0 4 6 2 1
4 0 0 2 8
7 R1 R2
0 4 0 2
0 1
1 0
R2
2
2
R1
0 1
4 0
0 0
0 4
159
4R2 + R3
2R1 + R3
0 2 8
7
4 6 2 1 R2 R3
0 2
0
1
7
R1 14 R1
4 0 0 2 8
7
1 0 0 21 2
4
1
0 1 R2 14 R2 0 1 0 21 0
.
0 4 0 2
4
3
1
1
0 0 4 6 2 1
0 0 1 2 2 4
R3 14 R3
Pertanto
P A,B
12
= 12
3
2
7
2
4
1
0
.
4
1
1
2 4
7
2 2
5
4
4
1
1 0
2 = 43 .
2
4
3
27
21 14
7
2
4
A
B
Analogamente le componenti di w2T in base B sono
7
2 2
3
33
4
1
1 0
14 = 2 .
2
4
3
1
1
12 B
2 4
2
2
A
Il metodo dellEsempio 26.9 fornisce il seguente
Metodo per determinare la matrice P A,B di cambiamento di base dalla base A
alla base B.
Siano A = (u1 , u2 , . . . , un ) e B = (v1 , v2 , . . . , vn ) due basi ordinate dello spazio vettoriale
n
K . Per ogni i = 1, 2, . . . , n siano ui = (ui1 , ui2 , . . . , uin ) e vi = (vi1 , vi2 , . . . , vin ) le coordinate
dei vettori ui e vi . Poniamo
v11 v21
v12 v22
(B|A) =
v1n v2n
un1
un2
.
unn
(82)
2. Con il metodo di riduzione per righe si trasformi la matrice (82) in modo che la sottomatrice B venga trasformata nella matrice identica In . Allora la sottomatrice A verr`a
trasformata nella P A,B . Schematizzando abbiamo
160
(83)
Possiamo usare lo stesso metodo, e la stessa matrice (B|A) definita in (82), per determinare la matrice P B,A di cambiamento di base dalla base B alla base A. Infatti e immediato
verificare che se, mediante il metodo di riduzione per righe, si trasforma la (82) in modo
che la sottomatrice A venga trasformata nella matrice identica In allora B verr`a trasformata
nella P B,A . Schematizzando abbiamo
0 2 2
2 1 0
A = 1 1 2 , B = 1 3 2 .
1 1 2
3 1 1
Pertanto
0 2 2 2 1 0
1 3 2 1 1 2
(B|A) =
1 1 2 3 1 1
0 2
R3 2R3 R2
1 5
1 3
0 2 2 2 1 0
1 5 4 3 0 2
1 1 4 5 0 1
R2 R2 + R1
R3 R3 + R1
2 2 1 0
R2 7R2 + 3R3
4 3 0 2
R1 7R1 + 2R3
4 7 0 0
161
2 20 6 0 7 0
7 0 0
1 3
4
4 44 16 0 0 14 R1 R3 4 44 16 0 0 14
1 3
4
7 0 0
2 20 6 0 7 0
R1 17 R1
1 3
4
7 0 0
R2 R3 2 20 6 0 7 0 R2 17 R2
1
4 44 16 0 0 14
R3 14
R3
1
4
4
1 0 0
37
37
7
7
7
7
2 20 6 0 1 0 . Pertanto P B,A = 2 20 6 .
7
7
7
7
7
7
8
22
8
2
72 22
0
0
1
7
7
7
7
7
27
Applicazioni lineari
2x y + z + 0t = 0
x + 0y + 2z + 0t = 0 .
4x 3y z + 0t = 0
2 1 1 0
2 1 1 0
1 0
0
2 0
2 0 R3 R3 3R1 1
2 0 4 0
4 3 1 0
165
R3 R3 + 2R2
2 1 1 0
1 0 2 0 .
0 0 0 0
2x y = z
,
x = 2z
cio`e Ker f = {(2z, 3z, z, t) | z, t R}. Abbiamo (2z, 3z, z, t) = (2z, 3z, z, 0) +
(0, 0, 0, t) = z(2, 3, 1, 0) + t(0, 0, 0, 1). Quindi Ker f = Span({(2, 3, 1, 0), (0, 0, 0, 1)}).
Poiche
2 0
2 0
3 0 R2 2R2 3R1
0 0
1 0
0 0 ,
R3 2R3 + R1
0 1
0 1
una base di Ker f e data da {(2, 3, 1, 0), (0, 0, 0, 1)} e dim Ker f = 2.
Essendo Im f = {(2x y + z, x + 2z, 4x 3y z) | x, y, z R}, possiamo scrivere
(2x y + z, x + 2z, 4x 3y z) = (2x, x, 4x) + (y, 0, 3y) + (z, 2z, z) = x(2, 1, 4) +
y(1, 0, 3) + z(1, 2, 1). Quindi Im f = Span({(2, 1, 4), (1, 0, 3), (1, 2, 1)}). Poiche
2 1 1
2 1 1
1 0
2 R3 R3 3R1 1
0
2
4 3 1
2 0 4
2 1 1
R3 R3 + 2R2 1 0 2 ,
0 0 0
una base di Im f e data da {(2, 1, 4), (1, 0, 3)} e dim Im f = 2.
Teorema 27.8 Siano V e W due spazi vettoriali di dimensione finita definiti su un campo
K. Sia f : V W unapplicazione lineare. Allora
dim V = dim Ker f + dim Im f.
Dimostrazione. (Dimostrazione facoltativa) Supponiamo innanzitutto che dim Ker f = 0,
cio`e Ker f = {oV }. In tal caso, per il Teorema 27.6, f e iniettiva e per il Corollario 27.2,
limmagine mediante la f di una base di V e una base di Im f . Quindi dim Im f = dim V
e si ha la tesi.
Sia dim Ker f = dim V . Allora Ker f = V e quindi Im f = {oW } e il teorema e provato.
Sia infine dim Ker f = r, 1 r < dim V = n. Siano B = {u1 , u2 , . . . ur } una base di Ker f e B 0 = {u1 , u2 , . . . , ur , ur+1 , . . . , un } una base di V che estende B (questa
166
base esiste per il Teorema 26.7). Proviamo che f (B 0 \ B) = {ur+1 , . . . , un } e una base di Im f . Per ogni v Im f esiste un vettore w V tale che f (w) = v e quindi
v = f (w) = f (1 u1 + . . . + r ur + r+1 ur+1 + . . . + n un ) = f (1 u1 + . . . + r ur ) +
f (r+1 ur+1 + . . . + n un ) = oW + r+1 f (ur+1 ) + . . . + n f (un ) = r+1 f (ur+1 ) + . . . + n f (un ).
Cio`e Span({f (ur+1 , . . . , f (un )}) = Im f .
Proviamo adesso che {f (ur+1 ), . . . , f (un )} e linearmente indipendente. Sia
r+1 f (ur+1 ) + r+2 f (ur+2 ) + . . . + n f (un ) = ow ,
allora
f (r+1 ur+1 + r+2 ur+2 + . . . + n un ) = ow ,
r+1 ur+1 + r+2 ur+2 + . . . + n un Ker f = Span(B),
r+1 ur+1 + r+2 ur+2 + . . . + n un = 1 u1 + 2 u2 + . . . + r ur ,
r+1 ur+1 + r+2 ur+2 + . . . + n un 1 u1 2 u2 . . . r ur = oV
e quindi, essendo B 0 una base di V ,
1 = 2 = . . . = r = r+1 = r+2 = . . . = n = 0,
e, in particolare, r+1 = r+2 = . . . = n = 0.
28
Siano V e W due spazi lineari sullo stesso campo K aventi rispettivamente dimensione n e
m e basi A = (v1 , v2 , . . . , vn ) e B = (w1 , w2 , . . . , wm ). Vale il seguente teorema.
Teorema 28.1 Unapplicazione lineare f : V W si pu`o assegnare, rispetto le basi A e B,
nei seguenti tre modi equivalenti:
(1) mediante la legge
f (v) = f ((x1 , x2 , . . . , xn )A ) = (a11 x1 + a21 x2 + . . . + an1 xn , a12 x1 + a22 x2 + . . . + an2 xn , . . .
. . . , a1m x1 + a2m x2 + . . . + anm xn )B ;
(2) mediante la matrice
MfA,B
a11 a21
a12 a22
a1m a2m
. . . an1
. . . an2
...
...
...
. . . anm
167
A,B
T
T
(f (v)) = (f ((x1 , x2 , . . . , xn )A )) =
Mf
x1
x2
xn
1
a11
0
a12
T
T
A,B
,
(f (v1 )) = (f ((1, 0, . . . , 0)A )) = Mf =
0 A B
a1m B
A,B
T
T
(f (v2 )) = (f ((0, 1, . . . , 0)A )) =
Mf
168
0
1
a21
a22
a2m
...................................................
A,B
T
T
(f (vn )) = (f ((0, 0, . . . , 1)A )) =
Mf
0
0
an1
an2
anm
Ricordando quanto detto alle pagine 137 e 146 e negli Esempi 26.5 e 26.6, si ha
Corollario 28.1 Im f = Span (f (v1 ))T , f (v2 ))T , . . . , f (vn ))T , pertanto
dim Im f = rango MfA,B .
Esempio 28.1 Si consideri lapplicazione lineare f : R3 R4 definita dalla legge
f (v) = f ((x, y, z)A ) = (x y, x z, y z, x + y + z)B
essendo A = (v1 , v2 , v3 ) e B = (w1 , w2 , w3 , w4 ) rispettivamente le basi di R3 e R4 . Si ha
(x, y, z)A = xv1 + yv2 + zv3 , e
(xy, xz, yz, x+y+z)B = (xy)w1 +(xz)w2 +(yz)w3 +(x+y+z)w4 = x(w1 +w2 +
w4 )+y(w1 +w3 +w4 )+z(w2 w3 +w4 ) = x(1, 1, 0, 1)B +y(1, 0, 1, 1)B +z(0, 1, 1, 1)B .
Per la linearit`a di f , f ((x, y, z)A ) = f (xv1 +yv2 +zv3 ) = xf (v1 )+yf (v2 )+zf (v3 ). Pertanto
f (v1 ) = (1, 1, 0, 1)B , f (v2 ) = (1, 0, 1, 1)B e f (v3 ) = (0, 1, 1, 1)B .
Viceversa, posto f (v1 ) = (1, 1, 0, 1)B , f (v2 ) = (1, 0, 1, 1)B e f (v3 ) = (0, 1, 1, 1)B ,
abbiamo f ((x, y, z)A ) = f (xv1 + yv2 + zv3 ) = xf (v1 ) + yf (v2 ) + zf (v3 ) = x(1, 1, 0, 1)B +
y(1, 0, 1, 1)B + z(0, 1, 1, 1)B = (x y, x z, y z, x + y + z)B .
Si osservi infine che
1 1 0
1 0 1
1
allapplicazione lineare f 1 resta associata la matrice MfA,B
.
Se f : V W e : W U sono due applicazioni lineari, aventi rispettivamente
matrici associate MfA,B e MB,C , allora allapplicazione lineare f resta associata la
matrice MB,C MfA,B .
Esempio 28.2 Si considerino le basi A = (v1 = (1, 2, 2), v2 = (1, 1, 0), v3 = (1, 0, 1)) e
B = (w1 = (1, 1), w2 = (1, 0)) di R3 e di R2 , rispettivamente. Assegnamo, in tutti e tre i
modi, unapplicazione lineare f : R3 R2 :
1. Come equazione f ((x, y, z)A ) = (x y, z x)B .
2. Come matrice
MfA,B
1 1 0
1 0 1
3. Assegnando i valori, nella base B, assunti dalla f nei vettori della base A:
f (1, 2, 2) = f ((1, 0, 0)A ) = (1, 1)B ,
f (1, 1, 0) = f ((0, 1, 0)A ) = (1, 0)B ,
f (1, 0, 1) = f ((0, 0, 1)A ) = (0, 1)B .
Esempio 28.3 Siano f : R3 R2 , A e B definite come nellEsempio 28.2. Determinare
MfE3 ,E2 e lequazione di f rispetto le basi canoniche.
SVOLGIMENTO. Occorre determinare, nella base E2 , i valori di f (e1 ), f (e2 ), f (e3 ) e porre
MfE3 ,E2 = ((f (e1 ))T | (f (e2 ))T | (f (e1 ))T ).
Passo primo. Si determinano i vettori e1 = (1, 0, 0), e2 = (0, 1, 0) e e3 = (0, 0, 1) nella base
A. Procedendo come nel paragrafo 26,
1 1 1 1 0 0
1 1 1 1 0 0
2 1 0 0 1 0 R3 R3 R1 2 1 0 0 1 0
2 0 1 0 0 1
1 1 0 1 0 1
1 1 1 1 0 0
R2 3R2 + 2R3
R3 R3 + R2 2 1 0 0 1 0
R1 3R1 + R3
3 0 0 1 1 1
170
0 3 3 4 1 1
0 0 3 2 2 1
0 3 0 2 1 2 R1 R1 R2 0 3 0 2 1 2
3 0
0 1 1 1
3 0
0 1 1
1
R1 13 R1
3 0
0 1 1
1
R1 R3 0 3 0 2 1 2 R2 13 R2
0 0 3 2 2 1
R3 13 R3
1
1 0 0 13 13
3
1
0 1 0 2
23 .
3
3
2
2
0 0 1 3 3 13
Quindi
1
2
2
1 2 2
= v1 + v2 + v3 ,
e1 = , ,
3 3 3 A
3
3
3
1 1
2
1
1
2
e2 =
, ,
= v1 + v2 v3 ,
3 3
3 A 3
3
3
1
1
2 1
2
1
= v1 v2 + v3 .
e3 =
, ,
3
3 3 A 3
3
3
f (e2 ) = f
1
3
1
,
3
23 A
MfA,B
23
f (e3 ) = f
1
3
23 , 13 A
MfA,B
1
3
1
3
1
3
= (0, 1)B ,
A
2 = (1, 0)B .
3
1
3
Passo terzo. Si determinano (1, 1)B , (0, 1)B e (1, 0)B nella base E2 . Bisogna quindi
cercare la matrice di cambiamento di base P B,E2 . Per quanto detto nel paragrafo 26, si deve
ridurre la matrice
1 0 1 1
(85)
0 1 1 0
in modo che la matrice di ordine 2 prima della | coincida con I2 . In tal caso la (85) soddisfa
questo requisito. Quindi
1 1
B,E2
P
=
1 0
171
ed essendo
1
0
0
1
1
1
B,E2
B,E2
B,E2
P
=
, P
=
, P
=
,
1
1 E2
1 B
0
0 B
1 E2
B
E2
abbiamo (1, 1)B = (0, 1)E2 , (0, 1)B = (1, 0)E2 , (1, 0)B = (1, 1)E2 .
Si osservi che avremmo potuto determinare (1, 1)B , (0, 1)B e (1, 0)B nella base E2 pi`
u
semplicemente procedendo nel seguente modo:
(1, 1)B = w1 + w2 = (1, 1) + (1, 0) = (0, 1) = (0, 1)E2 ,
(0, 1)B = 0w1 w2 = 0(1, 1) (1, 0) = (1, 0) = (1, 0)E2 ,
(1, 0)B = w1 + 0w2 = (1, 1) + 0(1, 0) = (1, 1) = (1, 1)E2 .
Abbiamo quindi
MfE3 ,E2
0 1 1
1 0 1
e lequazione della f e
x
f ((x, y, z)E3 ) = MfE3 ,E4 y = (y + z, x + z)E2 .
z E3
Nel caso specifico (stiamo cercando la matrice di f relativa alle basi canoniche), proponiamo
un altro modo per determinare MfE3 ,E2 che ci consente di evitare lesplicita determinazione
dei vettori e1 , e2 , e3 nella base A. Infatti possiamo scrivere
f ((1, 2, 2)E3 ) = f ((1, 0, 0)A ) = (1, 1)B = (1, 1)E2 (1, 0)E2 = (0, 1)E2 ;
f ((1, 1, 0)E3 ) = f ((0, 1, 0)A ) = (1, 0)B = (1, 1)E2 = (1, 1)E2 ;
f ((1, 0, 1)E3 ) = f ((0, 0, 1)A ) = (0, 1)B = (1, 0)E2 .
Ed essendo
f ((1, 2, 2)E3 ) = f (e1 + 2e2 + 2e3 ), f ((1, 1, 0)E3 ) = f (e1 + e2 ), f ((1, 0, 1)E3 ) = f (e1 + e3 ),
1 2 2
(0, 1)
1
1 1 0 (1, 1) 1
1 0 1
(1, 0)
1
1 2 2
(0, 1)
3
1 1 0 (1, 1) 3
0 3 0 (3, 0)
0
3
0 0 6 (6, 6)
3 0 0 (0, 3) 0
0 3 0 (3, 0)
0
1 0 0 (0, 1)
0 1 0 (1, 0) .
0 0 1 (1, 1)
(0, 1)
2 2
1 0 (1, 1)
2 0 (2, 1)
0 6 (6, 3)
0 0 (0, 3)
3 0 (3, 0)
0 0 (0, 3)
3 0 (3, 0)
0 6 (6, 6)
0 1 1
E3 ,E2
Mf
=
.
1 0 1
Esempio 28.4 Sia f : R3 R4 lapplicazione
dalla matrice
1
MfE3 ,E4 =
1
1
1
2
1 1
.
1
0
0
1
1. Studiare f .
2. Verificare che
A = ((1, 2, 1), (1, 2, 0), (0, 1, 1))
1
1
2
1
1 1 1
2
1
0
1
0
1 0
1
1
1 2
1 1 2
2 0 1
0 1
0 0 2
0 2
0 1
0 0 0
173
1
1
2 x
1 1 1 y
.
(86)
1
1
0 z
1 0
1 t
Per il metodo di riduzione
1 1 2
1
1
2 x
x
2 0 1 x+y
1 1 1 y
0 0 2 z x
1
1
0 z
1 0
1 t
1 0 1
t
1 1 2
x
2 0 1
x+y
,
0 0 2
zx
0 0 0 4t + x + 4y + 3z
0
0
1 2
x
0 1
x+y
0 2
zx
0 3 2t + 2y + 2x
1 3 1 2
1 1 0
2 2 1 1 1 1 0 .
2 3 0 1
1 0 1
2 1 0 1
Pertanto A e B sono due basi.
Punto 3. Calcoliamo ora MfA,B . Si ha:
f ((1, 0, 0)A ) = f ((1, 2, 1)E3 ) = (5, 2, 3, 0)E4 ,
f ((0, 1, 0)A ) = f ((1, 2, 0)E3 ) = (3, 1, 3, 1)E4 ,
f ((0, 0, 1)A ) = f ((0, 1, 1)E3 ) = (3, 2, 1, 1)E4 .
Adesso bisogna esprimere in base B i vettori (5, 2, 3, 0)E4 , (3, 1, 3, 1)E4 e (3, 2, 1, 1)E4 .
Cerchiamo la matrice di cambiamento di base P E4 ,B :
174
1
1
2
2
1
0
4
4
0
0
0
4
4
0
0
0
3
1
3
1
3
2
4
0
1
1
0
0
2
0
1
1
1
0
0
0
0
1
0
0
0
0
1
0
1 2
1
0 2 1
0 0 1
0 0 1
0 4 8 5
0 0 4 2
4 0
0
0
0 0
0 1
0 0
0 1
4 0
0
0
0 4 0 1
0 0 4 2
0
1 3 1 2
1 0 0 0
0
0 2 0 2 1 1 0 0
2 3 0 1
0
0 0 1 0
1
2 1 0 1
0 0 0 1
0 0 0
0 12 4 8 5 1 0 2
1 0 0
0 2 0 2 1 1 0 0
0 4
0
0
1 2 0
0 0 2 2
1 0 2
4 0
0
0 1 1 0 2
1 6 4
0 0 4 0 1 3 2 0
2 2 2
0 0 0 4 2 2 2 2
0 4 0
0 2 2
0
0
0 2 2
1 0 2
4 0 0
0 1 1 0 2
1
1 0 2
1 0 0 0 14 14
0
2
1
12
0 2 2
0
2
0 1 0 0 01
.
3
1
0 0 1 0
3 2 0
0
4
4
2
1
1
1
1
2 2 2
0 0 0 1 2 2 2 2
Pertanto
P E4 ,B
14
0
=
1
4
1
2
Essendo
7
5
4
3
2
27
P E4 ,B
=
3
4
0
2
E4
3
4
21
21
0
12
1
2
1
2
12
.
0
1
2
3
3
2
, P E4 ,B 1 = 23
3
2
0
1 E4
B
3
3
4
2
0
P E4 ,B
1 = 5
4
5
1
2
E4
abbiamo
1
4
7 3 7
,
f ((1, 0, 0)A ) = (5, 2, 3, 0)E4 = , , , 2
4 2 4
B
3
3
f ((0, 1, 0)A ) = (3, 1, 3, 1)E4 = , 2, , 0
,
2
2
B
3
5 5
f ((0, 0, 1)A ) = (3, 2, 1, 1)E4 = , 0, ,
e quindi
4
4 2 B
175
MfA,B
74 32 34
3
2
0
2
=
7
3
5 .
4
2
4
5
2
0
2
x
7
3
3 3
7
3
5
5
A,B
y
= x y z, x + 2y, x y z, 2x + z
.
f ((x, y, z)A ) = Mf
4
2
4 2
4
2
4
2 B
z A
Esempio 28.5 Siano A = (v1 = (1, 2), v2 = (2, 2)), C = (u1 = (3, 3), u2 = (1, 0)),
B = (w1 = (1, 2, 3, 3), w2 = (2, 2, 0, 0), w3 = (1, 0, 1, 0), w4 = (1, 1, 1, 1)),
D = (z1 = (1, 1, 1, 1), z2 = (0, 1, 1, 1), z3 = (0, 0, 1, 1), z4 = (0, 0, 0, 1)).
1. Verificare che A e C sono due basi in R2 e che B e D sono due basi in R3 .
2. Assegnata lapplicazione f avente matrice associata
1 1
1
3
MfA,B =
2 1 ,
1
2
determinare MfC,D .
SVOLGIMENTO. Il quesito 1 si verifica facilmente. Risolviamo il quesito 2. Determiniamo
u1 e u2 nella base A (in altre parole determineremo la matrice P C,A ):
1 2
1 2 3 1
3
1
2 2 3 0
0 2 3 2
0 1
1 0
1 0 0 1
.
0 2 3 2
0 1 32 1
0 1
C,A
Abbiamo quindi P
=
, cio`e
3
1
2
3
u1 = 0,
, u2 = (1, 1)A .
2 A
x
A,B
Poich`e f ((x, y)A ) = Mf
= (x + y, x + 3y, 2x y, x + 2y)B , si ha
y A
176
f (u1 ) = f (0, 32 )A = 32 , 92 , 23 , 3 B ,
f (u2 ) = f ((1, 1)A ) = (2, 2, 3, 1)B .
1 0 0 0 1 2 1 1
1 0 0 0 1 2 1 1
1 1 0 0 2 2 0 1
0 1 0 0 1 0 1 0
1 1 1 0 3 0 1 1
0 1 1 0 4 2 2 2
1 1 1 1 3 0 0 1
0 1 1 1 4 2 1 2
1 0 0 0 1 2 1 1
1 0 0 0 1 2 1 1
0 1 0 0 1 0 1 0
0 1 0 0 1 0 1 0
0 0 1 0 3 2 3 2 0 0 1 0 3 2 3 2
0 0 1 1 3 2 2 2
0 0 0 1 0 0 1 0
1 0 0 0 1 2 1 1
0 1 0 0 1
0 1 0
.
0 0 1 0 3
2
3
2
0 0 1 1 0
0 1 0
Pertanto
P B,D
1 2 1 1
1
0 1 0
,
=
3
2
3
2
0
0 1 0
e quindi
3
3 9 3
= 12, 3, 15,
, (2, 2, 3, 1)B = (2, 7, 1, 3)D
, , ,3
2 2 2
2 D
B
12 2
3
7
MfC,D =
15 1 .
3
3
2
NellEsempio 28.5 abbiamo determinato MfC,D , supposta nota la MfA,B . Il metodo mostrato in questo esempio e, ovviamente, del tutto generale. Possiamo formulare meglio il metodo
usato in modo da mettere in evidenza il legame intercorrente fra le matrici di cambiamento
di base e le matrici associate allapplicazione lineare f .
Teorema 28.2 (Metodo per determinare la matrice associata MfC,D qualora si
supponga nota la MfA,B .)
177
(88)
(89)
Posto
u = (u1 , u2 , . . . , un )A = (u01 , u02 , . . . , u0n )C e
0
v = (v1 , v2 , . . . , vm )B = (v10 , v20 , . . . , vm
)D ,
possiamo scrivere la (89) nei due seguenti modi (a seconda che si consideri la matrice associata
alla f espressa rispetto le basi A, B oppure C, D):
0
0
v1
u1
v1
u1
v2
u2
v20
u02
A,B
C,D
(90)
= Mf e = Mf .
0
vn B
um A
vn D
u0m C
Ricordando che P C,A e la matrice di cambiamento dalla base C alla base A in V e P B,D e la
matrice di cambiamento da B a D in W , si ha
0
0
u1
u1
v1
v1
u02
u2
v2
v20
C,A
B,D
P
= e P
= .
u0m C
um A
vn B
vn0
D
Quindi
v10
v20
vn0
B,D
=P
v1
v2
vn
A,B
B,D
=P
Mf
178
u1
u2
um
A,B
B,D
C,A
=P
Mf P
u01
u02
u0m
da cui
v10
v20
vn0
A,B
B,D
C,A
=P
Mf P
u01
u02
u0m
(91)
Confrontando la (91) con la seconda delle (90) si ottiene la (87). Dalla (87) si ricava,
1 C,D C,A 1
Mf
= P D,B MfC,D P A,C
MfA,B = P B,D
P
e quindi 88 resta provata.
NellEsempio 28.5 abbiamo gi`a determinato le seguenti matrici
1
1 1
1
1
3
0
1
C,A
MfA,B =
=
e P B,D =
3
2 1 , P
1
3
2
0
1
2
Per la (87) si ha
1 2 1 1
1 1
1
0 1 0 1
3
MfC,D =
3
2
3
2 2 1
0
0 1 0
1
2
2 1 1
0 1 0
.
2
3
2
0 1 0
0 1
3
1
2
12 2
3
7
=
15 1 .
3
3
2
(92)
Pertanto MfA,A si ottiene dalla MfC,C attraverso il prodotto H 1 MfC,C H essendo, nel nostro caso, H = P A,C . Analogamente MfC,C si ottiene dalla MfA,A attraverso il prodotto
1
H 1 MfC,C H ove si ponga H = P C,A = P A,C . Possiamo generalizzare quanto detto nel
seguente modo.
Definizione 28.1 Due matrici A, B M(n; K) si dicono simili se esiste una matrice
invertibile H M(n; K) di ordine n tale che B = H 1 AH.
179
29
Autovalori ed autovettori
180
a + b = a
(1 )a + b = 0
,
.
a + b = b
a + (1 )b = 0
Per essere un autovalore, il precedente sistema deve avere soluzioni (a, b) diverse dalla
banale. Quindi deve essere
1
1
= 0,
1
1
le cui soluzioni = 0 e = 2 danno gli autovalori cercati.
Allautovalore = 0 corrispondono gli autovettori (a, a) per ogni a R, a 6= 0. Infatti
essi sono le soluzioni diverse dalla banale del sistema
(1 )a + b = 0
a + (1 )b = 0
per = 0. Analogamente gli autovettori corrispondenti a = 2 sono dati da (a, a) per ogni
a R, a 6= 0.
Esempio 29.2 Sia f : R2 R2 lendomorfismo definito, rispetto la base canonica di R2 ,
dalla legge f (x, y) = (x + 2y, x y). Verificare che f non ammette autovettori.
SVOLGIMENTO. Se (, ) R2 fosse un autovettore per f , allora (, ) 6= (0, 0) ed esisterebbe un R tale che f (, ) = (, ) ovvero ( + 2, ) = (, ). Quindi il
sistema
(1 ) + 2 = 0
(93)
(1 + ) = 0
dovrebbe ammettere soluzioni diverse dalla banale. Il che implica
11 1 = 0,
e quindi 2 + 1 = 0 per qualche 6= 0. Impossibile.
Osservazione. La stessa legge f , applicata allo spazio vettoriale C2 sul campo C, risulta un
endomorfismo su C2 che ha autovalori.
Teorema 29.1 Sia f : V V un isomorfismo. Allora K e un autovalore per f se e
solo se 1 e un autovalore per f 1 .
181
182
30
2 2 0
MfA,E3 = 3 1 2 .
3 0 1
183
Per determinare M E3 ,E3 (x) e necessario calcolare la matrice MfE3 ,E3 . Per la (87) (vedasi
f
1
1
1
1
0
0
1
0
0
1 0 1 0 0
1 1 0 1
0 1 0 1 0
0 1 1 1
1 1 0 0 1
0 2 1 1
1
0
0
1 1 0
1 0
1 1 1 1 0
0 1 0
0 1 1 2 1
0 0 1
0 0 1 1 1
1 0 0
1 1 .
0 1 1 2 1
Quindi
(94)
0
0
1 0
0 1
1 0 0
0 1 1
1 2 1
P E3 ,A
1 1 1
1 1
= 0
1 2 1
e, per la (94),
MfE3 ,E3
Pertanto
2 2 0
1 1 1
2 0 0
1 1 = 1 0 2 .
= I3 3 1 2 0
3 0 1
1 2 1
2 1 2
2x 0
0
x
2
M E3 ,E3 (x) = 1
f
2
1 2 x
= (2 x)(x2 2x + 2).
Determiniamo ora M A,A (x). In tal caso dobbiamo calcolare MfA,A . Per la (87) (vedasi
f
Teorema 28.2) abbiamo
MfA,A = P E3 ,A MfA,E3 P A,A
e quindi
MfA,A
Pertanto
1 1 1
2 2 0
2 3 1
1 1 3 1 2 I3 = 0 1 1 .
= 0
1 2 1
3 0 1
1 4 3
2x
3
1
1 x
1
M A,A (x) = 0
f
1
4
3x
184
= (2 x)(x2 2x + 2)
0
x1
x2 0
A,A
(95)
(Mf In )
= ,
0
xn
per cui, in particolare,
dim V = n r(MfA,A In ),
ove r(MfA,A In ) denota il rango della matrice MfA,A In (vedasi Definizione 15.5).
Esempio 30.2 Sia f lendomorfismo definito nellEsempio 30.1. Determinare, nella base
A, i vettori dellautospazio V2 associato allunico autovalore per f .
SVOLGIMENTO. In virt`
u della (95), e sufficiente risolvere il sistema
x1
0
A,A
0 ,
(Mf 2I3 ) x2
=
x3
0
2 3 1
0 1 1
1 4 3
0
0
1
1 0 0
x1
0
2 0 1 0 x2 = 0 ,
0 0 1
x3
0
3 1
0
x1
3 1
x2
0 ,
=
x3
4 1
0
3x2 x3 = 0
.
x1 x2 = 0
185
Quindi
V2 = {(x2 , x2 , 3x2 )A | x2 R} .
Essendo r(MfA,A 2I3 ) = 2,
dim V2 = 3 r(MfA,A 2I3 ) = 1.
Una base di V2 e data dal vettore (1, 1, 3)A .
31
Il presente paragrafo e la (libera) traduzione italiana dellarticolo Searching the web with
eigenvectors di Herbert S. Wilf, University of Pennsylvania, Philadelphia, PA 19104-6395
(April 13, 2001).
Come potremmo misurare limportanza di un sito web? Un sito e importante se altri importanti siti web si connettono ad esso (questa definizione potrebbe apparire un circolo vizioso ma, per il momento, non preoccupiamocene). Supponiamo che x1 , x2 , . . . , xn esprimano,
rispettivamente, la misura dellimportanza dei siti 1, 2, . . . , n. Cio`e
xi = importanza del sito i.
Vogliamo che limportanza di ogni sito web sia proporzionale alla somma delle importanze
di tutti gli altri siti che si connettono ad esso. Si ottiene un sistema di n equazioni in n
incognite che potrebbe assomigliare, per esempio, al seguente:
186
(97)
ove si ponga aij = 1 per ogni coppia (i, j) {(1, 14), (1, 97), (1, 541), (2, 14), (2, 1003), (2, 3224),
(2, 10029), . . . , (n, 1), (n, 23), (n, 10098), (n, 10099)} e aij = 0 per ogni coppia (i, j) tale che
xij non appare al secondo membro di (96).
Ovviamente, attribuendo valori diversi (ma sempre 0 o 1) ai coefficienti aij , (97) esprime,
in generale, limportanza che ogni sito ha in funzione dei rimanenti. Si noti che in (97)
valgono sempre le uguaglianze aii = 0 per ogni i {1, 2, . . . , n}.
Posto
x = x3 e A =
a31 a32 0 a3n ,
an1 an2 an3 0
xn
il sistema (97) pu`o essere formulato nel seguente modo
x = kAx,
o, equivalentemente,
1
x.
(98)
k
Ricordando che A pu`o essere vista come la matrice associata, rispetto alla base canonica,
ad una applicazione lineare f : Rn Rn (tale che MfEn ,En = A) la (98) diventa
Ax =
f (x) =
1
x.
k
(99)
Il vettore delle importanze e quindi una soluzione x della (99). Dunque il vettore delle
importanze e un particolare autovettore corrispondente ad un opportuno autovalore positivo
1
. Possiamo allora procedere, per esempio, trovando tutti gli autovettori di f e poi sceglierne
k
uno avente tutte le componenti positive.
Il motore di ricerca Google usa una variante di questa idea (descritta dettagliatamente
dagli inventori di Google, Sergey Brin e Lawrence Page, The anatomy of a large-scale hypertextual web search engine, Computer Networks and ISDN Systems, 30 (1998), 107-117).
Lutente invia una richiesta al motore Google ed ottiene in risposta una lista di siti in ordine
decrescente di importanza. Questo, in genere, fa risparmiare tempo prezioso nella ricerca.
Lidea di usare gli autovettori per determinare il vettore delle importanze e dovuta a Kendall
e Wei intorno al 1950. Sebbene si possa usare in molti altri campi questo metodo e diventato
famoso grazie alle applicazioni web. Il lettore interessato pu`o studiare i lavori originali:
187
0 1 0 0 1 0
0 0 1 0 1 0
1 0 0 0 0 0
A = (aij ) =
(100)
1 1 1 0 0 1 .
0 0 1 1 0 0
1 1 1 0 1 0
Se poniamo xi = bravura della squadra i, abbiamo il sistema:
x1 = k(a12 x2 + a15 x5 )
x2 = k(a23 x3 + a25 x5 )
x3 = ka31 x1
x4 = k(a41 x1 + a42 x2 + a43 x3 + a46 x6 )
x = k(a53 x3 + a54 x4 )
5
x6 = k(a61 x1 + a62 x2 + a63 x3 + a65 x5 )
che, espresso in forma matriciale, diventa
x = kAx,
ovvero
1
x
k
e quindi, anche questo problema, diventa quello della ricerca di unopportuno autovalore
con un opportuno autovettore ad esso associato. Questo problema oggi e risolto in tempi
brevissimi dai programmi di calcolo a disposizione. Nel nostro caso, la matrice A definita in
Ax =
188
(100) ha un solo autovalore reale positivo k1 = 2.0427 cui possiamo associare lautovettore
x1
0.3113
x2 0.2591
x3 0.1524
x=
= 0.6173 .
x
4
x5 0.3768
x6
0.5383
Quindi, concordemente al vettore delle bravure, la classifica finale in base alla bravura e,
nellordine,
4, 6, 5, 1, 2, 3.
Si noti che, in base al punteggio, avremmo avuto al primo posto con punti 4 le squadre 4 e
6, al secondo posto con punti 2 le squadre 1, 2, e 3.
32
Endomorfismi semplici
: V V e un endomorfismo i cui
V1 V2 . . . Vr V.
naturale chiedersi quando vale luguaglianza nella precedente inclusione. In tal caso,
E
essendo
V1 V2 . . . Vr = V
sar`a possibile costruire in V una base formata da autovettori: baster`a prendere lunione di
basi prese da ciascun sottospazio Vi , i = 1, 2, . . . , r.
Definizione 32.1 Sia V uno spazio vettoriale sul campo K. Un endomorfismo f : V V
si dice semplice se esiste una base di V formata da autovettori.
Teorema 32.1 Un endomorfismo f : V V e semplice se e solo se esiste una base A di
V tale che la matrice MfA,A risulti una matrice diagonale (si veda la Definizione 10.4).
Dimostrazione. (Dimostrazione facoltativa) Sia f : V V un endomorfismo semplice.
Allora esiste una base A = (v1 , v2 , . . . , vn ) per V con v1 , v2 , . . . , vn autovettori per f . Per
definizione di autovettore, esistono n scalari 1 , 2 , . . . , n K (non necessariamente distinti)
tali che
f (vi ) = i vi , i = 1, 2, . . . , n.
Segue subito
MfA,A
1 0 0
0 2 0
0 0 3
0 0 0
189
0
0
0
n
1 0 0 0
0 2 0 0
A,A
Mf =
0 0 3 0 .
0 0 0 n
Ne segue
f (vi ) = i vi , i = 1, 2, . . . , n
e quindi i vettori vi della base A sono autovettori ed f risulta semplice.
Teorema 32.2 Sia V uno spazio vettoriale su K di dimensione finita n e sia f : V V
un endomorfismo avente n autovalori distinti. Allora f e semplice.
Definizione 32.2 Sia un autovalore per lendomorfismo f : V V . Dicesi molteplicit`
a
algebrica di , e si denota con m , la molteplicit`a di come radice del polinomio caratteristico
di f .
Teorema 32.3 Sia V uno spazio vettoriale su K e sia f : V V un endomorfismo avente
un autovalore K di molteplicit`a algebrica m . Allora
1 g = dim V m .
In altre parole la molteplici`a geometrica e minore od uguale a quella algebrica.
Teorema 32.4 Sia V uno spazio vettoriale su K e sia f : V V un endomorfismo i cui
autovalori distinti sono 1 , 2 , . . . , r . Allora i seguenti fatti sono equivalenti:
1. f e semplice;
2. V = V1 V2 . . . Vr ;
3. dim V = dim V1 + dim V2 + . . . + dim Vr ;
4. ogni radice del polinomio caratteristico f (x) sta in K e g = dim V = m .
Esempio 32.1 Sia f : R3 R3 lendomorfismo definito da f (v1 ) = hv1 , f (v2 ) = (h
2)v1 +2v2 e f (v3 ) = (2h+4)v1 +4v2 2v3 , dove v1 = (1, 0, 1), v2 = (0, 1, 1) e v3 = (1, 2, 0).
Determinare i valori del parametro reale h per cui f e semplice ed in tali casi trovare una
base di autovettori.
SVOLGIMENTO. Innanzitutto si osservi che
1 0 1
0 1 2 =
6 0,
1 1 0
190
quindi A = (v1 , v2 , v3 ) e una base per R3 e f (v1 ) = (h, 0, 0)A , f (v2 ) = (h 2, 2, 0)A ,
f (v3 ) = (2h + 4, 4, 2)A . Quindi
h h 2 2h + 4
,
2
4
MfA,A = 0
0
0
2
h h 2 2h + 4
1 0 0
x 0 1 0 =
2
4
f (x) = 0
0
0
2
0 0 1
h x h 2 2h + 4
0
0
2 x
Le radici del polinomio caratteristico sono 2, 2, h che possono essere semplici o doppie
a seconda che h 6= 2 oppure h = 2.
Caso h = 2. Gli autovalori sono 2, 2 e si ha m2 = 2 e m2 = 1. Bisogna quindi
controllare se g2 = m2 , essendo g2 = dim V2 = 3 r MfA,A (2)I3 .
MfA,A
2 4 0
1 0 0
0 4 0
2
4 + 2 0 1 0 = 0 4 4 il cui rango e 2.
(2)I3 = 0
0
0 2
0 0 1
0 0 0
A,A
quindi controllare se g2 = m2 , essendo g2 = dim V2 = 3 r Mf 2I3 .
2 0 8
1 0 0
0 0 8
MfA,A 2I3 = 0 2 4 2 0 1 0 = 0 0 4
0 0 2
0 0 1
0 0 4
il cui rango e 1. Quindi g2 = 3 1 = 2 = m2 e lendomorfismo e semplice ed esiste una base
di autovettori. Essa e data dallunione di una base di V2 con una di V2 .
Ricerca di una base per V2 . Si ha che (x1 , x2 , x3 )A V2 se e solo se
x1
MfA,A 2I3 x2 = 0 ,
x3
0
0 0 8 x1
0
0 0 4 x2 = 0 ,
0 0 4 x3
0
191
x3 = 0.
Quindi
V2 = {(x1 , x2 , 0)A | x1 , x2 R} .
Pertanto ((1, 0, 0)A , (0, 1, 0)A ) e una base per V2 .
Ricerca di una base per V2 . Si ha che (x1 , x2 , x3 )A V2 se e solo se
x1
A,A
x2
0 ,
Mf (2)I3
=
x3
0
4 0 8 x1
0
0 4 4 x2 = 0 ,
0 0 0 x3
0
x2 = x3
.
x1 = 2x3
Quindi
V2 = {(2x3 , x3 , x3 )A | x3 R} .
Pertanto una sua base e ((2, 1, 1)A ).
In conclusione una base di autovettori e data da
D = ((1, 0, 0)A , (0, 1, 0)A , (2, 1, 1)A ) .
Si noti che, per il Teorema 32.1, si ha
2 0 0
= 0 2 0 .
0 0 2
MfD,D
ha
1 0 2
PfD,A = 0 1 1 .
0 0 1
Determiniamo P A,D .
1 0 2 1 0 0
1 0 0 1 0 2
0 1 1 0 1 0 0 1 0 0 1 1 ,
0 0 1 0 0 1
0 0 1 0 0 1
192
quindi
1 0 2
PfA,D = 0 1 1 ,
0 0 1
1 0 2
2 0 8
1 0 2
2 0 0
= 0 1 1 0 2 4 0 1 1 = 0 2 0 .
0 0 1
0 0 2
0 0 1
0 0 2
x1
A,A
0 ,
x2
=
Mf 2I3
0
x3
h 2 h 2 2h + 4 x1
0
0
4
0 ,
=
x2
0
0
4
x3
0
x2 = x1
.
x3 = 0
Quindi
V2 = {(x1 , x1 , 0)A | x1 R} .
Una sua base e quindi (1, 1, 0)A .
Ricerca di una base per V2 . Si ha che (x1 , x2 , x3 )A V2 se e solo se
x1
A,A
x2
0 ,
Mf (2)I3
=
x3
0
h + 2 h 2 2h + 4 x1
0
4
4
0 ,
=
x2
0
x3
0
0
0
Quindi
V2 =
h+6
x1 = h+2
x2
.
x3 = x2
h+6
x2 , x2 , x2
h+2
193
| x2 R .
A
x1
MfA,A hI3 x2 = 0 ,
x3
0
0 h 2 2h + 4 x1
0
0 2h
x2 = 0 ,
4
0
0
2 h x3
0
x2 = 0
.
x3 = 0
Quindi
Vh = {(x1 , 0, 0)A | x1 R} .
Una sua base e quindi (1, 0, 0)A .
In conclusione una base di autovettori e data da
h+6
D = (1, 1, 0)A ,
, 1, 1 , (1, 0, 0)A .
h+2
A
Si noti che, per il Teorema 32.1, si ha
MfD,D
ha
2 0 0
= 0 2 0 .
0 0 h
1 h+6
1
h+2
PfD,A = 1 1 0 .
0 1 0
Determiniamo P A,D .
1
1 h+6
1 1 0 0
h+2
1 1 0 0 1 0 0
0 1 0 0 0 1
0
h+6
h+2
2h+8
h+2
194
1 1 0 0
1 1 1 0
0 0 0 1
h+6
h+2
2h+8
h+2
1 0 1 1 0
0 0 1 1 1
0 1 0 0 0
1 0 0 0 1
0 0 1 1 1
0 1 0 0 0
PfA,D
MfD,D
33
0 1
= 0 0
1 1
0 1
= 0 0
1 1
1
2h+8
h+2
, quindi
1
1 ,
2h+8
h+2
h+6
1
1 h+2
1
h h 2 2h + 4
2 0 0
1 1 0 = 0 2 0 .
1 0
2
4
2h+8
0
0
2
0 0 h
0 1 0
h+2
Matrici diagonalizzabili
MfA,A = M.
M
f (x1 , x2 , . . . , xn )A =
195
x1
x2
xn
T
.
1
1 2
M=
1x
= x2 3x + 2 .
M (x) =
1
2x
Essendo = 1 + 4, abbiamo i seguenti casi:
1. Se < 14 allora < 0 e il polinomio caratteristico non ha radici reali. Quindi M
non e diagonalizzabile.
2. Se > 14 allora > 0 e il polinomio caratteristico ha due radici reali e distinte.
Quindi M e diagonalizzabile.
3. Se = 14 allora = 0 e il polinomio caratteristico ha la radice
Daltra parte
1 32
r
=1
1
2 32
3
2
con molteplicit`a 2.
per cui
g 3 = dim V 3 = 2 1 = 1 < 2 = m 3 ,
2
M=
1 1
3 1
1 x
1
= x2 4.
M (x) =
3
1x
196
1 2
1
x1
0
=
,
3
12
x2
0
quindi V2 = {(x1 , 3x1 )E | x1 R} e una sua base e (1, 3)E .
Base per V2 :
x1
0
1 + 2
1
=
,
0
3
1+2
x2
quindi V2 = {(x1 , x1 )E | x1 R} e una sua base e (1, 1)E .
Quindi D = ((1, 3)E , (1, 1)E ) e una base di autovettori. Ricordando il metodo di pagina
160, la matrice che permette la diagonalizzazione e
1 1
D,E
P
=
.
3 1
Si noti che, per il Teorema 32.1, si ha
MfD,D
2 0
0 2
1 1 1 0
1 1
1 0
3 1 0 1
0 4 3 1
4 0
1 1
1 0 14 14
, quindi
0 4 3 1
0 1 34 1
4
1 1
E,D
4
4
Pf =
,
3
1
4
1
4
3
4
1
4
1
4
1 1
1 1
2 0
=
.
3 1
3 1
0 2
precedente. Per la Definizione 33.1, esiste una matrice invertibile H tale che H 1 M H = D,
ove D e una matrice diagonale. Ne segue M = HDH 1 . Pertanto
M k = (HDH 1 ) (HDH 1 ) (HDH 1 ) = HD(H 1 H)D(H 1 H)D (H 1 H)DH,
|
{z
}
k volte
quindi
M k = HDk H 1 .
Si osservi che lutilit`a della precedente formula dipende dal fatto che, per il Teorema 10.2, il
calcolo della potenza di una matrice diagonale e immediato.
Esempio 33.3 Sia
M=
1 1
3 1
Calcolare M 79 .
Come visto nellEsempio 33.2, M e diagonalizzabile e la matrice H che permette la diagonalizzazione e
1 1
.
H=
3 1
Sempre nello stesso esempio abbiamo determinato
1 1
1
4
4
H =
3
1
4
1 1
1 1
2 0
1 1
4
4
=
.
3
1
3 1
0 2
3 1
4
4
Ne segue
1 1
3 1
1 1
3 1
79
=
1 1
3 1
1 1
3 1
79
2 0
0 2
1 1
0
4
34 1
.
(2)79
4
4
1 1
3 1
79
2
2 0
0 2
1
4
3
4
1
4
1
4
6 7 3
M = 5 6 3 .
1 1
2
198
1
4
3
4
1
4
1
4
Calcolare M 5 .
SVOLGIMENTO. Vediamo se M e diagonalizzabile. Cio`e se lendomorfismo f : R3 R3
tale che MfE,E = M e semplice. Il polinomio caratteristico e
6x
7
3
6 x 3
M (x) = 5
1
1
2x
7 7 3
x1
0
5 5 3 x2 = 0 ,
1 1
3
x3
0
quindi V1 = {(x1 , x1 , 0)E | x1 R} e
Base per V2 :
4 7
5 8
1 1
x1
0
5 7 3
5 7 3 x2 = 0 ,
x3
0
1 1
1
quindi V1 = {(2x2 , x2 , x2 )E | x2 R} e una sua base e (2, 1, 1)E .
Quindi D = ((1, 1, 0)E , (1, 1, 1)E , (2, 1, 1)) e una base di autovettori. Ricordando il
metodo di pagina 160, la matrice che permette la diagonalizzazione e
1 1 2
H = P D,E = 1 1 1 .
0 1 1
Cerchiamo H 1 :
1 1 2 1 0 0
1 1 2 1 0 0
1 1 1 0 1 0 0 0 1 1 1 0
0 1 1 0 0 1
0 1 1 0 0 1
199
1 1 2 1 0 0
1 1 0 1
0 1 1 0 0 1 0 1 0 1
0 0 1 1 1 0
0 0 1 1
2 3
1
1 1
H =
1 1
6 7 3
1 1 2
M = 5 6 3 = 1 1 1
1 1
2
0 1 1
2 0
1 1 , quindi
1 0
1
1 ,
0
1 0 0
2 3 1
0 2 0 1 1 1 .
0 0 1
1 1 0
Ne segue
1 1 2
M 5 = 1 1 1
0 1 1
1 1 2
1
= 1 1 1 0
0 1 1
0
34
5
1 0 0
0 2 0
0 0 1
0 0
2
32 0 1
0 1
1
2 3 1
1 1 1 =
1 1 0
3 1
1 1 .
1 0
Come osservato alla fine del paragrafo 28, il problema di determinare se due matrici di ordine
n sono simili (cfr. Definizione 28.1) oppure no e difficile. In questo paragrafo daremo una
parziale risposta a questo problema.
In virt`
u dei Teoremi 28.3 e 30.2, due matrici simili A e B hanno lo stesso polinomio
caratteristico (non e detto per`o che vale il viceversa!). Quindi un primo metodo di controllo
consiste nel calcolare i due polinomi caratteristici A (x) e B (x):
Se A (x) 6= B (x) allora A e B non sono simili.
Se A (x) = B (x) allora A e B possono essere simili.
Esempio 34.1 Provare che le matrici
2 0
0 2
A=
, B=
,
0 4
4 6
C=
2 1
0 4
avente gli autovalori nella diagonale principale. Per provare che A e B (risp. A e C) sono
simili e sufficiente provare che B (risp. C) e diagonalizzabile. Infatti, per il Teorema 33.1,
se B (risp. C) e diagonalizzabile allora e possibile determinare una matrice invertibile H1
(risp. H2 ) tale che A = H11 BH1 (risp. A = H21 CH2 ). In particolare se F (risp. G) e una
base di R2 formata da autovettori di B (risp. C , H1 (risp. H2 ) coincide con la matrice di
cambiamento di base P F,E2 (risp. P G,E2 ).
Ricordiamo che
MEB2 ,E2 = B
e che 2 e 4 sono i due autovalori di B .
I vettori di V2 si ottengono risolvendo il sistema
0 2 2
x1
0
=
.
4
62
0
x2
Quindi V2 = {(x2 , x2 )E2 | x2 R} e una sua base e data dal vettore (1, 1).
I vettori di V4 si ottengono risolvendo il sistema
0 4 2
x1
0
=
.
4
64
x2
0
Quindi V4 = {(x1 , 2x1 )E2 | x1 R} e una sua base e data dal vettore (1, 2).
immediato verificare che H1 = P F,E2 =
Pertanto F = ((1, 1), (1, 2)). E
Cerchiamo P E2 ,F .
1 1 1 0
1 1 1 0
1 2 0 1
0 1 1 1
1 0 2 1
1
E2 ,F
. Quindi H1 = P
=
0 1 1 1
1 0 2 1
0 1 1 1
2 1
.
1 1
1 1
1 2
2 1
0 2
1 1
4 2
1 1
2 0
=
=
.
1 1
4 6
1 2
4 4
1 2
0 4
Abbiamo cos` provato che A e B sono simili. Proviamo ora la similitudine fra A e C.
Ricordiamo che
MEC2 ,E2 = C
e che 2 e 4 sono i due autovalori di C .
I vettori di V2 si ottengono risolvendo il sistema
0
22
1
x1
=
.
x2
0
0
42
201
Quindi V2 = {(x1 , 0)E2 | x1 R} e una sua base e data dal vettore (1, 0).
I vettori di V4 si ottengono risolvendo il sistema
24
1
x1
0
=
.
0
44
x2
0
Quindi V4 = {(x1 , 2x1 )E2 | x1 R} e una sua base e data dal vettore (1, 2).
1 1 1 0
1 0 1
0 1 0
0 2 0 1
1
2
1
2
1
E2 ,G
. Quindi H2 = P
=
1
2
1
2
1 1
0 2
1 1
2 1
1 1
2 1
1 1
2 0
2
=
=
.
0 12
0 4
0 2
0 2
0 2
0 4
La similitudine fra B e C segue immediatamente dalla Proposizione 28.2.
Come conseguenza del Teorema 33.1, se una matrice A e diagonalizzabile sar`a simile a
matrici diagonali in cui gli elementi della diagonale sono gli autovalori di A (con la dovuta
molteplicit`a). Daltra parte, se A e diagonalizzabile, cio`e simile ad una matrice diagonale D,
ogni matrice simile ad A e diagonalizzabile alla stessa matrice D: infatti, se H 1 AH = D
(con D diagonale) e B e simile ad A, sar`a A = Q1 BQ da cui avremo
D = H 1 AH = H 1 Q1 BQH = (QH)1 BQH
cio`e B e diagonalizzabile a D.
Cos`, date due matrici A, B M(n; K), per verificare se sono simili si pu`o procedere nel
seguente modo:
1. Se A e B sono diagonalizzabili basta controllare se sono simili ad una stessa matrice
diagonale, in altri termini se i loro polinomi caratteristici A (x) e B (x) hanno le
stesse radici con la stessa molteplicit`a; in caso affermativo A e B sono simili e possiamo
determinare la matrice che individua la similitudine; infatti da
H 1 AH = D
e Q1 BQ = D
segue
H 1 AH = Q1 BQ
da cui
A = HQ1 BQH 1 = QH 1
B QH 1 .
3
1 0
3 0 ,
A= 1
1 1 2
3 0 1
F = 1 4 1 ,
1 0 3
5 3 0
B = 3 1 2 ,
3 3 2
2
0 0
6 4 .
G= 4
2 2 0
1
1 0
1 0
A 2I3 = 1
1 1 0
e 1, si ha m2 = g2 = dim V2 = 3 r(A 2I3 ) = 2 cio`e A e semplice, quindi A e
diagonalizzabile, ad esempio alla matrice
2 0 0
D = 0 2 0 .
0 0 4
Per cui adesso baster`a controllare se le matrici B, F e G sono diagonalizzabili (alla stessa
matrice D).
Per quanto riguarda B abbiamo B (x) = x3 + 8x2 20x + 16 per cui gli autovalori di
B sono 2 e 4 con m2 = 2 e m4 = 1 ma il rango di
3
3 0
B 2I3 = 3 1 2
3
3 0
e 2 per cui g2 = 1 < m2 = 2 cos` B non e diagonalizzabile, e quindi non e simile ad A.
Per quanto riguarda F abbiamo F (x) = (4 x)[(3 x)2 1] per cui gli autovalori
di F sono 2 e 4 con m2 = 1 e m4 = 2 e quindi, indipendentemente dal fatto che F sia
203
semplice o meno, F non pu`o essere simile ad A (si noti che gli autovalori sono gli stessi ma
la molteplicit`a e diversa).
Per quanto riguarda G abbiamo G (x) = (2 x)(x2 6x + 8) per cui gli autovalori di
G sono 2 e 4 con m2 = 2 e m4 = 1 inoltre il rango di
0
0
0
4
4
G 2I3 = 4
2 2 2
e 1 per cui g2 = m2 = 2; in definitiva, G e diagonalizzabile alla stessa matrice
2 0 0
D= 0 2 0
0 0 4
e quindi G e simile ad A.
Per trovare in questo caso una matrice invertibile H tale che G = H 1 AH baster`a
trovare matrici diagonalizzanti T e Q per A e G, per cui T 1 AT = D e Q1 GQ = D da cui
G = QT 1 AT Q1 = H 1 AH dove H = T Q1 .
Per avere T bisogna trovare una base di autovettori per A :
V2 = {(x1 , x2 , x3 )E3 | x1 + x2 = 0} ,
V4 = {(x1 , x2 , x3 )E3 | x1 = x2 = x3 }
per cui una base di autovettori sar`a
((1, 1, 0), (0, 0, 1), (1, 1, 1))
quindi
1 0 1
T = 1 0 1 .
0 1 1
1
0
0
1 2 .
Q= 0
1 1 1
204
1 0
H = 1 0
0 1
1
1
0
0
0 1 1
1 0
1 2 = 2 1 1 .
1
1 1 1
1 0 1
4 1
4 3
3 0
A=
, B=
, C=
1 2
1 2
1 3
sono simili e, quando lo sono, trovare le matrici invertibili che realizzano questa similitudine.
SVOLGIMENTO. Calcoliamo i polinomi caratteristici delle tre matrici: A (x) = (x 3)2 ,
B (x) = x2 6x + 5, C (x) = (x 3)2 . La matrice B, avendo un polinomio caratteristico
diverso da quello di A e di C, non e simile a nessuna delle altre due matrici. Per quanto
riguarda A e C, poich`e r(A 3I2 ) = r(C 3I2 ) = 1, tali matrici sono entrambe non
diagonalizzabili. Cerchiamo tuttavia una matrice invertibile
a b
H=
c d
tale che A = H 1 CH, ovvero HA = CH. Avremo
4 1
3 0
a b
a b
=
1 2
1 3
c d
c d
che conduce al sistema lineare
4a + b = 3a
a + 2b = 3b
,
4c + d = a + 3c
c + 2d = b + 3d
b = a
d=ac
1 1
H=
.
0 1
205
Indice analitico
2A , 7
En , 154
GF (pk ), 21
GL(n; K), 29
Ker f , 22, 164
MfA,B , 167
P A,B , 160
P B,A , 161
Span(A), 133
N, Z, Q, R, C, 5
M(m, n; K), 23
M(m, n; R), 18
M(n; K), 23
M(n; R), 18
f 1 (b), 6
Imf , 6, 22, 164
addizione fra matrici, 18
angolo fra due piani, 120
angolo fra due rette dello spazio, 120
angolo fra due vettori, 84, 88
angolo fra una retta ed un piano, 120
angolo orientato, 103
applicazione, 5
applicazione biiettiva, 5
applicazione canonica, 9
applicazione composta, 6
applicazione identica, 5
applicazione iniettiva, 5
applicazione inversa, 6
applicazione lineare, 107, 162, 167
applicazione suriettiva, 5
assioma della scelta o di Zermelo, 8
automorfismo, 21, 22, 163
autospazio, 182
autovalore, 180
autovettore, 180
base, 148
base canonica, 154
209