Professional Documents
Culture Documents
c1 x1 + + cn xn = b
ove c1 , . . . , cn sono elementi nel campo K (detti coefficienti) e b e un elemento di K (detto termine
noto) si chiama equazione lineare in x1 , . . . , xn a coefficienti in K.
I Un sistema lineare di m equazioni nelle n incognite x1 , . . . , xn e un sistema formato da m
equazioni lineari in x1 , . . . , xn , ossia:
8
>
> a11 x1 + a12 x2 + .. + a1n xn = b1
<
a21 x1 + a22 x2 + .. + a2n xn = b2
(*)
>
> : : :
:
am1 x1 + am2 x2 + .. + amn xn = bm
Esempio 1.1 Dato il sistema di due equazioni in tre incognite a coefficienti reali
2x + 3y z = 0
,
4x + 6y 2z = 3
la matrice del sistema, il vettore dei termini noti e la matrice completa sono, rispettivamente:
2 3 1 0 2 3 1 0
A= , b= , (A|b) = .
4 6 2 3 4 6 2 3
I Detto x = (xj )nj=1 il vettore colonna di tipo (n, 1) delle incognite il sistema () si puo trascrivere
in forma matriciale
Ax = b
1
I Due sistemi si dicono equivalenti quando ammettono le stesse soluzioni.
I Trasformazioni elementari. Le seguenti trasformazioni, applicate ad un dato sistema, portano
a un sistema equivalente:
I) scambiare due equazioni tra loro;
II) moltiplicare i due membri di unequazione per lo stesso numero k (6= 0);
III) sommare ad unequazione unaltra equazione moltiplicata per k.
Il sistema ha una sola soluzione. Infatti, sottraendo alla terza equazione la seconda si ottiene il
sistema, equivalente a quello dato:
8
< x+y =1
2x 3y = 2
:
4y = 0
Sommando alla seconda equazione la prima moltiplicata per 3 si ottiene il sistema equivalente:
2x y = 1
.
0=0
Il sistema ammette quindi le infinite soluzioni della forma (t, 2t 1) , al variare del numero reale t.
2
Soluzione dei sistemi lineari: il metodo di eliminazione di
Gauss
Questo metodo si basa sulle ripetute applicazioni delle trasformazioni che permettono di passare
a sistemi equivalenti. Si opera in modo da ricondursi ad un sistema equivalente a quello dato, di
cui pero e immediato vedere la eventuale risolubilita e, in tal caso, procedere in modo standard
per determinare le soluzioni. Questo sistema equivalente ha una matrice dei coefficienti che e della
forma a scalini.
I Metodo di eliminazione di Gauss
Consideriamo il sistema:
8
>
> a11 x1 + a12 x2 + .. + a1n xn = b1
<
a21 x1 + a22 x2 + .. + a2n xn = b2
>
> : : :
:
am1 x1 + am2 x2 + .. + amn xn = bm
Possiamo supporre che a11 6= 0 (in caso contrario scambiamo la 1a equazione con unaltra in cui il
coefficiente di x1 sia 6= 0). Dividendo la prima equazione per a11 , otteniamo:
8
>
> x1 + aa12 x2 + .. + aa1n xn = ab111
< 11 11
a21 x1 + a22 x2 + .. + a2n xn = b2
>
> : : :
:
am1 x1 + am2 x2 + + amn xn = bm
Sottraiamo poi dalla seconda equazione la prima moltiplicata per a21 , dalla terza la prima moltipli-
cata per a31 e cos via. Otteniamo:
8
>
> x1 + a012 x2 + .. + a01n xn = b01
<
0 a022 x2 + .. + a02n xn = b02
>
> 0 : :
:
0 a0m2 x2 + + a0mn xn = b0m
Tale sistema contiene un sottosistema di m 1 equazioni e n 1 incognite (basta escludere la prima
equazione). Allora possiamo procedere in modo iterativo: ripetiamo quanto fatto precedentemente
a questo sistema. Se a022 = 0, scambiamo la 2a equazione con unaltra in cui il coefficiente di x2 sia
6= 0 (se ce). (Se in tutte le equazioni il coefficiente di x2 e nullo tranne che nella prima, vuol dire che
x2 non compare come variabile eettiva nel sottosistema ottenuto dopo il primo passo. Possiamo
quindi cambiare nome alla variabile x2 e spostarla in fondo). A questo punto possiamo dividere
la seconda equazione per il coefficiente di x2 e procedere come prima. In questo modo x2 comparira
con coefficiente 1 nella 2a equazione e 0 nelle successive.
Iterando alle equazioni successive otterremo un sistema in forma a scalini:
8
>
> x1 + c12 x2 + .. + c1k xk + .. + c1n xn = d1
>
>
>
> x2 + + c2k xk + .. + c2n xn = d2
>
>
< ...
xk + .. + ckn xn = dk
>
>
>
> .... = dk+1
>
>
>
> .......
:
.... = dm
3
a) Si ha un sistema a scalini del tipo:
8 3
>
> x1 + c12 x2 + .. + c1k xk + .. + c1n xn = d1
>
> 7
>
> x2 + + c2k xk + .. + c2n xn = d2 7
>
> 5 k equazioni
>
> ...
<
xk + .. + ckn xn = dk
>
> 3
>
>
>
> 0 = 0
>
>
>
> ....... 5 (m k) equazioni
:
0=0
(dove, se m = k, le ultime m k equazioni non compaiono).
In questo caso siamo nellambito dei sistemi risolubili, in cui abbiamo k equazioni eettive ed n
incognite, con k n. Si possono ricavare le incognite a cascata, partendo da xk , fino ad x1 .
Se k = n, il sistema ha una sola soluzione.
Se k < n, le soluzioni saranno infinite ed espresse in funzione delle variabili xk+1 , ...., xn , che sono
quindi dette variabili libere.
b) Nel sistema a scalini ce almeno una equazione nella quale si annulla il primo membro, ma il
secondo e 6= 0. In questo caso il sistema e ovviamente impossibile.
I In conclusione, quando il sistema e risolubile, per sapere quante soluzioni ha, dobbiamo con-
frontare il numero k delle equazioni eettive con il numero n delle incognite:
Se k = n il sistema e determinato ossia ha una sola soluzione.
Se k < n il sistema e indeterminato ossia ha infinite soluzioni che dipendono da n k variabili
libere (si dice che il sistema ha 1n k soluzioni).
I Per applicare questo metodo, conviene rileggere le trasformazioni elementari sulle equazioni come
corrispondenti trasformazioni elementari sulle righe della matrice completa (A|b), che richiamiamo:
Esempio 1.5 Con trasformazioni elementari sulle equazioni del sistema si ha:
8 8 8
< 2x + 4y = 2 < x + 2y = 1 < x + 2y = 1
1 R2 3R1 1
3x + y = 0 R
2 1
, 3x + y = 0 , 5y = 3 R
5 2
,
: : R3 + R1 :
x + 3y = 2 x + 3y = 2 5y = 3
8 8
< x + 2y = 1 < x + 2y = 1
3 3 x + 2 35 = 1 x= 1
y=5 R3 5R2 , y=5 , 3 , 5
: : y=5 y = 35
5y = 3 0=0
Sistema con 2 equazioni eettive e 2 incognite: quindi determinato, ossia con una sola soluzione.
4
0 1 0 1 0 1
2 4 2 1 2 1 1 2 1
@ 3 1 R2 3R1
0 A 1
R
2 1
, @ 3 1 0 A , @ 0 5 3 A
R3 + R1
1 3 2 1 3 2 0 5 3
0 1 0 1
1 2 1 1 2 1
1
R , @ 0 1 3 A R3 5R2 , @ 0 1 3 A.
5 2 5 5
0 5 3 0 0 0
8
< x 2y + 4z = 2
Esempio 1.6 Dato il sistema 3x + y + 5z = 1 , con trasformazioni elementari sulle righe
:
2x + y + 3z = 2
di (A|b) si ha:
0 1 0 1
1 2 4 2 1 2 4 2
@ 3 R2 3R1
1 5 1 A , @ 0 7 7 7 A 17 R2 ,
R3 2R1
2 1 3 2 0 5 5 6
0 1 0 1 8
1 2 4 2 1 2 4 2 < x 2y + 4z = 2
@ 0 1 1 1 A R3 5R2 , @ 0 1 1 1 A , y z= 1
:
0 5 5 6 0 0 0 1 0= 1
Quindi il sistema e impossibile.
8
< x+y+z =1
Esempio 1.7 Dato il sistema 2x + z = 0 , con trasformazioni elementari sulle righe di
:
6x + 2y = 2
(A|b) si ha:
0 1 0 1
1 1 1 1 1 1 1 1
@ 2 0 1 R2 + 2R1
0 A , @ 0 2 3 2 A 1
R
2 2
,
R3 6R1
6 2 0 2 0 4 6 4
0 1 0 1
1 1 1 1 1 1 1 1
@ 0 x+y+z =1
1 3
1 A R3 + 4R2 , @ 0 1 32 1 A ,
2 y + 32 z = 1
0 4 6 4 0 0 0 0
5
Esempio 1.8 Discutere la risolubita al variare del parametro reale k, e trovare le eventuali soluzioni
del sistema
8
>
> x + 2y z = 1
<
x + y + 2z = 0
.
>
> 2x y=0
:
x y z=k
0 1 0 1
1 2 1 1 1 2 1 1
B R2 + R1
B 1 1 2 0 C
C
B 0 3 1 1 C
@ R3 2R1 , B C 1
R ,
2 1 0 0 A @ 0 5 2 2 A 3 2
R4 R1
1 1 1 k 0 3 0 k 1
0 1 0 1
1 2 1 1 1 2 1 1
B 0 1 1 C B 0 1 1 1 C
B 1 C R3 + 5R2 B 3 3 C 3
@ 0
3 3 , B C R ,
5 2 2 A R4 + 3R2 @ 0 0 11
3
1
3 A 11 3
0 3 0 k 1 0 0 1 k
0 1 0 1 8
1 2 1 1 1 2 1 1 >
> x + 2y z = 1
1 1 B 1 1 C >
< y + 1z = 1
B 0 1 C B 0 1 C
B 3 3 C R4 R3 , B
3 3
C ,
3 3
.
@ 0 1 A 0 0 1 1 1
0 1 11
@ 11 A > z = 11
>
>
0 0 1 k 1 : 1
0 0 0 k+ 11
0 = k + 11
1
Quando k + 11 6= 0 il sistema e impossibile.
1
Se invece k = 11 , si tratta di un sistema di 3 equazioni eettive in 3 incognite, quindi determinato.
Per calcolarne lunica soluzione si risolve il sistema
8
< x + 2y z = 1
y + 13 z = 13 ,
: 1
z = 11
2 4 1
e si trova la soluzione , ,
11 11 11
.
0 1 0 1
1 2 1 1 2 1 2 1 1 2
B 0 1 3 2 6 C R3 + 2R2 B 0 1 3 2 6 C
B C , B C R4 + 3R3 ,
@ 0 2 4 1 9 A R4 2R2 @ 0 0 2 3 3 A
0 2 0 2 4 0 0 6 2 16
6
0 1 8
1 2 1 1 2 >
> x + 2y + z w = 2
B 0 C <
B 1 3 2 6 C y 3z + 2w = 6
@ 0 A , .
0 2 3 3 >
> 2z + 3w = 3
:
0 0 0 7 7 7w = 7
Esempio 1.10 Discutere la risolubita al variare del parametro reale k, e trovare le eventuali
soluzioni del sistema
8
< x 3y w = 1
5x 5y + z + kw = 0 .
:
2x + 4y + z = 0
Text
0 1 0 1
1 3 0 1 1 R2 5R1 1 3 0 1 1
@ 5 5 1 k 0 A R3 2R1 , @ 0 10 1 2 2 A R3 R2 ,
2 4 1 0 0 R23 0 10 1 k + 5 5
0 1 8
1 3 0 1 1 < x 3y w = 1
@ 0 10 1 2 2 A , 10y + z + 2w = 2 .
:
0 0 0 k+3 3 (k + 3)w = 3
7
Teorema di estrazione di base. Sia V un K spazio vettoriale non banale. Supponiamo che ammetta
un insieme finito di generatori A := {v1 , . . . , vn }. Esiste allora un sottoinsieme di A che costituisce
una base di V .
Dimostrazione. Poiche V 6= {0}, i vi non sono tutti nulli. Mostriamo per induzione sul numero n di
generatori che, a meno di riordinare i vettori {v1 , . . . , vn }, esiste 1 r n tale che {v1 , . . . , vr } e una
base dello spazio hv1 , . . . , vn i.
Se n = 1, allora V := hv1 i con v1 6= 0 e quindi {v1 } e una base. Supponiamo che laffermazione valga
per linsieme {v1 , . . . , vn1 }. Per ipotesi induttiva, cioe, a meno di riordinare tali vettori, possiamo
supporre che {v1 , . . . , vr } per un qualche r n 1 sia una base di hv1 , . . . , vn1 i. Osserviamo
che quindi hv1 , . . . , vr , vn i = hv1 , . . . , vn i = V . In particolare, se v1 , . . . , vr , vn sono linearmente
indipendenti, allora formano una base di V ed abbiamo concluso. Altrimenti, v1 , . . . , vr , vn sono
linearmente dipendenti. Esistono allora 1 , . . . , r , K non tutti nulli tali che 1 v1P + r vr +vn =
0. Poiche v1 , . . . , vr sono linearmente indipendenti, deve essere 6= 0. Quindi vn = ri=1 (i 1 )vi e
allora hv1 , . . . , vr i = hv1 , . . . , vn i = V . Pertanto, {v1 , . . . , vr } formano una base di V e la conclusione
segue.
1
DETERMINANTI (PRIMA PARTE). NOTE DI ALGEBRA LINEARE 2010-11
Inoltre per ogni K il valore del determinante di A calcolato per x = coincide con il
determinante della matrice (aij ()) Mn,n (K).
Esercizi.
1.1. Calcolare i determinanti:
1 0 1 0
1 1 2 2 0 2 0 1 1
0 1 0 1
0 1 2 , 0 1 2 , 1 0 1 , .
3
1 0 1 0
0 1 0 0 1 2 1 1
0 1 0 1
1.2. Dimostrare per induzione su n che il determinante di una matrice diagonale n n e uguale
al prodotto degli elementi sulla diagonale.
1.3. Dimostrare che il determinante di una matrice triangolare inferiore e uguale al prodotto
degli elementi sulla diagonale.
DETERMINANTI (PRIMA PARTE). NOTE DI ALGEBRA LINEARE 2010-11 3
1.4. Dimostrare per induzione su n che il determinante di una matrice n n con una colonna
nulla e uguale a 0. Provare anche che lo stessa conclusione vale se la matrice ha una riga nulla.
1.5. Sia
x x2 2x 3x
1 x2 4 x3
p(x) = 3 K[x].
1 x4 4x 5
1 x 16 x9
Calcolare p(0), p(1) e p(2).
1.6. Calcolare il determinante
1 a
a2 a3
0 1
a a2
b 0 1 a
c d 0 1
dove a = gli anni del rettore, b = le sorelle di Antani, c = il peso atomico del Cirillio e d = il
numero di emeriti.
Chiamiano scambio elementare lo scambio di due colonne adiacenti; per provare D3 e suf-
ficiente dimostrare che ogni scambio di due colonne si puo ottenere come composizione di un
numero dispari di scambi elementari. Indichiamo con
i : Mn,n (K) Mn,n (K)
lapplicazione che scambia la colonna i con la colonna i + 1. Se i < j si vede facilmente che la
composizione di 2(j i) 1 scambi elementari
i i+1 j2 j1 j2 j3 i
| {z } | {z }
indici crescenti indici decrescenti
scambia le colonne i, j e lascia le altre al loro posto.
Sia adesso A = (A1 , . . . , An ) una matrice con una colonna nulla, che per semplicita notazionale
supporremo essere la prima. Allora 0 = A1 = 0A1 e quindi
d(A) = d(A1 , . . . , An ) = d(0A1 , . . . , An ) = 0d(A1 , . . . , An ) = 0.
Resta da dimostrare la proprieta D6: supponiamo che le colonne A1 , . . . , An siano linearmente
dipendenti e, per fissare le idee che lultima colonna sia combinazione lineare delle precedenti:
An = a1 A1 + + an1 An1 . Allora si ha
n1
! n1
X X
1 n 1 n1 i
d(A , . . . , A ) = d A , . . . , A , ai A = ai d(A1 , . . . , An1 , Ai ) = 0.
i=1 i=1
Esempio 2.5. Consideriamo una matrice A Mn,n (K) che sia della forma
B C
A=
0 D
con B Mr,s (K), C Mr,ns (K) e D Mnr,ns (K). Se r < s allora |A| = 0 in quanto le
prime s colonne di A sono linearmente dipendenti.
Indichiamo con n linsieme di tutte le permutazioni di {1, . . . , n}, ossia linsieme di tutte
le applicazioni bigettive : {1, . . . , n} {1, . . . , n}. Una trasposizione e una permutazione
che scembia due elementi e lascia fissi i rimanenti: e facile vedere, oltre che intuitivo, che ogni
permutazione si puo scrivere come composizione di trasposizioni. Va osservato che non ce un
modo unico di scrivere una permutazione come composizione di trasposizioni: ad esempio se ,
sono due trasposizioni allora =
Data una matrice A Mn,n (K) ed una permutazione n denotiamo con A la matrice
ottenuta da A permutando le colonne secondo quanto dettato da : piu precisamente se A =
(A1 , . . . , An ) si definisce A = (A(1) , . . . , A(n) ). Si noti che se , sono due permutazioni,
allora vale la formula A = (A ) .1
Definizione 2.6. La segnatura (1) di una permutazione n e definita tramite la formula
(1) = |I |,
dove I Mn,n (Q) e la matrice identita.
Se la permutazione e ottenuta come composizione di k trasposizioni, allora la matrice I e
ottenuta dallidentita con k scambi di colonne e quindi
(1) = |I | = (1)k |I| = (1)k .
Ne consegue in particolare che se una permutazione e scritta come composizione di k trasposi-
zioni, allora (1)k dipende solo da e non dalla scelta delle trasposizioni. Una permutazione si
dice pari se ha segnatura 1, o equivalentemente se puo essere scritta come composizione di un
numero pari di trasposizioni. Si dice dispari se ha segnatura 1.
1Se pensiamo una matrice A = (A1 , . . . , An ) come lapplicazione A : {1, . . . , n} Kn , i 7 Ai , allora A
equivale alla composizione A e quindi A = A ( ) = (A ) = (A ) ).
DETERMINANTI (PRIMA PARTE). NOTE DI ALGEBRA LINEARE 2010-11 5
Lemma 2.7. Sia d : Mn,n (K) K multilineare alternante sulle colonne. Allora si ha:
D7: Per ogni matrice A ed ogni permutazione vale d(A ) = (1) d(A).
Dimostrazione. Scriviamo come composizione di k trasposizioni. Per D3 ogni trasposizione fa
cambiare segno e quindi d(A ) = (1)k d(A) = (1) d(A).
Siccome d(ej1 , . . . , ejn ) = 0 quando due indici jh coincidono la precedente formula si riduce a
X
d(A) = a(1),1 a(n),n d(e(1) , . . . , e(n) ).
n
Esercizi.
2.1. Provare che
1 2 3 4 5
2 3 4 5 6
1 0 0 0 5 = 0.
2 0 0 0 5
1 0 0 0 2
2.2. Siano f1 , . . . , fn : Kn K applicazioni lineari. Provare che lapplicazione
X
d : Mn,n (K) K, d(A1 , . . . , An ) = (1) f(1) (A1 )f(2) (A2 ) f(n) (An ),
n
3. Permutazioni ed incroci
Un modo conveniente di rappresentare una permutazione di {1, . . . , n} elementi e mediante
una matrice 2 n in cui la prima riga contiene i numeri da 1 a n e la seconda riga le rispettive
immagini, ossia
1 2 n
.
(1) (2) (n)
Ricordiamo che le trasposizioni sono permutazioni che scambiano di posizione due elementi e
lasciano invariati i rimanenti. Ad esempio, la permutazione
1 2 3 4
3 2 1 4
e una trasposizione. Per ogni i < n, denotiamo con i n la trasposizione che scambia i con
i + 1:
i (i) = i + 1, i (i + 1) = i, i (a) = a a 6= i, i + 1.
Definizione 3.1. Diremo che un sottoinsieme A {1, . . . , n} di due elementi e un incrocio
della permutazione se la restrizione di ad A e decrescente; in altri termini, un sottoinsieme
A = {i, j}, con i < j,
e un incrocio di se (i) > (j).
Indichiamo con () il numero di incroci di . Ad esempio, lidentita ha zero incroci, le
trasposizioni i hanno un solo incrocio, mentre la permutazione
(i) = n + 1 i
ha n(n 1)/2 incroci. In un certo senso, il numero di incroci e una misura della complessita della
permutazione.
Osservazione 3.2. Una maniera di contare il numero di incroci di e la seguente. Per ogni
i = 1, . . . , n si disegna nel piano il segmento che unisce il punto di coordinate (i, 0) con il
punto di coordinate ((i), 1) e poi si conta il numero di punti di intersezione dei vari segmenti.
Bisogna pero fare attenzione al fatto che, se per un punto passano h segmenti, con h > 2, allora
ci troviamo di fronte ad una intersezione multipla ed a tale punto corrispondono h(h 1)/2
incroci. Ad esempio, le due permutazioni
WWWWWW
WWWWWWWWW
1 2 3 4 5
2 3 4 5 1 WWWWWWWW
OOO oo ??
OOO ooo ??
1 2 3 4 5 Oo
ooo OOOOO ?
3 2 1 5 4 oo ??
o
hanno entrambe 4 incroci.
DETERMINANTI (PRIMA PARTE). NOTE DI ALGEBRA LINEARE 2010-11 7
Esercizi.
3.1. Siano r < n e n la permutazione
(
i+r se i n r
(i) =
i (n r) se i > n r
Calcolare la segnatura di .
DETERMINANTI (SECONDA PARTE). NOTE DI ALGEBRA LINEARE
2010-11
1. Sviluppi di Laplace
Proposizione 1.1. Sia A Mn,n (K), allora per ogni indice i = 1, . . . , n fissato vale lo sviluppo
di Laplace rispetto alla riga i:
Xn
|A| = (1)i+j aij |Aij |.
j=1
Dimostrazione. Per i = 1 la formula e vera per definizione. Definiamo per ogni i lapplicazione
Xn
di : Mn,n (K) K, di (A) = (1)j+1 aij |Aij |;
j=1
i1
e dimostriamo per induzione su i che di (A) = (1) |A| per ogni matrice A. Sia i la traspo-
sizione semplice che scambia gli indici i, i + 1 e sia B la matrice ottenuta da A scambiando tra
loro le righe i e i + 1. Valgono allora le formule
di+1 (A) = di (B), B = I i A.
Per il teorema di Binet e per lipotesi induttiva si ha:
di+1 (A) = di (B) = (1)i1 |B| = (1)i1 |I i ||A| = (1)i |A|.
Esempio 1.2. Calcoliamo il determinante della matrice
1 3 5
6 7 0
2 0 0
Dallo sviluppo di Laplace rispetto allultima riga segue
1 3 5
6 7 0 = 2 3 5 = 70.
7 0
2 0 0
Lemma 1.3 (determinante della trasposta). Per ogni matrice A Mn,n (K) vale |AT | = |A|.
Dimostrazione. Siccome |I T | = 1 basta dimostrare che lapplicazione
d : Mn,n (K) K, d(A) = |AT |,
e multilineare alternante sulle colonne.
Indicati con aij e coefficienti di A, fissato un indice i, per lo sviluppo di Laplace rispetto alla
riga i si ha:
X n
d(A) = |AT | = aji (1)i+j |(AT )ij |
j=1
e da tale formula segue immediatamente che d(A) e lineare rispetto alla colonna i. Infine se
A ha le colonne i, i + 1 uguali allora ogni vettore colonna di AT e contenuto nel sottospazio
vettoriele di equazione xi xi+1 = 0; dunque le colonne di AT sono linearmente dipendenti e
quindi |AT | = 0.
1
2 MARCO MANETTI: 21 DICEMBRE 2010
Corollario 1.4. Sia A = (aij ) Mn,n (K), allora per ogni indice i = 1, . . . , n fissato vale lo
Sviluppo di Laplace rispetto alla colonna i:
n
X
|A| = (1)i+j aij |Aij |.
i=1
Dimostrazione. Prendendo lo sviluppo di Laplace rispetto alla riga i della matrice trasposta si
ha
n
X
|AT | = aji (1)i+j |ATij |.
j=1
Siccome (AT )ij = (Aji )T ed il determinante di una matrice e uguale al determinante della
propria trasposta si ha
n
X n
X
|A| = |AT | = aji (1)i+j |(AT )ij | = aji (1)i+j |Aji |.
j=1 j=1
Dal fatto che il detreminante di una matrice e uguale al determinante della trasposta, segue
che il determinante e multilineare alternante sulle righe. In particolare:
(1) Scambiando due righe il determinante cambia di segno.
(2) Moltiplicando una riga per uno scalare , anche il determinante viene moltiplicato per
.
(3) Aggiungendo ad una riga una combinazione lineare delle altre, il determinante non
cambia.
(4) Se le righe sono linearmente dipendenti il determinante si annulla.
Togliamo alla terza colonna il doppio della prima; il determinante non cambia:
10 20 12
20 12
= 4 2 17 = 3 2 17 = 3(340 24) = 632.
3 0 0
1
1 1
x0 x1 xn1 Y Y
= p(xn ) . = (xn xj ) (xi xj ).
.. ..
.. ..
n1 . . .
n>j n>i>j
x
0 xn1
1 xn1
n1
1.5. Siano A Mn,n (K), B Mm,m (K) e C Mn,m (K). Utilizzare lo sviluppo di Laplace e le
proprieta del determinante per dimostrare che
A C 0 B nm
= |A||B|,
A C = (1) |A||B|.
0 B
1.6. Sia A una matrice 10 10 Calcolare, in funzione di |A|, il determinante della seguente
matrice 20 20
6A 5A
A 2A
1.7. Indichiamo con dk , k 1, il determinante della matrice k k
6 1 0 0 0 ... 0
1 6 1 0 0 . . . 0
0 1 6 1 0 . . . 0
0 0 1 6 1 ...
...
0 0 0 0 0 ... 6
(d1 = 6, d2 = 35 eccetera). Dimostrare che per ogni k 3 vale dk = 6dk1 dk2 .
Siano x, y le radici del polinomio t2 6t + 1. Dimostrare che per ogni k 3 vale
xk = 6xk1 xk2 , y k = 6y k1 y k2 .
Determinare due numeri reali a, b tali che
dk = axk + by k
per ogni k 1.
La formula AA e = |A|I si dimostra allo stesso modo utilizzando gli sviluppi di Laplace rispetto
alle colonne.
1In alcuni testi la matrice dei cofattori viene chiamata matrice aggiunta.
DETERMINANTI (SECONDA PARTE). NOTE DI ALGEBRA LINEARE 2010-11 5
Corollario 2.4. Una matrice quadrata A e invertibile se e solo se |A| =6 0; in tal caso linversa
A
e
e uguale a A1 = ed il suo determinante e uguale a |A1 | = |A|1 .
|A|
Dimostrazione. Se A e invertibile allora AA1 = I e per il teorema di Binet |A||A1 | = |I| = 1
da cui segue |A| =
6 0. Viceversa se |A| =
6 0 segue dal Teorema 2.3 che A e invertibile con inversa
A
e
.
|A|
Corollario 2.5. Il rango di una matrice A e uguale al piu grande intero r per cui A contiene
una sottomatrice quadrata di ordine r con determinante diverso da 0.
Dimostrazione. Abbiamo gia dimostrato che il rango di una matrice A e uguale al piu grande
intero r per cui A contiene una sottomatrice quadrata e invertibile di ordine r.
Esercizi.
2.1. Calcolare le inverse delle seguenti matrici
1 0 1 2 1 0 0 0
1 0 1 1 2 1 0
0 1 1 0 1 1 1 1 0
0
0 1 0.
0 0 1 3 0 0 0 1
1 1 1 1 1 2
0 0 0 1 0 1 0 0
2.2. Vero o falso? Ogni matrice 2 4 nella quale i determinanti dei minori 2 2 formati da due
colonne adiacenti si annullano ha rango minore di 2.
2.3. Sia A Mn,n (K). Provare che il rango della matrice dei cofattori A e e uguale a: n se A e
invertibile, 1 se il rango di A e uguale a n 1, 0 se il rango di A e minore di n 1.
e = |A|n1 e (A)
2.4. Provare che |A| e T = (A
] T ).
3. Matrici coniugate
Definizione 3.1. Il gruppo lineare GLn (K) e linsieme delle matrici A Mn,n (K) che sono
invertibili.
Abbiamo visto che se A, B GLn (K) allora anche A1 , AT , AB GLn (K). Si noti che
GLn (K) non e un sottospaio vettoriale.
Definizione 3.2. Date due matrici A, B Mn,n (K) diremo che A e coniugata a B, e scriveremo
A B, se esiste C GLn (K) tale che A = CBC 1 .
La relazione di coniugio gode delle seguenti proprieta:
: Proprieta riflessiva A A per ogni A Mn,n (K).
: Proprieta simmetrica Se A B allora B A.
: Proprieta transitiva Se A B e B H, allora A H.
La verifica di tali proprieta e immediata: infatti A = IAI 1 ; se A = CBC 1 allora B =
C A(C 1 )1 ; se A = CBC 1 e B = DHD1 allora A = (CD)H(CD)1 .
1
Teorema 3.3. Due matrici coniugate hanno la stessa traccia e lo stesso determinante.
Dimostrazione. Esercizio.
Se A B, allora Ah B h per ogni h > 0. Infatti se A = CBC 1 si ha
A2 = (CBC 1 )(CBC 1 ) = CB 2 C 1
e per induzione su h
Ah+1 = AAh = (CBC 1 )(CB h C 1 ) = CB h+1 C 1 .
Ne segue che se A B allora la traccia di Ah e uguale alla traccia di B h per ogni h > 0.
6 MARCO MANETTI: 21 DICEMBRE 2010
Dimostrazione. Osserviamo prima di tutto che lunicita della soluzione e assicurata dal Teorema di
Rouche Capelli . Sia ora ~b = ni=1 xi Ai . Allora, per le proprieta del determinante abbiamo che
P
n
X
det(A1 , . . . , Aj1 , ~b, Aj+1 , . . . , An ) = det(A1 , . . . , Aj1 , xi Ai , Aj+1 , . . . , An )
i=1
n
X
= xi det(Bi )
i=1
Teorema [Calcolo dellinversa di una matrice]. Sia A M nn (K) con detA 6= 0. Allora
1
A1 = (1)i+j det Aji = (bij ).
det A i,j
1
2
1. Teoria di Kronecker
Definizione. Sia A Mnh (K) e sia 1 r min{n, h}. Un minore di ordine r di A e il determinante
di una matrice Mrr (K) ottenuta da A considerando r righe e r colonne e cancellando le altre n r
righe e le altre h r colonne.
Osservazione. La terza affermazione equivalente garantisce che, per mostrare che il rango di una
matrice e r, non serve provare che tutti i minori di ordine r + 1 sono nulli. Trovato un minore di ordine
r non nullo e sufficiente verificare che sono nulli solo i minori ottenuti orlando la sottomatrice quadrata
di cui esso e il determinante, aggiungendo cio e unaltra riga e unaltra colonna.
Appunti di Geometria affine
a.a. 2012-2013
Un insieme S, i cui elementi verranno detti punti, si chiama spazio
affine su un K-spazio vettoriale V se esiste unazione di V su S, cioe
unapplicazione
SV S
(P, v) Q = P + v
tale che siano soddisfatte le seguenti condizioni:
(1) per ogni P, Q in S esiste un unico v tale che Q = P + v.;
(2) se Q = P + v e R = Q + w per P, Q, R S e v, w V , allora
R = P + (v + w).
Osservazione: se V ha dimensione n, linsieme S e detto spazio affine
di dimensione n, e sara indicato con AnK .
1
Un sottospazio affine puo essere rappresentato in due modi diversi.
Rappresentazione parametrica di L. Fissiamo un sistema di riferimento
R e sia P un punto in L di coordinate (x1 , . . . , xn ). Siano (y1 , . . . , yn ) le
coordinate di P0 e fissiamo una base {u1 , . . . , um } di U . Chiaramente P P0
appartiene a U ; in coordinate si ha:
m
X m
X
P P0 = (xi yi )vi = i ui .
i=1 i=1
Pn
Scrivendo ui = j=1 uij vj , si ottiene
X
xi = yi + uij j ,
j=1
2
Dati due sottospazi affini L0 e L1 di giaciture rispettivamente U0 e U1 ,
diremo che L0 e parallelo a L1 se U0 U1 . Tale relazione e riflessiva e
transitiva, ma non simmetrica a meno che non ci restringiamo a sottospazi
della stessa dimensione.
Diremo che due sottospazi sono sghembi se i) L0 non e parallelo a L1 e
L1 non e parallelo a L0 , e ii) L0 e L1 non si intersecano.
x1 = 1, x2 = t, x3 = t,
e il piano di equazioni
x1 = 2u + 2v, x2 = 2 + u, x3 = 2u + v.
Dato uno spazio affine AnK , una affinita e una biezione f di AnK in se per
cui esiste un isomorfismo : V V tale che
x0 = (x) + c.
3
Si puo scrivere tutto in forma piu compatta usando matrici (n + 1)
(n + 1), cioe: 0
x M c x
= .
1 0 1 1
Se M = I, laffinita prende il nome di traslazione.
Consideriamo linsieme di tutte le affinita di AnK , e indichiamolo con
Af f (AnK ) o con GAn . Dimostriamo che e un gruppo rispetto alla compo-
sizione di applicazioni.
Visto che la scrittura dellaffinita e univocamente determinata dalla scelta
del sistema di riferimento, possiamo usare lespressione in coordinate (2).
Siano f e g due affinita date rispettivamente da
x0 = M x + c, x0 = N x + d.
C A = t(C B).