Professional Documents
Culture Documents
APPUNTI
Daniele Corradetti
2 novembre 2015
Indice
1
Spazi vettoriali
1.1 Schema generale del discorso
1.2 Spazi vettoriali . . . . . . . . .
1.3 Cambi di coordinate . . . . .
1.4 Spazi Euclidei . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
3
3
6
6
Forme bilineari
2.1 Schema generale del discorso . . . . . . . . . . . . . . . . . . . . . . .
2.2 Forme Lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3 Forme Bilineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.1 Rappresentazione matriciale di una forma bilineare . . . . . .
2.3.2 Cambio di base di una forma bilineare . . . . . . . . . . . . . .
2.4 Forme Quadratiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4.1 Diagonalizzazione di una forma quadratica . . . . . . . . . . .
2.4.2 Riduzione di una forma quadratica tramite matrici triangolari
2.4.3 Il Determinante di Gramm . . . . . . . . . . . . . . . . . . . .
2.5 La legge di inerzia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.6 Lo spazio Complesso n-dimensionale . . . . . . . . . . . . . . . . . .
2.6.1 Cambio di base di una forma bilineare Hermitiana . . . . . .
2.7 Esercizio di diagonalizzazione . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
9
9
10
11
11
12
12
13
15
18
19
20
21
22
Trasformazioni lineari
3.1 Senso del discorso . . . . . . . . . . . . . . . . . . . . .
3.2 Trasformazioni Lineari e operazioni elementari . . . .
3.2.1 Cambio di base in una trasformazione lineare
3.3 Sottospazi invarianti e Polinomio caratteristico . . . .
3.4 Trasformazioni lineari e Forme Bilineari . . . . . . . .
3.4.1 Propriet delloperazione aggiunta . . . . . . .
3.5 Trasformazioni Hermitiane o Autoaggiunte . . . . . .
3.6 Trasformazioni Unitarie . . . . . . . . . . . . . . . . .
3.7 Trasformazioni Normali . . . . . . . . . . . . . . . . .
3.8 Trasformazioni Lineari nello Spazio Euclideo Reale .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
24
24
25
27
27
31
32
32
33
33
33
.
.
.
.
.
34
34
35
36
36
37
La Forma di Jordan
4.1 Matrice e polinomio caratteristico . . . . . . .
4.1.1 Metodo efficace per il calcolo di B()
4.2 Autovalori e Autovettori di A . . . . . . . . .
4.3 Polinomio minimo . . . . . . . . . . . . . . .
4.3.1 Propriet della matrice C () . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
INDICE
5
.
.
.
.
.
38
38
38
39
39
40
Applicazioni fisiche
6.1 ODE radici complesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.2 Equazione Differenziale 2 Ordine . . . . . . . . . . . . . . . . . . . . . .
42
42
43
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Capitolo 1
Spazi vettoriali
1.1
Definire uno spazio vettoriale a partire da un campo scalare: un gruppo commutativo rispetto a +, loperazione associativa, loperazione lineare rispetto a
campo scalare ;
Definire vettori linearmente indipendenti;
Definire una base di uno spazio vettoriale di dimensione n;
Definire le coordinate di un vettore dello spazio secondo una definita base;
Teorema: dato un insieme di n vettori linearmente indipendenti in uno spazio
vettoriale di dimensione n allora questi vettori formano una base dello spazio
e qualsiasi vettore appartenente allo spazio ha una rappresentazione unica come
combinazione lineare di questi vettori e i coefficienti di questa rappresentazione
sono chiamati coordinate del vettore rispetto alla base.
Teorema: tutti gli spazi vettoriali di dimensione n sono isomorfi fra di loro.
A questo punto possiamo definire i cambi di coordinate nello spazio vettoriale
Successivamente per poter fare geometria su questo spazio dovremo definire un
prodotto interno, dal quale potremo definire e derivare una norma e dunque la
lunghezza di un vettore, la distanza e langolo fra due vettori.
Una volta definito langolo fra due vettori possiamo finalmente parlare di Basi
Ortogonali.
Da qui possiamo poi definire un vettore ortogonale a un sottospazio e la proiezione di questo vettore sul sottospazio assieme alla distanza minima del vettore
dal sottospazio.
1.2
Spazi vettoriali
2
e1 + ... + n+1 en
1
1
Questa rappresentazione anche unica dato che se non fosse unica allora sottraendo la prima con la seconda potremmo derivare una combinazione lineare dei
vettori della base capace di dare il vettore nullo e quindi dedurne che i vettori sono
linearmente dipendenti.
Dunque data una base in uno spazio vettoriale n ovvero n vettori linearmente
indipendenti e1 , .., en , ogni vettore x pu essere scritto come combinazione lineare
x = 1 e1 + .. + n en e i coefficienti ( 1 , .., n ) sono chiamati coordinate di x nella base
e1 , .., en .
Esempio 4. Dati i seguenti vettori
v1 = (1, 1, 1, ...1, 1)
v2 = (0, 1, 1, ...1, 1)
v3 = (0, 0, 1, ...1, 1)
..
.
vn = (0, 0, 0, ...0, 1)
scrivere un vettore x di coordinate ( 1 , ... n ) nella base e1 , ..., en nelle nuove coordinate 1 , ...n . Da adesso usiamo la convenzione di Einstein sulla somma sugli indici
ripetuti e spostando gli indici delle coordinate in alto. Ricordiamoci che se vogliamo
poi passare alla notazione matriciale, gli indici in alto indicano colonne e quindi dei
coefficienti con indice in alto sono rappresentati da 1 riga, mentre gli indici in basso
indicano righe e dunque dei coefficienti con indici in basso sono rappresentati da 1
colonna:
x = i ei = i v i
Tuttavia sappiamo anche che, dato che i vettori {vi } sono una base dello spazio:
j
ei = i v j
e dunque abbiamo che
j
x = i i v j = j v j
Nel caso esplicito abbiamo
e1 = v 1 v 2
e2 = v 2 v 3
e3 = v 3 v 4
..
.
en = vn
Ovvero
j
i
1 1 0
0 1 1
0 0
1
..
...
.
0 0
0
0
0
0
1
1
e abbiamo cos
( 1 2 n )
i j
i =
1 1 0
0 1 1
0 0
1
..
..
.
.
0 0
0
0
0
0
1
2
1
3 2
..
.
=
1
1
n n
A questo punto possiamo definire quello che consideriamo essere isomorfismi fra
spazi vettoriali e che sono omeomorfismi fra gruppi ma tali che oltre che alla somma
struttura di somma venga trasportata dallapplicazione anche la struttura di moltiplicazione per campo scalare.
Con questo possiamo formulare il primo Teorema che dice che tutti gli spazi vettoriali della stessa dimensione n sono isomorfi fra loro.
Esempio 5. Esempi di come lisomorfismo viene realizzato possono essere:
Spazio lineare dei polinomi:
p(t)
x
1
1 + 2 t + ... + n tn1
..
.
n
Spazio delle Matrici:
2
V 31 x A M2 (R)
1 2
2
3
3 4
4
1.3
Cambi di coordinate
Nel paragrafo precedente abbiamo introdotto il concetto di base di uno spazio vettoriale e di coordinata di un vettore secondo una determinata base. Adesso supponiamo
di avere due basi distinte e di voler calcolare il cambio di coordinate da una base allaltra. Questo non altro che una generalizzazione dellesempio che abbiamo fatto in
precedenza.
Abbiamo infatti che se vogliamo passare da un sistema di coordinate nella base
B = {ei }a un sistema di coordinate nella base P = {vi }
x = i ei = j v j
Dobbiamo in primo luogo scrivere i vettori {ei } come combinazione lineare dei {vi }
j
A=
e abbiamo cos
1 t
( 1 2
2
=
..
.
n
a11
a12
..
.
a21
a22
a31
ann
a1n
a11
a12
..
.
a1n
a2n
..
.
a21
a22
n)
1
an
a31
a1n
a2n
..
.
=
n
an
i a1i
i a2i
i a3i
..
.
i ain
[. ] B Rn
% CBP
V
& CPB
[. ] P Rn
Per ottenere le due matrici che sono una linversa dellaltra sufficiente scrivere i
vettori della base di destinazione nei termini della base di partenza.
1.4
Spazi Euclidei
Per poter sviluppare una forma di Geometria Euclidea con angoli, misure e quantaltro
abbiamo bisogno di un prodotto scalare.
< x, y >= i i
- in altro modo possiamo definire un prodotto interno dei due vettori x e y come:
1
< x, x >
< x,y>
p(t)q(t)dt
1
Sappiamo che una base per V formata da 1, t, t2 che sono vettori linearmente
indipendenti. Vediamo di fornire una base ortogonale a partire da questi:
- il primo elemento della base semplicemente il primo elemento cio 1
- il secondo elemento della base poniamolo come il secondo meno il primo con un
opportuno coefficiente t 1 e imponiamo la condizione di ortogonalit
1
(t )dt = 2
0 =< t , 1 >=
1
< f f o , ek >= 0
k = 1..m
f 0 = c i ei
k = 1..m
i = 1..m
k = 1..m
det
6= 0
..
..
..
...
.
.
.
< e1 , e m > < e2 , e m > < e m , e m >
Capitolo 2
Forme bilineari
2.1
4
40 1 1
+ .. + n1 n n = ii i i
41
4n
Basandoci sul risultato ottenuto della forma canonica possiamo stabilire una equivalenza essenziale fra Forme quadratiche definite positive e determinanti principali maggiori di zero. In particolare questo ci dice che avere i determinanti
principali maggiori di zero non dipende dalla scelta della base.
10
2.2
Forme Lineari
Definizione 9. Una forma lineare o funzione lineare f definita su uno spazio vettoriale V se
per ogni vettore x associata una f ( x ) tale che:
(i) f (x + y) = f (x) + f (y)
(ii) f (x) = f (x)
Se prendiamo un vettore x di coordinate i nella base ei allora
1
2
n
1
( )
2
f ( x ) = f ( i e i ) = i f ( ei ) = i i =
..
.
n
Supponiamo adesso di cambiare base per x e quindi avere per lo stesso vettore
coordinate i nella base vi . E supponiamo
f (x) = i fii
Proviamo a cambiare base da ei vi allora dobbiamo esprimere i vettori ei come
combinazione lineare della nuova base
11
f ( x ) = i f ( e i ) = i ai f ( v j ) = i ai j
j
2.3
Forme Bilineari
Definizione 10. Una funzione Bilineare una funzione A(x, y) tale che :
(i) una funzione lineare in x per ogni y fisso
(ii) una funzione lineare in y per ogni x fissato
2.3.1
Un modo di rappresentare una forma bilineare A(x, y) tramite una matrice A. Per
farlo si fa cos:
In primo luogo si considera una base ei e le coordinate dei vettori x, y su questa
base:
x = i ei
y = i ei
Essendo dunque lineare sia in x che in y abbiamo che
A(x, y) = A( i ei , j e j ) =
A(ei , e j ) i j = aij i j
definendo quindi
A(ei , e j ) = aij
abbiamo una rappresentazione della forma bilineare secondo una data base:
( 1
xt Ay =
n)
a11 a12
a12 a22
..
...
.
a1n a2n
a1n
a2n
..
.
ann
1
2
..
.
n
= aij i j =
aij i j
2.3.2
12
Abbiamo detto che una forma bilineare pu essere rappresentata in forma matriciale
secondo lidentificazione
A(ei , e j ) = aij
Se adesso vogliamo cambiare la base e usare la base f i allora dobbiamo trovare i
coefficienti:
A(fi , f j ) = aij0
Quindi come prima cosa dobbiamo scrivere la nuova base nei termini della vecchia
p
f1 = c11 e1 + .. + c1n en = c1 e p
p
f2 = c12 e1 + .. + c2n en = cn e p
..
.
p
fn = c1n e1 + .. + cnn en = cn e p
A questo punto applicare
p
p q
p q
2.4
Forme Quadratiche
Data una forma bilineare si A(x, y) si ottiene una forma quadratica semplicemente
considerando A( x, x ). Una forma simmetrica bilineare A(x, y) pu essere ottenuta da
una forma quadratica A( x, x ) tramite la semplice equivalenza:
A(x + y, x + y) = A(x, x) + A(y, x) + A(x, y) + A(y, y)
ma dato che che la forma simmetrica e A(x, y) = A(y, x) abbiamo che
2A(x, y) = A(x, x) + A(y, y) A(x + y, x + y)
Per cui da una forma quadratica possiamo estrarre la cosidetta forma polare per vettori
non identici.
Forma quadratica e forma bilineare simmetrica sono dunque due cose equivalenti.
Definizione 11. Una forma quadratica si dice definita positiva se A(x, x) > 0 per ogni
x 6= 0
Per la definizione che ne abbiamo dato nel paragrafo precedente un prodotto interno una forma bilineare corrispondente a una forma quadratica definita positiva. anche vero il viceversa ovvero ogni forma quadratica definita positiva definisce
un prodotto interno su uno spazio vettoriale per cui le due nozioni sono esattamente
equivalenti. Possiamo cos dare una definizione alternativa di Spazio Euclideo:
Uno spazio vettoriale chiamato Euclideo se definita una forma quadratica positiva A(x, x). In tale spazio il prodotto interno < x, y > di due vettori preso come
valore A(x, y) dellunica forma bilineare associata alla forma quadratica A(x, x)
2.4.1
13
Una qualsiasi forma bilineare simmetrica pu essere ricondotta a una forma quadratica
e qualsiasi forma quadratica pu essere diagonalizzata ovvero pu essere trovata una
base ei tale che in questa base:
A(x, x) = 11 1 1 + .. + nn n n = ii i i
Per trovare una base effettiva si procede in questo modo:
Prendiamo una forma quadratica che nella forma generale scritta in questo modo:
A(x, x) = aij i j ,
x = i fi
1
2
...
n
1 1 1
+ B + altri
a11
Dove il termine altri non in funzione di 1 ma solo delle altre coordinate. Possiamo dunque procedere nuovamente lasciando fissa la prima coordinata.
Esercizio 12. Procedere nella diagonalizzazione della forma
A(x, x) = 1 1 + 2 1 2 + 4 2 3 8 3 3
1 Se
ci non possibile con una permutazione dei vettori della base allora si prende una situazione in
cui a12 1 2 6= 0 e si fa un cambio di base del tipo
1
2
3
n
In questo modo il nuovo a11 6= 0.
= 1 + 2
= 1 2
=
3
=
n
14
1 1 0
A= 1 0 2
0 2 8
1 0 0
A= 0 1 2
0 2 8
Come secodno cambio base si mette:
1 =
1
2 = 2 + 23
3 =
3
E nelle nuove coordinate abbiamo
A(x, x) = 1 + 2 12 3
1 0 0
0
A= 0 1
0 0 12
Per trovare il cambio base basta
1 =
1
= 1 + 2
2 = 2 + 23 =
+ 2 +2 3
3 =
3
=
+ 3
E quindi la matrice di passaggio per il cambio dei coefficienti
1 1 0
C = 0 1 +2
0 0 1
A questo punto bisogna trovare la matrice che permette la rotazione. Per farlo basta
invertire la matrice C
1 1 2
U = C 1 = 0 1 2
0 0 1
Questa matrice U permette il passaggio dalla base fi alla base ei
A questo punto abbiamo
15
1 0 0
1 1 0
0 1
0 = UT 1 0 2 U
0 0 12
0 2 8
1 0 0
1 0 0
1 1 0
1 1 2
0 1
0 = 1
1 0 1 0 2 0 1 2
0 0 12
2 2 1
0 2 8
0 0 1
Si ottiene la matrice diagonalizzante:
q
1
q3
0
0
U = 43
2
0
q
q q
1
1
12
12
8
8
2.4.2
Abbiamo una forma quadratica che possiamo scrivere nei termini di una base f i nella
seguente forma:
A(x, x) = aij i j
x = i fi ,
A(fi , fj ) = aij
Vogliamo a questo punto torvare una nuova base in cui questa forma quadratica
assume una struttura diagonale ovvero tale che A(ei , ek ) = 0 se i 6= k.
Supponiamo inoltre che i minori principali della matrice A non abbiano mai determinante uguale a 0 ovvero che:
41 = det| a11 | 6= 0
a
a
42 = det 11 12 6= 0
a21 a22
..
.
a11 a12 a1n
a21 a22 a2n
4n = det ..
..
.. 6= 0
..
.
.
.
.
an1 an2 ann
Il motivo che nella nuova base abbiamo che
a11 0
0
0
0 a22 0
0
.
.. 0
0
0
0
0
0 ann
4 k 1
4k
k = 1..n,
40 = 1
16
Teorema 13. (Jacobi) Una qualsiasi forma quadratica tale che in una sua rappresentazione
matriciale abbia tutti i minori principali diversi da zero, pu essere diagonalizzata ovvero pu
essere trovata una base ei tale che in questa base su un vettore x di coordinate x = i ei assume
una forma:
4
40 1 1
+ .. + n1 n n = ii i i
A( x, x ) =
41
4n
Dimostrazione: La dimostrazione abbastanza semplice: abbiamo una forma quadratica che possiamo scrivere nei termini di una base f i nella seguente forma:
A(x, x) = aij i j
x = i fi ,
A( f i , f j ) = aij
Vogliamo a questo punto torvare una nuova base in cui questa forma quadratica
assume una struttura diagonale ovvero tale che A(ei , ek ) = 0 se i 6= k. Cerchiamo una
nuova base della forma:
e1 = a11 f1
e2 = a12 f1 + a22 f2
..
..
.
.
en = a1n f1
+..
..+ ann fn
In questo tipo di base notiamo che
A(ek , ei ) = 0 = A(ek , fi ) = 0
i<k
i<k
ak2 A(f2 , f1 )
ak2 A(f2 , f2 )
..
.
+... +
+... +
ak1 A(fk , f1 )
ak2 A(fk , f2 )
=0
=0
..
.
akk1 A(f1 , fk1 )+ ak2 A(f2 ,fk1 ) +... + akk1 A(fk , fk1 ) = 0
akk A(f1 , fk )+
ak2 A(f2 , fk ) +... +
akk A(fk , fk )
=1
un sistema nelle incognite akk e la soluzione
A(ek , ek ) = akk =
4 k 1
4k
2 32 2
3 1 0
2
2 0 1
17
0 0
2
0 8 0
1
0 0 17
La matrice per il cambio di base in questione
1
0
0
2
C = 6 8 0
8
12
1
17 17 17
Infine possiamo considerare le forme quadratiche definite positive.
In questo caso se la forma quadratica definita positiva si pu dimostrare che automaticamente non solo ha tutti i minori principali diversi da 0 ma 4k > 0 per ogni k.
Per cui possiamo direttamente formulare il seguente teorema:
Teorema 15. (Jacobi-Forma Canonica) Una qualsiasi forma quadratica definita positiva, pu
essere diagonalizzata nella FORMA CANONICA
A(x, x) =
4
40 1 1
+ .. + n1 n n = ii i i
41
4n
4
40 1 1
+ .. + n1 n n = ii i i > 0
41
4n
x 6= 0
A ( f1 , f1 )
A(f2 , f1 ) ... A(fk , f1 )
A ( f1 , f2 )
A(f2 , f2 ) ... A(fk , f2 )
.
.
.
.
.
.
det
=0
.
.
.
18
Allora per via una delle righe sarebbe combinazione lineare delle altre. Esplicitando
questa combinazione lineare tramite dei coefficienti k questo grazie alla bilinearit di
A vuol dire che una combinazione lineare degli fk darebbe come risultato
A(1 f1 + ... + k fk , 1 f1 + ... + k fk ) = 0
Il che contraria lipotesi che per cui A definita positiva.
Una volta dimostrato che i minori sono diversi da zero allora per il teorema precedente la forma bilineare pu essere scritta in forma canonica e dato che
A(x, x) =
4
40 1 1
+ .. + n1 n n = ii i i > 0
41
4n
x 6= 0
ne consegue che
2.4.3
Il Determinante di Gramm
Abbiamo detto che una forma lineare definita positiva equivalente a un prodotto
interno tramite quivalenza
A(x, x) < x, x >
E a quel punto possiamo definire
A(x, y) =< x, y >
La condizioni che avevamo sui minori che dovevano essere maggiori di zero per le
forme quadratiche definite positive si traduce nella conseguenza che dati k vettori ei
< e1 , e1 > < e2 , e1 > ... < e , e1 >
k
< e1 , e2 > < e2 , e2 > ... < e , e2 >
k
det
..
..
..
.
.
.
< e1 , ek > < e2 , ek > ... < ek , ek >
> 0 ei
indipendenti
x1 x2 x3
p
V = y1 y2 y3 = 43 > 0
z1 z2 z3
2.5
19
La legge di inerzia
Noi abbiamo trovato un modo per diagonalizzare la matrice, chiaramente questo modo
non unico. In realt semplicemente operando un cambio di base possiamo semplicemente fare in modo che sulla diagonale ci siano solo i {1, 0, 1}. Questo equivale,
in uno spazio euclideo a definire una base tale che un volume formato da tre vettori sia
un volume unitario. Ora la domanda da porsi se il numero di i > 0, i < 0 e i = 0
rimanga costante oppure no. La legge di inerzia dice che:
Teorema 18. (Legge di Inerzia) In qualsiasi modo diagonalizziamo la matrice il numero di
coefficienti nulli costante
Per dimostrare questo teorema bisogna prima dimostrare il Lemma:
Lemma 19. Dati due sottospazi H e H0 di dimensione p e q di uno spazio vettoriale di
dimensione n e tali che p + q > n allora esiste un vettore x H H0 .2
Adesso supponiamo di avere in una base {ei }
A(x, x) = 1 1 + .. + p p p+1 p+1 .. n n
e in una base
0
A(x, x) = 1 1 + .. + p p p +1 .. n n
e supponiamo per esempio che p > p0 allora per via del Lemma dato che n
+ p > n un vettore x che appartiene al sottospaziospan(f p0 +1 , .., fn ) e contemporaneamente al sottospazio span(e1 , .., e p ), se calcoliamo la forma bilineare su x allora
abbiamo che
A(x, x) = 1 1 + .. + p p > 0
p0
e contemporaneamente
0
A(x, x) = p +1 .. n n < 0
Che assurdo.
Corollario 20. (Rango) Il Rango di una forma bilineare invariante per scelta della base
Per contro possiamo definire il Kernel
Corollario 21. (Kernel) Il Kernel di una forma bilineare un sottospazio dello spazio originale
ed invariante per scelta di base
2 Questa
dimostrazione si fa molto facilmente perch dato che il numero di vettori delle due basi dei
due sottospazi supera la dimensione dello spazio vuol dire che esistono dei coefficienti tali che:
1 e1 + .. + p e p + 1 f1 + .. + q fq = 0
Questo semplicemente vuol dire che x =1 e1 + .. + p e p = 1 f1 + .. + q fq il vettore cercato.
2.6
20
Indicativamente gran parte dei risultati trovati nel caso Reale valgono anche nel caso
Complesso. Ci sono tuttavia dei problemi essenziali sulla propriet di simmetria e con
il prodotto per scalare richiesta per il prodotto interno.
Abbiamo infatti che la bilinearit implicherebbe
f (z) g(z)dz
a
< z, z >
21
Definizione 24. Una forma lineare o funzione lineare f definita su uno spazio vettoriale
complesso V :
del I tipo: se per ogni vettore x associata una f (x) tale che:
(i) f (x + y) = f (x) + f (y)
(ii) f (x) = f (x)
del II tipo: se per ogni vettore x associata una f (x) tale che:
(i) f (x + y) = f (x) + f (y)
(ii) f (x) = f (x)
E da questa definizione definiamo una forma bilineare su uno spazio complesso
Definizione 25. Una funzione Bilineare una funzione A(x, y) tale che :
(i) una funzione lineare del primo tipo in x per ogni y fisso A(x1 + x2 , y) = A(x1 , y) +
A(x2 , y)
(ii) una funzione lineare del secondo tipo in y per ogni x fissato A(x, y1 + y2 ) =
A(x, y1 ) + A(x, y2 )
Un esempio generale di forma bilineare complessa :
A(x, y) = aij i j = A(ei , e j ) i j
x = i ei
y = i ei
Teorema 26. Una forma bilineare complessa unicamente determinata dalla sua forma quadratica
Definizione 27. Una forma bilineare si chiama Hermitiana se A(x, y) = A(y, x)
Teorema 28. Perch una forma si Hermitiana e necessario e sufficiente che la sua forma
quadratica A(x, x) abbia valori reali per ogni vettore x.
2.6.1
Se A la matrice della forma bilineare hermitiana A(x, y) relativa a una base {ei } e B
la matrice della stessa forma bilineare A(x, y) ma nella base {fi } con f j = cij ei allora
abbiamo
B = C AC
dove C la trasposta e congiugata di C. In pratica cij = c ji con la matrice per
cambio di base
2.7
22
Esercizio di diagonalizzazione
a d e
A= d b f
e f c
Adesso procediamo nel nostro cambio di coordinate x = ui ei = vi fi . Facciamo in
modo di scegliere la nuova base di modo tale che :
v1 = au1 + du2 + eu3
v2 =
u2
v3 =
u3
Con questo cambio di base adesso dobbiamo esplicitare il termine au1 u1 e lo facciamo calcolando:
v1 v1 = a2 u1 u1 + 2adu1 u2 + 2aeu1 u3 + d2 u2 u2 + 2deu2 u3 + e2 u3 u3
da cui si ottiene:
d2
de
e2
1 1 1
v v = au1 u1 + 2du1 u2 + 2aeuu3 + u2 u2 + 2 u2 u3 + u3 u3
a
a
a
a
e dunque
d2
de
e2
1 1 1
v v 2dv1 v2 2aev1 v3 v2 v2 2 v2 v3 v3 v3 = au1 u1
a
a
a
a
Da cui nelle nuove coordinate
A(x, x) =
1 1 1 ab d2 2 2
f a de 2 3 ca e2 3 3
v v +
v v + 2(
)v v +
v v
a
a
a
a
wi g
w1 = v1
p=
w2 =
pv2 +qv3 dove
q=
w3 =
v3
abd2
a
f ade
a
1 2 2
q2
w w 2qw2 w3 w3 w3 = pv2 v2
p
p
23
1 1 1 1 2 2
ca e2 q2 3 3
w w + w w +(
)w w
a
p
a
p
ovvero
A(x, x) =
1 1 1
(ca e2 )( ab d2 ) ( f a de)2 3 3
a
2 2
w
w
+
(
)w w
w w +
a
ab d2
a2 ( ab d2 )
cio:
1
a
A= 0
0
a
abd2
0
0
(cae2 )( abd2 )( f ade)2
a2 ( abd2 )
a
C= 0
0
abd2
a
f ade
a
Calcolando dunque linversa per operare il cambio di base sulla forma bilineare
otteniamo:
bed f
1
a
U = C 1 = 0
0
Per cui abbiamo
1
a
a
abd2
d
abd2
a
abd2
0
0
(cae2 )( abd2 )( f ade)2
a2 ( abd2 )
abd2
de a f
abd2
a d e
T
= U d b f U
e f c
Capitolo 3
Trasformazioni lineari
3.1
Sono funzioni lineari da uno spazio vettoriale a uno spazio vettoriale e possono essere rappresentate sotto forma matriciale. Si dimostra che data una base
e uninsieme di n vettori, esiste ununica trasformazione lineare che manda i
vettori della base nei vettori prescelti. Si trova la formula per il cambio di base:
B = C 1 AC dove C la matrice per il passaggio di base fk = Cek .
Si definiscono sottospazi invarianti, autovettori e autovalori. Si definisce come
fare a trovare un autovettore.
Si introduce il polinomio caratteristico. Si fa vedere che il polinomio carateristico
indipendente dalla scelta della base.
Si fa vedere che n autovettori con autovalori distinti sono linearmente indipendenti.
Come corollario se ne deduce che ogni matrice con polinomio caratteristico con
n radici distinti diagonalizzabile.
Si dimostra che P() = n + tr ( A)n1 + ... + tr (n1 A) + detA dove k A
sono i minori principali di ordine k. Nel caso in cui A sia diagonale invece il
polinomio molto pi facile essendo P() = ( a11 ) . . . ( ann ) e che se P()
il polinomio caratteristico della matrice A allora P( A) = 0.
A questo punto si introduce la relazione fra trasformazioni lineari e forme bilineari.1 A(x, y) = ( Ax, y) = (x, A y)
Trasformazioni Autoaggiunte
Dopo aver introdotto la trasformazione aggiunta si tratta delle trasformazioni
lineari autoaggiunte A = A e di come ogni trasformazione lineare possa essere
decomposta in somma di due trasformazioni autoaggiunte A = A1 + iA2 .
Il prodotto di due autoaggiunte AB autoaggiunto A e B commutano.
Si fa vedere che se autoaggiunta, A ha tutti autovalori reali. Il sottospazio ortogonale allautovettore corrispondente forma un sottospazio invariante rispetto
alla trasformazione A.
1 dove
con le parentesi ( , ) si indica il prodotto interno canonico e con le parentesi < , > il prodotto
interno derivato dalla forma bilineare
24
25
Teorema: Sia A una trasformazione lineare sullo spazio Euclideo n dimensionale. Affinch A sia autoaggiunta necessario e sufficiente che esista una base ortogonale relativa a
cui la matrice A sia diagonale (con autovalori reali?).
in trasformazioni Autoaggiunte Autovettori corrispondenti a diversi autovalori
sono ortogonali fra loro.
Trasformazioni Unitarie
Si definiscono le trasformazioni unitarie. Le trasformazioni unitarie sono quelle
trasformazioni che lasciano invariate le lunghezze dei vettori e lortogonalit dei
vettori. Inoltre gli autovalori di trasformazioni unitarie sono in valore assoluto
uguali a 1.
Una trasformazione unitaria ha una base rispetto alla quale la trasformazione
assume forma diagonale e gli autovalori sono in valore assoluto uguali a 1. Data
A autoaggiunta U 1 AU autoaggiunta.
Data A una matrice Hermitiana, A pu essere rappresentata come A = U 1 DU
3.2
Fino ad adesso abbiamo parlato di funzioni lineari a valori in un campo scalare, adesso
vogliamo trattare di funzioni da uno spazio vettoriale a uno spazio vettoriale.
Definizione 30. Se ad ogni vettore x V univocamente definito un vettore y V allora la mappa y = A(x) chiamata trasformazione. Se poi tale da soddisfare le seguenti
condizioni:
(i) A(x1 + x2 ) = A(x1 ) + A(x2 )
(ii) A(x) = A(x) allora si dice trasformazione lineare.
Se abbiamo il vettore x = i ei e y = A(x) con y = i ei possiamo rappresentare la
trasformazione in forma matriciale dato che:
y = i ei = aij j ei ovvero i = aij j
1
2
..
.
n
1
2
..
.
n
26
V = R3 [t]
W = R2 [ t ]
d
2
p ( t ) = + a2 t + a1 t + a0
dt p ( t )
t3
Nello spazio delle funzioni continue e integrabili lintegrazione lungo un intervallo definito
Dati n vettori arbitrari g1 , .., gn esiste ununica trasformazione lineare A tale che
A(e1 ) = g1 ... A(en ) = gn
Si trova che esiste una corrispondenza univoca fra Trasformazioni lineari in uno spazio
Euclideo e matrici che rappresentano la trasformazione lineare.
Esempio 32. Rappresentiamo sotto forma matriciale la trasformazione lineare L =
R3 [t] R2 [t]. Abbiamo il seguente schema:
d
dt
R3 [ t ]
R2 [ t ]
p(t)
dtd p(t)
A : V = R4 W = R3
L:
2 , t3 e invece come base di R [ t ] la
Troviamo
come
base
di
R
[
t
]
la
base
B
=
1,
t,
t
3
2
2
base D = 1, t, t . Per trovare la matrice che rappresenta la trasformazione lineare
sufficiente calcolare il valore che la funzion assume sulla base e scrivere questi valori
in termini della base di arrivo:
L ( e1 )
L ( e2 )
L ( e3 )
L ( e4 )
= L (1) = 0
=0
= L ( t ) = 1 = e1
= L(t2 ) = 2t = 2e2
= L(t3 ) = 3t2 = 3e3
0 1 0 0
[ L] BD = A = 0 0 2 0
0 0 0 3
Successivamente si definisce il prodotto di trasformazioni lineari come prodotto
matriciale per cui
j
3.2.1
27
Supponiamo di avere due basi su uno stesso spazio vettoriale E = {ei } e F = {fi } e di
avere una matrice di passaggio
j
fk = ck e j per cui
fk = CEF ek dove C =
c11 c12
c21 c22
..
.
c1n
c2n
..
.
c1n c2n
cnn
chiaramente C1 fk =ek
[ L] EE Lx [ L] FF
e ovviamente abbiamo che:
1
[ L] FF = CFE [ L] EE CEF = CEF
[ L] EE CEF
Ha una rappresentazione matriciale A nella base {ei } e una rappresentazione matriciale B nella base {fi } .
Per ogni vettore x = i ei = j f j abbiamo che Lx pu essere scritto nella base {ei } o
nella base {fi }.
Lek = Aei = aik ei mentre nellaltra base Lfk = Bfi = bki fi
Abbiamo dunque che per specificare la base in cui scritto un certo vettore
[ A[ x ] E ] E = Lx
Vuol dire che abbiamo un vettore scritto nella base {ei } e la cui trasformazione
letta nella base {ei } viceversa vgliamo trovare la matrice che manda vettori letti nella
base {fi }e in cui il vettore di destinazione letto nella base {fi }
[ B[x]F ] F = Lx
[CA[ x ] E ] F = Lx
[CA[C 1 x ] F ] F = Lx =[ B[x]F ] F
Da cui deriva C 1 AC = B.
3.3
28
Esempio 34. Supponiamo di avere una trasformazione lineare A tale che la rappresentazione matriciale
1
a1 a1k a1k+1
a1n
..
..
..
..
.
.
.
.
.
.
k
..
..
a1 akk
.
.
0
..
..
0
0
..
..
0
0
0
.
.
ann
0
0
0 ank+1
In questo caso il span(e1 , .., ek ) = H un sottospazio invariante per la trasformazione A.
Definizione 35. Un vettore x si dice autovettore se soddisfa la relazione Ax = x . Nel
caso si chiama autovalore.
Esempio 36. Un esempio di spazio invariante, di autovettore e autovalore pu essere
dato dal seguente:
1 1 0
A= 0 1 0
0 0 3
Abbiamo due autovettori con autovalore 1 e 3 rispettivamente
Ae1 = e1 e Ae3 = 3e3
E uno sottospazio invariante che dato da span(e1 , e2 )
Un altro esempio pu essere se consideriamo la derivazione come trasformazione
lineare sullo spazio delle funzioni C (C)
L : C (C) C (C)
d
f (t) dt
f (t)
In questo caso abbiamo che
L(e3t ) = 3e3t un autovettore con autovalore 3
L(cost + isint) = i (cost + isint) autovettore con autovalore i
Definizione 37. Una matrice A si dice diagonalizzabile se pu essere rappresentata in
una base di autovettori.
Se A diagonalizzabile e riesco a trovare una base di autovettori {bi } con rispettivi
autovalori i allora ho che con un cambio di base:
1 0 0
0 2
0
1
1
A = CEB ..
.. CEB = CEB DCEB
.
.
0 0 . . . n
con la matrice di passaggio dalla base E alla base B che data semplicemente dalle
coordinate degli autovettori
CEB = ( b 1 , , b n )
Quindi se riusciamo a trovare gli autovettori e gli autovalori di una matrice possiamo facilmente diagonalizzarla se essa diagonalizzabile.
29
+ a1n n = 1
..
.. ovvero
.
.
a11 1 + + a1n n = n
a11 1 +
+ a1n n =
0
..
..
..
.
.
.
1
1
1
n
a1 +
+ an = 0
a11 1 +
..
.
det
..
.
ann
a1n
..
.
..
.
n
an
6= 0
a1
a12
a13
det a21
a22
a23
a31
a33
Il determinante della matrice o polinomio caratteristico della trasformazione lienare
3 (1) + 2 ( a33 + a22 + a11 ) + ( a12 a21 a22 a11 + a13 a31 + a23 a32 a33 a11 a33 a22 ) + detA
Si dimostra che P() = n + tr ( A)n1 + ... + tr (n1 A) + detA dove k A sono
i minori principali di ordine k. Nel caso in cui A sia diagonale invece il polinomio
molto pi facile essendo P() = ( a11 ) . . . ( ann ) e che se P() il polinomio
caratteristico della matrice A allora P( A) = 0.
30
1 3 3
A = 3 5 3
6 6 4
1
3
3
x
0
3
5
3
y
0
=
6
6
4
z
0
Caso = 2 abbiamo
3 3 3
x
0
3 3 3 y = 0
6 6 6
z
0
da cui dividendo tutte le righe per un opportuno coefficiente otteniamo
1 1 1
x
0
1 1 1
x
0
1 1 1 y = 0 cio 0 0 0 y = 0
1 1 1
z
0
0 0 0
z
0
ovvero
x y + z = 0
y=y
z=z
x = a b = 0
= y = a
z=b
ovvero
ab
1
1
av1 + bv2 = a = a 1 + b 0
b
0
1
Otteniamo cos gli autovettori v1 v2 associati allautovalore = 2. A questo punto
passiamo a = 4 e abbiamo
3 3 3
x
0
1 1 1
x
0
3 9 3 y = 0 ovvero 1 3 1 y = 0
6 6 0
z
0
1 1 0
z
0
31
1 1 1
x
0
0 2 1 y = 0
0 0 0
z
0
ovvero
x + y z = 0
2y z = 0
z=z
x = 2 + a
= y = 2a
z=a
ovvero
1
a
v3 = 1
2
2
Da cui abbiamo finalmente i 3 autovettori
1
1
1
1 ,
0
v1 , v2 , v3 =
, 1
0
1
2
La matrice per il cambio di base dunque
1 3 1
1 1 1
1
1
0
CEB = 1 0 1 e CEB
= CBE = 2 2
2
1 1 1
0 1 2
Da cui infine abbiamo la finale diagonalizzazione
2 0 0
1 3 1
1 3 3
1 1 1
0 2 0 = 1 2 2
0 3 5 3 1 0 1
2
0
0 4
1 1 1
6 6 4
0 1 2
3.4
3.4.1
32
( AB) = B A
( A ) = A
( A + B) = A + B
(A) = A
( I ) = I
Definizione 43. Una trasformazione lineare A si dice autoaggiunta o hermitiana A =
A se la forma bilineare corrispondente A(x, y) = ( Ax, y) Hermitiana ovvero se
A(x, y) = A(y, x). In pratica la sua rappresentazione matriciale tale che A T + A = 0.
In particolare per una trasformazione lineare Hermitiana abbiamo che ( Ax, y) =
(x, Ay).
Teorema 44. Ogni trasformazione lineare A pu essere decomposta in A = A1 + iA2 dove
A1 e A2 sono autoaggiunte
Per dimostrare il teorema basta porre:
A A
A + A
e A2 =
2
2
Teorema 45. Date A e B autoaggiunte, il prodotto AB autoaggiunto se e solo se A e B
commutano
A1 =
3.5
3.6
33
Trasformazioni Unitarie
(Uei , Uek ) = ik
Si definiscono le trasformazioni unitarie. Le trasformazioni unitarie sono quelle
trasformazioni che lasciano invariate le lunghezze dei vettori e lortogonalit dei
vettori. Inoltre gli autovalori di trasformazioni unitarie sono in valore assoluto
uguali a 1.
Una trasformazione unitaria ha una base rispetto alla quale la trasformazione
assume forma diagonale e gli autovalori sono in valore assoluto uguali a 1. Data
A autoaggiunta U 1 AU autoaggiunta.
Data A una matrice Hermitiana, A pu essere rappresentata come A = U 1 DU
3.7
Trasformazioni Normali
Teorema 52. Se AB = BA allora gli autovettori di A formano uno spazio invariante rispetto
a B.
Se Ax = x allora ABx = BAx = Bx
Ogni due trasformazioni lineari che commutano AB = BA hanno un autovettore
comune.
A e B commutano sono diagonalizzabile rispetto a una stessa base.
Teorema 53. Una trasformazione normale A A = A A diagonalizzabile
Trasformazioni hermitiane e unitarie in particolare sono trasformazioni normali.
Una trasformazione normale pu essere decomposta in una trasformazione hermitiana o autoaggiunta moltiplicato una trasformazione unitaria.
3.8
Per tradurre i risultati che abbiamo ottenuto nel caso Complesso al caso Reale dobbiamo usare la seguente tabella di conversione.
Cn
(x, y) p
= i i
kxk = (x, x)
A = ( a ji )
( Hermitiana)
A = A
(Unitaria)
UU = I
( Diagonalizzazione) A = A = UDU
Rn
(x, y) p
= i i
kxk = (x, x)
At = ( a ji )
At = A
(Simmetrica)
t
QQ = I
(Ortogonale)
A = At = QDQt ( Diagonalizzazione)
Capitolo 4
La Forma di Jordan
Definizione 54. Definiamo un matrice di polinomi
A() = A0 m + A1 m1 + ... + Am , con Ai = ( a jk )i matrice di ordine n
chiamiamo m il grado del polinomio con A0 6= 0
se le matrici sono di ordine n allora n anche lordine del polinomio
il polinomio si dice regolare se det( A0 ) | A0 | 6= 0
Dati due polinomi A() e B() con B() regolare possiamo definire due polinomi
Q() e R() chiamati rispettivamente quoziente destro e resto destro della divisione di
A() per B() secondo la seguente formula:
A() = Q() B() + R(), con deg( R()) < deg( B())
Teorema 55. (B EZOUT G ENERALIZZATO) Se F () una matrice di polinomi il resto destro
della divisione per (I A) F ( A).
Dim. data la matrice di polinomi F () = F0 m + F1 m1 + ... + Fm posso riscriverla
come:
F () = F0 m1 (I A) + ( F0 A + F1 )m1 + F2 m2 + ... + Fm
risommando e sottraendo otteniamo
4.1
n
A = .1 .2 .
..
.
.
.
.
. .
.
n
n
a1 a2 . . . ann
34
35
(I A) B() = () I e
B()(I A) = () I
Theorem 58. (H AMILTON C AYLEY ) Chiamando () il polinomio caratteristico della matrice A, allora 4( A) = 0
Dalla relazione
B()(I A) = () I
deduciamo che() divisibile per (I A) e quindi per il Teorema di Bezout Generalizzato il resto 4( A) = 0.
4.1.1
B1 =
B2 =
..
.
A p1 I
A2 p1 A p2 I
..
.
Bk = Ak p1 Ak1 ... pk I
oppure possiamo indicare la formula per ricorrenza:
(
B0 = I
Bk = ABk1 pk I
36
Che in particolare per Bn1 otteniamo una nuova dimostrazione del Teorema di
Hamilton Cayley. Abbiamo otteniamo la formula per la matrice inversa di A dato che
Bn = 0 = ABn1 pn I = ABn1 det( A) I
Da questo otteniamo infatti
1
Bn1 = A1
det( A)
4.2
Autovalori e Autovettori di A
B = ( b 1 .. b n )
Abbiamo allora che questi vettori sono gli autovettori della matrice A dato che
(0 I A)bi = 0 ovvero
Abi = 0 bi
Dunque ogni colonna non identicamente nulla della matrice B(0 ) un autovettore
della matrice A corrispondente allautovalore 0 .
4.3
Polinomio minimo
37
Definizione 62. Chiamiamo D () il massimo comune divisore di tutti i minori di ordine n 1della matrice caratteristica I A ovvero il massimo comune divisore degli
elementi della matrice B(). Abbiamo allora che
B() = D ()C ()
dove C () una matrice di polinomi chiamata matrice aggiunta ridotta di I A.
Ne segue che
4() = (I A)C () D ()
e dunque D ()|4() e quindi possiamo definire:
() =
4()
D ()
4.3.1
Abbiamo la formula
C () = (I, A) con (I, A) =
()()
Capitolo 5
Decomposizioni e forme canoniche
5.1
Decomposizione in A = UH con U matrice unitaria (UU = I) e H matrice hermitiana o autoaggiunta H = H . Questa decomposizione fa il pari concettualmente con un numero complesso z = ei pu essere decomposto in un prodotto
fra una rotazione ei e un numero che stavolta autoconiugato ovvero reale .
5.2
Decomposizione A = UH
Decomposizione in A = UH con U matrice unitaria (UU = I) e H matrice hermitiana o autoaggiunta H = H . Questa decomposizione fa il pari concettualmente con
la decomposizione di un numero reale in un numero positivo e un numero di norma
unitaria, similmente un numero complesso z = ei pu essere decomposto in un prodotto fra una rotazione ei e un numero che stavolta autoconiugato ovvero reale . Lo
stesso principio si pu estendere alle matrici che possono essere decomposte nel prodotto fra una rotazione ovvero una matrice Unitaria U e una matrice autoaggiunta o
Hermitiana H
Teorema 64. Ogni matrice non singolare A pu essere decomposta nella forma
A = UH
dove H una matrice non singolare definita positiva e U una matrice unitaria.
Per dimostarre questo teorema si dimostra che se B una matrice definita positiva
H = AA
e poi definiamo U = AH 1 .
Abbiamo che
U U = H 1 A AH 1 = H 1 H 2 H 1 = I
38
5.3
39
Decomposizione di Jordan
0 1
0 0 1
...
0 0
0 0 0 0
..
A=
k 1
0 k 1
0
.
.. 1
0 0
0 0 0 k
Intanto procediamo con alcune definizioni
Definizione 66. Autovettore generalizzato di ordine n un vettore x tale che( A I )n x =
0
poi abbiamo le seguenti
Definizione 67. Molteplicit geometrica di un autovalore il numero di blocchi di Jordan
corrispondenti a un autovalore i . La Molteplicit algebrica di un autovalore data dalla
somma dellordine di tuti i blocchi di Jordan relativi ad un autovalore i .
La molteplicit algebrica corrisponde allesponente nella fattorizzazione del polinomio caratteristico. Quando molteplicit algebrica e molteplicit geometrica non coincidono vuol dire che non possibile trovare sufficienti autovettori per diagonalizzare
la matrice.
5.3.1
La forma di Jordan di una matrice costituita da una matrice diagonale e una matrice
nilpotente J = D + N. In particolare ogni blocco di Jordan formato da un multiplo
della matrice identica e una matrice nilpotente Ji = I + N.
0 1 0 0 0
0 0 1 0 0
Ji I = 0 0 . . . . . . 0
0 0 0 0 1
0 0 0 0 0
Il che vuol dire che se lordine della matrice m allora
m
0 1 0 0 0
0 0 1 0 0
( Ji I )m = 0 0 . . . . . . 0 = 0
0 0 0 0 1
0 0 0 0 0
40
Ora dato che una matrice a blocchi J ha potenze facilmente calcolabili dalle potenze
dei blocchi:
J1m
0
J2m
m
J =
...
0
m
Jk
Abbiamo anche che dato un polinomio p( x )
p( J1 )
p( J2 )
p( J ) =
0
..
.
p( Jk )
( i ) qi
i
A questo punto possiamo analizzare cosa succede quando calcoliamo lesponenziale della matrice:
e A = Ce J C 1
e J1
e J2
e =
..
.
e Jk
N q 1
)
( q 1) !
5.4
2
0
A=
0
1
0
2
0
0
0
0
2
0
0
0
1
2
2
0
0
0
0
2
0
0
det(I A) = det
0
0
2
1
1
0
0
2
41
= ( 2)4
0 0 0 0
x
0
(
0 0 0 0 y 0
= da cui otteniamo z = 0
0 0 0 1 w 0
x=0
1 0 0 0
z
0
Gli autovettori sono dunque:
0
0
1
0
v1 =
0 e v2 = 1
0
0
2 1 0 0
0 2 0 0
A=
0 0 2 1
0 0 0 2
Capitolo 6
Applicazioni fisiche
6.1
Supponiamo di dover risolvere il seguente sistema die quazioni differenziali del pimo
ordine:
(
x = 3x 2y
y = +5x y
La rappresentazione matriciale del sistema lineare
x
y
0
3 2
+5 1
x
y
Per prima cosa dobbiamo trovare gli autovettori e per fare questo procediamo trovando gli autovalori come radici complesse del polinomio caratteristico. Il polinomio
caratteristico
3
2
det
= 2 + 4 + 13
+5
1
ha come radici
16 52
= 2 i3
2
Prendiamo un autovalore e troviamo lautovettore corrispondente inserendolo nel
sistema ( A I )a = 0
3 + 2 3i
2
a0
0
=
+5
1 + 2 3i
a1
0
=
(1 3i ) a0 = 2a1
che in particolare realizzata per
(
a0 =
a1 =
2
1 3i
2
1 3i
e
2t
(cos3t + isin3t) = e
2t
43
2cos3t
cos3t + 3sint
+i
2sin3t
sin3t 3cos3t
6.2
u = Q1 e Dt Qu(t) = e At u(t)
Soluzione 2:
cos(t)
f 1 (t) = 1
cosh(kt)
sin(t)
f 2 (t) = 1
sinh(kt)
k
, < 0
, = 0
, > 0
, < 0
, = 0
, > 0