Professional Documents
Culture Documents
Indice
Notazioni
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
9
9
9
10
11
11
11
11
13
14
14
15
18
18
19
19
20
20
21
21
21
23
lineari omogenei
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
29
29
31
32
33
34
34
4
3.7
3.8
3.9
3.10
3.11
A diagonalizzabile . . . . . . . .
Forma di Jordan . . . . . . . . .
Stima asintotica delle soluzioni .
Equazioni scalari di ordine n > 1
Matrice compagna . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4 Stabilit`
a dei sistemi lineari non forzati
4.1 Posizioni dequilibrio . . . . . . . . . .
4.2 Criteri di stabilit`a . . . . . . . . . . .
4.3 Lequazione di Liapunov . . . . . . . .
4.4 Il criterio di Routh-Hurwitz . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
35
37
39
40
44
.
.
.
.
47
47
48
50
52
.
.
.
.
.
55
55
56
57
58
59
di ordine arbitrario
63
. . . . . . . . . . . . . . . . . . . . 63
. . . . . . . . . . . . . . . . . . . . 67
. . . . . . . . . . . . . . . . . . . . 68
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
71
71
73
74
74
76
78
80
80
82
83
84
84
84
84
85
86
87
5
8 Stabilit`
a interna e stabilit`
a esterna dei
8.1 Stabilit`a esterna . . . . . . . . . . . .
8.2 Stabilit`a interna . . . . . . . . . . . .
8.3 Il caso C = I . . . . . . . . . . . . . .
8.4 Il caso generale . . . . . . . . . . . . .
sistemi
. . . . .
. . . . .
. . . . .
. . . . .
lineari
. . . . .
. . . . .
. . . . .
. . . . .
9 Stabilizzabilit`
a
9.1 Retroazioni statiche dello stato . . . . . . . . . .
9.1.1 Controllabilit`a . . . . . . . . . . . . . . .
9.1.2 Stabilit`a . . . . . . . . . . . . . . . . . . .
9.1.3 Stabilizzabilit`a . . . . . . . . . . . . . . .
9.1.4 Controllabilit`a asintotica . . . . . . . . .
9.2 Retroazioni statiche delluscita . . . . . . . . . .
9.2.1 Riduzione della dimensione . . . . . . . .
9.2.2 Sistemi con dinamica zero stabile . . . . .
9.2.3 Sistemi in dimensione 2 . . . . . . . . . .
9.2.4 Assegnabilit`a dei poli . . . . . . . . . . .
9.3 Retroazioni dinamiche delluscita . . . . . . . . .
9.3.1 Costruzione di un osservatore asintotico .
9.3.2 Costruzione di un compensatore dinamico
10 Analisi e sintesi nel dominio della frequenza
10.1 La matrice di trasferimento . . . . . . . . . .
10.2 Propriet`a della matrice di trasferimento . . .
10.3 Il problema della realizzazione . . . . . . . . .
10.4 Sistemi SISO . . . . . . . . . . . . . . . . . .
10.4.1 Il problema della realizzazione nel caso
10.4.2 Diagramma di Nyquist . . . . . . . . .
10.4.3 Stabilizzabilit`a BIBO . . . . . . . . .
11 Controllo ottimo
11.1 Raggiungibilit`a in presenza di vincoli .
11.2 Controllo ottimo sullorizzonte finito .
11.3 Problema del tempo minimo . . . . . .
11.4 Controllo ottimo sullorizzonte infinito
11.5 Regolatore quadratico . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . .
. . . .
. . . .
. . . .
SISO
. . . .
. . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
89
90
93
93
96
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
101
101
102
103
108
109
110
111
112
113
114
114
115
116
.
.
.
.
.
.
.
119
. 119
. 121
. 124
. 127
. 127
. 129
. 132
.
.
.
.
.
135
. 136
. 138
. 139
. 145
. 146
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Appendici
A. Richiami di algebra lineare
A.1 Spazi vettoriali . . . . . . . . . . . . . .
A.2 Applicazioni lineari . . . . . . . . . . . .
A.3 Matrici . . . . . . . . . . . . . . . . . . .
A.4 Autovalori, autovettori, forma di Jordan
A.5 Procedure per la costruzione di una base
A.6 Prodotto cartesiano di spazi vettoriali .
A.7 Sottospazi e ortogonalit`a . . . . . . . . .
151
. . . . .
. . . . .
. . . . .
. . . . .
propria
. . . . .
. . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
153
. 153
. 154
. 156
. 156
. 160
. 164
. 165
6
B. Trasformata di Laplace
B.1 Definizione e propriet`a . . . . . .
B.2 Trasformate notevoli . . . . . . .
B.2.1 Funzioni elementari . . .
B.2.2 Funzioni discontinue . . .
B.2.3 Delta di Dirac . . . . . .
B.3 Teorema del valore finale . . . . .
B.4 Trasformata inversa . . . . . . .
B.5 Trasformata di funzioni vettoriali
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
C. Raccolta di esercizi
C.1 Esercizi sui sistemi di equazioni differenziali lineari . . . . . . . . . . . . . . . . . .
C.1.1 Integrale generale e soluzioni particolari di sistemi omogenei di due equazioni
in due incognite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
C.1.2 Integrale generale e soluzioni particolari di sistemi omogenei di tre equazioni
in tre incognite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
C.1.3 Sistemi non omogenei ed equazioni lineari di ordine superiore . . . . . . . .
C.2 Esercizi sulla stabilit`a dei sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . .
C.2.1 Stabilit`a dei sistemi piani e funzioni di Liapunov . . . . . . . . . . . . . . .
C.2.2 Stabilit`a dei sistemi piani ed equazione matriciale di Liapunov . . . . . . .
C.2.3 Stabilit`a dei sistemi in dimensione maggiore di 2 . . . . . . . . . . . . . . .
C.3 Esercizi sulle propriet`a strutturali dei sistemi con ingressi . . . . . . . . . . . . . .
C.3.1 Insieme raggiungibile, controllabilit`
a, osservabilit`
a . . . . . . . . . . . . . .
C.3.2 Forma di Kalman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
C.3.3 Stabili`a BIBS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
C.3.4 Stabilizzabilit`a, assegnabilit`a dei poli . . . . . . . . . . . . . . . . . . . . . .
C.4 Esercizi su trasformata di Laplace e applicazioni alle equazioni differenziali . . . .
167
. 167
. 172
. 172
. 174
. 175
. 176
. 177
. 177
179
. 179
. 179
.
.
.
.
.
.
.
.
.
.
.
.
179
181
182
182
183
184
185
185
186
186
187
189
Notazioni
Si ricorda che una funzione si dice continua a tratti sullintervallo compatto [a, b] se in tale intervallo la funzione
ha al pi`
u un numero finito di punti di discontinuit`
a, e ciascuna eventuale discontinuit`
a `e di prima specie.
2
Si ricorda che una funzione si dice continua a tratti su un intervallo illimitato I se `e continua a tratti in ogni
intervallo compatto [c, b] I.
Capitolo 1
1.1
Caratteristica principale di ogni sistema fisico `e quella di evolversi nel tempo, cio`e di modificare il
proprio stato col trascorrere del tempo. Responsabili di tale evoluzione sono in generale le forze e
i vincoli interni al sistema, e le sollecitazioni eventualmente imposte dallesterno.
1.1.1
Loperatore ingresso-uscita
Per descrivere matematicamente un sistema fisico, `e necessario che lo stato del sistema, le eventuali
sollecitazioni esterne e le informazioni che il sistema ci fornisce sul proprio stato possano essere rappresentate per mezzo di grandezze numeriche variabili (nel tempo). In definitiva, per rappresentare
un sistema `e necessario assegnare:
1) un insieme T di tempi
2) un insieme U di ingressi
3) un insieme X di stati
4) un insieme Y di uscite.
9
10
Le sollecitazioni imposte dallesterno (dette anche ingressi o input) sono quindi descritte da
funzioni u() F(T , U). Le informazioni fornite dal sistema sul proprio stato (dette anche uscite
o output) sono rappresentate da funzioni y() F(T , Y), mentre lo stato `e rappresentato da una
funzione x() F(T , X ).
Luscita dipende naturalmente dallingresso. Il sistema agisce quindi come un operatore (univoco) R che trasforma ogni funzione di ingresso u() F(T , U) in una funzione di uscita y()
F(T , Y). Scriveremo pertanto
y() = R(u()) ,
Loperatore R si chiama anche operatore ingresso-uscita. Nella teoria dei sistemi si fa talvolta
uso di diagrammi a blocchi; a tal fine, un operatore R si rappresenta graficamente mediante la
figura
u -
-y
Un operatore ingresso-uscita R non `e necessariamente definito per ogni u() F(T , U). Per
esempio, in talune applicazioni, le funzioni di ingresso devono sottostare a vincoli che la natura
del problema impone sia sui valori che esse possono assumere, sia sul loro carattere funzionale. Il
sottoinsieme di F(T , U) formato da tutte le funzioni che soddisfano le condizioni richieste costituisce
il domino di R e si chiama insieme degli ingressi ammissibili.
Osservazione 1.1 Nel rappresentare un sistema come un operatore R univoco, si suppone implicitamente di avere una conoscenza completa del funzionamento del sistema stesso. Questo, nella
realt`a, non `e quasi mai vero. Di regola, luscita di un sistema `e infatti influenzata da fattori dei
quali non si `e tenuto conto nella modellizzazione, o da incertezze e imprecisioni nellidentificazione
dei parametri, o da eventi di natura aleatoria. Situazioni di questo genere, tuttavia, non saranno
trattate in questo corso.
1.1.2
Linsieme dei tempi T pu`o essere un qualunque insieme totalmente ordinato dotato di una struttura
di gruppo. In pratica vi sono due possibili scelte: T = Z oppure T = R. Nel primo caso si parla di
sistemi in tempo discreto, e le funzioni che descrivono lingresso, luscita e lo stato sono in realt`a
delle successioni. Nel secondo caso si parla di sistemi in tempo continuo. Molto spesso, uno stesso
sistema fisico pu`o essere rappresentato sia da un modello in tempo discreto che da uno in tempo
continuo (ci`o dipende dagli scopi e dai mezzi impiegati per la modellizzazione).
11
1.1.3
Tra le variabili di ingresso, `e opportuno fare delle distinzioni. Alcune di queste sono infatti identificabili come segnali che sfuggono al controllo delloperatore (disturbi), altre come segnali di riferimento (cio`e funzioni di uscita ideali alle quali luscita effettiva del sistema si deve adeguare),
altre infine come controlli veri e propri, cio`e segnali mediante i quali loperatore pu`o influenzare il
comportamento del sistema e quindi la funzione duscita.
In generale, `e conveniente ordinare le variabili di ingresso in modo da poterle rappresentare
come componenti di un vettore. Analogamente, anche le variabili di uscita saranno ordinate e
` quindi abbastanza naturale supporre che linsieme degli ingressi
rappresentate come un vettore. E
U e linsieme delle uscite Y possiedano una struttura di spazio vettoriale reale, di dimensione finita.
1.1.4
1.1.5
Sistemi finito-dimensionali
Si dice che un sistema `e finito-dimensionale quando le variabili di ingresso, di uscita, e anche quelle
di stato possono essere rappresentate come vettori con un numero finito di componenti reali, ovvero
X = Rn , U = Rm , Y = Rp , essendo n, m, p numeri interi assegnati, maggiori o uguali ad 1. In
particolare, il sistema si dice di tipo SISO (single-input-single-output) quando m = p = 1; altrimenti
si dice di tipo MIMO (multi-input-multi-output).
Da questo momento in poi, col termine sistema intenderemo sempre un sistema
finito-dimensionale e a tempo continuo.
Conseguentemente, gli insiemi di funzioni che rappresentano lingresso, luscita e lo stato saranno
indicati, rispettivamente, come F(R, Rm ), F(R, Rp ), F(R, Rn ).
1.1.6
Connessione di sistemi
` importante saper operare con e sui sistemi, stabilendo delle connessioni oppure decomponendoli
E
in sottosistemi. I tipi fondamentali di connessione sono tre.
1) Cascata (o serie): lingresso coincide con luscita di un altro sistema.
12
u -
R1
R2
-y
R1
u- d
d y-
R2
R1
- d y-
R2
13
1.1.7
(1.1)
Il significato della (1.1) `e che se lenergia trasportata dal segnale in ingresso `e limitata, il
sistema risponde con un segnale in uscita la cui energia pu`o essere stimata in funzione della stima
dellenergia del segnale in ingresso. Il valore (0) prende il nome di costante di distorsione, mentre
la funzione (r) (0) si chiama funzione-guadagno.
Nellanalisi dei sistemi `e di fondamentale importanza conoscere le condizioni sotto le quali
un sistema `e BIBO-stabile e, nel caso affermativo, ricavare informazioni sulle caratteristiche della
funzione .
14
1.1.8
Il progetto (design) del sistema (o sintesi) consiste nel determinare una strategia di controllo, da
esercitare utilizzando il canale di ingresso, in modo che luscita del sistema sia il pi`
u vicina possibile
a quella desiderata.
Genericamente, esistono due possibili tipi di strategie di controllo.
1) Controllo a circuito aperto: il controllo viene implementato costruendolo direttamente come
funzione del tempo u() F(R, Rm ).
2) Controllo a circuito chiuso: il controllo viene implementato costruendo un secondo sistema e
realizzando una connessione in retroazione.
Il secondo tipo `e in generale preferibile (si parla anche di controllo automatico) in quanto
mette il sistema in grado di autoregolarsi, in caso di perturbazioni impreviste, anche senza la
presenza costante di un operatore umano. Nel controllo a circuito chiuso infatti, luscita del sistema
principale, denominato impianto e rappresentato da un operatore RI : F(R, Rm ) F(R, Rp ),
viene confrontata col segnale di riferimento. Quando la differenza tra le due funzioni diventa troppo
sensibile, il secondo sistema, denominato compensatore o controllore e rappresentato da un operatore
RC : F(R, Rp ) F(R, Rm ), comunica allimpianto le correzioni necessarie.
Talvolta `e possibile accedere direttamente allo stato del sistema, e quindi realizzare il compensatore come un operatore RC : F(R, Rn ) F(R, Rm ). Per distinguere tra le due situazioni, si
parla di retroazione delluscita nel primo caso e di retroazione dello stato nel secondo.
1.1.9
Propriet`
a dei sistemi
In questa sezione, facendo per il momento ancora riferimento al caso generale, ci proponiamo di
discutere le propriet`a che `e ragionevole aspettarsi, affinche un operatore R : F(R, Rm ) F(R, Rp )
sia effettivamente rappresentativo di un sistema fisico.
Sistemi causali
Di regola, i sistemi che si incontrano nelle applicazioni pratiche sono causali (o non-anticipativi).
Ci`o significa che se per un qualunque t R e per una qualunque coppia di ingressi u1 (), u2 ()
F(R, Rm ) si ha
u1 ( ) = u2 ( ) per ogni t ,
allora
y1 (t) = y2 (t)
dove y1 () = R(u1 ()) e y2 () = R(u2 ()). In altre parole, il valore delluscita a un istante arbitrario
t `e determinato esclusivamente dai valori assunti dalla funzione di ingresso negli istanti precedenti
a t.
15
Sistemi invarianti nel tempo
Diremo che un sistema, o loperatore che lo rappresenta, `e invariante nel tempo (o stazionario, o
anche autonomo) se t, R e per ogni ingresso u() F(R, Rm ), posto
v(t) = u(t ),
y() = R(u()),
z() = R(v())
si ha
z(t) = y(t ) .
In altre parole, se si ritarda (o si anticipa) il segnale di ingresso di una certa quantit`
a di tempo,
anche il segnale in uscita viene ritardato (o anticipato) della stessa quantit`
a di tempo, ma resta
qualitativamente invariato.
Sistemi lineari
Un sistema si dice lineare se tale `e loperatore che lo rappresenta, ovvero se
a1 R(u1 ()) + a2 R(u2 ()) = R(a1 u1 () + a2 u2 ())
per ogni coppia di ingressi u1 (), u2 () F(R, Rm ) e ogni coppia di scalari a1 , a2 . Si noti che questa
definizione ha senso in quanto lo spazio degli ingressi e lo spazio delle uscite sono spazi vettoriali.
1.2
Z +
h(t )u( ) d
(1.2)
h(t )u( ) d =
Z +
La risposta del sistema allimpulso unitario impresso nella direzione del vettore ei coincide cio`e
con la colonna i-esima della matrice h(t). Si noti che se p = m = 1 (sistema SISO), h(t) si riduce a
una funzione reale di variabile reale.
La dimostrazione della proposizione seguente `e immediata.
1
Lipotesi di convergenza assoluta dellintegrale (1.2) non `e per altro scontata e richiede, in generale, restrizioni
sulla natura del sistema o sullinsieme degli ingressi ammissibili.
16
Proposizione 1.2 Se un sistema `e a risposta impulsiva, allora loperatore ingresso-uscita R associato `e lineare.
Segue in particolare dalla Proposizione 1.2 che per un sistema a risposta impulsiva luscita
corrispondente a un ingresso costantemente uguale a zero `e nulla.
Proposizione 1.3 Ogni sistema a risposta impulsiva `e invariante nel tempo.
Dimostrazione Sia u(t) una funzione di ingresso, e sia y(t) la relativa risposta. Siano inoltre
T R, v(t) = u(t T ) e z(t) la risposta relativa allingresso v(t). Si ha:
z(t) =
Z +
h(t )v( ) d =
Z +
h(t )u( T ) d .
Z +
Z t
h(t )u( ) d .
Dimostrazione Dimostriamo che (1) = (2), supponendo per semplicit`a che m = p = 1. Sia t
fissato e consideriamo due ingressi
u1 ( ) = 0
e u2 ( ) =
0
se < t
sgn (h(t )) se t .
17
Poiche u1 ( ) = u2 ( ) per < t la propriet`a di causalit`a implica luguaglianza delle rispettive
uscite al tempo t: y1 (t) = y2 (t). Ma evidentemente y1 (t) = 0, mentre
y2 (t) =
Z +
h(t )u2 ( ) d 6=
Z +
t
|h(t )| d 6= 0
a meno che non sia h(t ) = 0 per ogni > t, ovvero h(r) = 0 per r < 0.
Se m o p (o entrambi) non sono uguali a 1, la dimostrazione diventa pi`
u complicata dal punto
di vista tecnico, ma riposa essenzialmente sulle stesse idee.
La dimostrazione che (2) = (3) `e immediata. Resta da dimostrare che (3) = (1). Fissiamo
t R. Se u1 , u2 sono funzioni di ingresso tali che u1 ( ) = u2 ( ) per ogni t, allora le uscite
corrispondenti y1 , y2 saranno tali che
y1 (t) =
Z t
h(t )u1 ( ) d =
Z t
Z t
t0
h(t )u( ) d .
Per i sistemi causali a risposta impulsiva, vi `e anche una semplice caratterizzazione della stabilit`a
esterna.
Proposizione 1.5 Sia dato un sistema causale a risposta impulsiva h(t). Assumiamo come spazi
degli ingressi e delle uscite B(R, Rm ) e B(R, Rp ), dotati entrambi della norma della convergenza
uniforme. Il sistema `e BIBO-stabile se e solo se lintegrale
Z +
0
||h(r)|| dr
Rt
0
h(t )u( ) d ||
||
Z t
||h(r)|| dr .
18
Quindi, se
R +
0
Poiche |u( )| 1 qualunque siano t e , per lipotesi di BIBO stabilit`a esiste una costante S > 0 tale
che
|y(t)| ||y()|| S
(1.4)
R +
per ogni t R. La (1.3) e la (1.4) assieme implicano la convergenza dellintegrale 0 |h(r)| dr.
A parte alcune complicazioni tecniche, la dimostrazione si estende al caso generale in cui m o p (o
entrambi) siano maggiori di 1.
1.3
Sistemi inizializzati
1.3.1
Sistemi deterministici
Possiamo immaginare che nelle condizioni iniziali, cio`e nel dato della coppia (t0 , x0 ) R Rn ,
venga riassunta tutta la storia passata del sistema, e che la conoscenza dello stato iniziale (in
aggiunta ovviamente alla conoscenza degli ingressi che il sistema riceve dallistante iniziale in poi)
siano sufficienti per determinare tutta levoluzione futura. Questa idea riposa su unipotesi che `e
analoga a quella di causalit`a, ma pi`
u appropriata al nuovo punto di vista, e comunque diversa
perche fa intervenire esplicitamente lo stato del sistema.
2
Alternativamente,si pu`
o anche convenire che gli ingressi ammissibili si limitino alle funzioni u() F (R, Rm ) che
sono nulle per t < t0 . A differenza di quanto accade per i sistemi a risposta impulsiva, ci`
o non implica in generale
che luscita al tempo t0 sia uguale a zero.
19
Definizione 1.2 Si dice che un sistema, o loperatore inizializzato che lo rappresenta, `e deterministico se t0 R,
u1 (t) = u2 (t) t t0 e x1 = x2 = y1 (t) = y2 (t) t t0
dove y1 () = R(t0 , x1 )(u1 ()) e y2 () = R(t0 , x2 )(u2 ()).
In accordo con la Definizione 1.2, vanno considerati non deterministici i cosiddetti sistemi con
ritardo (nei quali il comportamento per t t0 dipende non solo dallo stato in cui il sistema si trova
al tempo t0 , ma anche da tutti quegli stati che il sistema ha attraversato al trascorrere del tempo
da un certo istante t0 ( > 0) fino a t0 ) e pi`
u in generale i sistemi con memoria (tipicamente
quelli che presentano cicli di isteresi).
Vediamo adesso come vanno modificate le definizioni di sistema invariante nel tempo e di sistema
lineare, nel caso in cui si sia scelto di rappresentare il sistema stesso per mezzo di un operatore
inizializzato.
Da questo momento in poi, in aggiunta a quanto stabilito in precedenza e salvo avviso
contrario, col termine sistema intenderemo sempre sistema rappresentato da un operatore
inizializzato deterministico.
1.3.2
si ha
z(t) = y(t ) .
Proposizione 1.6 Sia R un operatore inizializzato invariante nel tempo, e sia y() = R(t0 , x0 )(u()).
Allora,
y(t) = z(t t0 )
dove z() = R(0, x0 )(v()), e v(t) = u(t + t0 ).
In altre parole, quando si ha a che fare con operatori invarianti nel tempo non `e restrittivo
assumere che listante iniziale coincida con lorigine dellinsieme dei tempi.
1.3.3
Sistemi lineari
Un sistema rappresentato per mezzo di un operatore inizializzato R, si dice lineare se per ogni
t0 R, R `e lineare come applicazione da Rn F([t0 , +), Rm ) in F([t0 , +), Rp ), e cio`e se
t0 R, x1 , x2 Rn , u1 (), u2 () F([t0 , +), Rm ), a1 , a2 R si ha
R(t0 , a1 x1 + a2 x2 )(a1 u1 () + a2 u2 ()) = a1 R(t0 , x1 )(u1 ()) + a2 R(t0 , x2 )(u2 ()) .
20
Proposizione 1.7 Sia R un operatore inizializzato invariante nel tempo e lineare. Per ogni t0 R,
ogni x0 Rn e ogni u() F([t0 , +), Rm ) si ha:
y() = R(t0 , x0 )(0) + R(t0 , 0)(u()) .
Dimostrazione Applicando la definizione di sistema inizializzato lineare con x1 = x0 , x2 = 0, u1 () = 0,
u2 () = u(), a1 = a2 = 1, si ha subito
y() = R(t0 , x0 )(u()) = R(t0 , x0 )(0) + R(t0 , 0)(u()) ,
come desiderato.
1.3.4
Stabilit`
a esterna
1.3.5
La Proposizione 1.7 pu`o essere interpretata dicendo che la risposta di un sistema lineare relativa a
un certo stato iniziale x0 e ad un certo ingresso u() si pu`o sempre ottenere mediante unoperazione
semplice (somma) conoscendo:
la risposta relativa allo stato iniziale x0 con lingresso posto uguale a zero;
la risposta relativa allingresso u() con lo stato iniziale posto uguale a zero.
In altre parole, nellanalisi del comportamento di un sistema lineare, e specificatamente nello
studio della stabilit`a esterna, linfluenza sulla risposta dei dati iniziali e linfluenza, sempre sulla
risposta, degli ingressi possono essere analizzate separatamente. Conviene quindi procedere per
tappe successive, supponendo in una prima fase che lingresso sia nullo, e in una seconda fase che
sia nullo lo stato iniziale. Come vedremo, in questo modo sar`a anche pi`
u facile ritrovare analogie
con i risultati della teoria dei sistemi a risposta impulsiva.
Un sistema rappresentato da un operatore inizializzato invariante nel tempo si dice inizializzato
a zero se lo stato iniziale x0 al tempo t0 = 0 `e posto uguale a zero. Un sistema rappresentato da un
operatore inizializzato si dice non forzato quando lingresso `e posto costantemente uguale a zero
per t 0.
Un sistema non forzato pu`o comunque presentare unevoluzione nel tempo: infatti, per effetto
dellenergia accumulata nel sistema nelle fasi che precedono listante iniziale, lo stato iniziale non
corrisponder`a, in generale, ad uno stato di riposo.
21
In tali circostanze, `e naturale attendersi che il sistema si evolva dissipando lenergia iniziale,
e in modo da portarsi asintoticamente verso una posizione di equilibrio. Se questo accade, si dir`a
genericamente che il sistema `e internamente stabile. Il concetto di stabilit`a interna sar`a ripreso e
precisato pi`
u avanti.
Nellanalisi delle propriet`a di un sistema, lo studio del comportamento in assenza di termini
forzanti costituisce, di regola, una delle fasi preliminari. Come vedremo infatti, esiste una stretta
correlazione tra le propriet`a di stabilit`a interna e quelle di stabilit`a esterna.
1.4
Sistemi differenziali
In questa sezione circoscriveremo loggetto dei nostri studi ai sistemi modellizzati per mezzo di
equazioni differenziali ordinarie; essi si chiamano anche sistemi differenziali. Si tratta di una classe
molto particolare di sistemi, per i quali `e disponibile una teoria molto sviluppata e completa, e
della quale sono note numerose e importanti applicazioni. Lintroduzione di questo tipo di sistemi
richiede alcune restrizioni.
1.4.1
Ingressi ammissibili
1.4.2
Equazioni di stato
dx
= f (t, x, u)
dt
(1.5)
(1.6)
Per ogni funzione di ingresso ammissibile u(t), la (1.5) diventa un sistema di equazioni differenziali ordinarie del primo ordine in forma normale
x = f (t, x, u(t)) = g(t, x) .
A proposito delle funzioni f e h, assumeremo sempre che:
(1.7)
22
(A1) f sia continua e dotata di derivate parziali prime continue rispetto ad x, continua rispetto
a u, e continua a tratti rispetto a t;
(A2) h sia continua rispetto a x, e continua a tratti rispetto a t;
(A3) esistano funzioni continue e positive a(t), b(t) tali che
||f (t, x, u)|| a(t)||x|| + b(t)
per ogni (t, x, u) R Rn Rm .
Sotto tali ipotesi, per ogni coppia di valori iniziali (t0 , x0 ) R Rn e per ogni ogni funzione
di ingresso ammissibile esiste ununica soluzione del problema di Cauchy
x = g(t, x)
x(t0 ) = x0
(1.8)
definita sullintero intervallo [t0 , +). Volendo esplicitare la dipendenza della soluzione del problema (1.8) dalle condizioni iniziali e dallingresso, useremo la notazione
x = x(t; t0 , x0 , u()) .
(1.9)
(1.10)
`e quello che definisce luscita come y(t) = h(t, x(t; t0 , x0 , u())) per ogni t t0 . In analogia con (1.9)
useremo talvolta la notazione
y = y(t; t0 , x0 , u()) .
(1.11)
Possiamo riassumere quanto detto fino a questo momento nella proposizione seguente.
Proposizione 1.8 Nelle ipotesi (A1), (A2), (A3), il sistema differenziale (1.5), (1.6) definisce
un operatore ingresso-uscita (1.10) deterministico sullinsieme degli ingressi ammissibili. Inoltre,
luscita y(t) `e una funzione continua.
La seguente Proposizione caratterizza invece i sistemi differenziali invarianti nel tempo.
Proposizione 1.9 Nelle ipotesi (A1), (A2), (A3), loperatore ingresso-uscita (1.10) definito dal
sistema differenziale (1.5), (1.6) risulta invariante nel tempo se le funzioni f e h non dipendono
esplicitamente da t, ossia se f (t, x, u) = f (x, u) e h(t, x) = h(x).
Dimostrazione Sia t0 R e sia u(t) PC([t0 , +), Rm ). Dato uno stato iniziale x0 , sia x(t) la corrispondente soluzione dellequazione (1.5) e sia y(t) = h(x(t)). Sia infine un numero reale dato.
Posto v(t) = u(t ) e (t) = x(t ), si ha
d
d
(t) = x(t ) = f (x(t ), u(t )) = f ((t), v(t)) .
dt
dt
In altre parole, (t) coincide con la soluzione relativa allingresso traslato v(t) e alle condizioni iniziali
(t0 + , x0 ). Posto infine z(t) = h((t)), `e chiaro che z(t) = y(t ).
23
In virt`
u delle Proposizioni 1.6 e 1.9, se le funzioni f e h non dipendono esplicitamente da t
non `e restrittivo supporre t0 = 0. In tal caso, le notazioni (1.9) e (1.11) possono essere semplificate
evitando di indicare esplicitamente listante iniziale.
1.4.3
Nella teoria matematica dei sistemi differenziali, un ruolo di rilievo spetta, sia dal punto di vista
storico che dal punto di vista delle applicazioni, ai sistemi definiti da equazioni lineari.
Definizione 1.4 Un sistema differenziale invariante nel tempo si dice lineare quando si presenta
nella forma
f (x, u) = Ax + Bu
h(x) = Cx
x = Ax + Bu
y = Cx ,
(1.12)
lineare nel senso della Definizione 1.4, loperatore ingresso-uscita inizializzato associato (1.10) `e
lineare.
La dimostrazione della Proposizione 1.10 sar`a data pi`
u avanti.
A partire dal Capitolo 3 di queste lezioni, concentreremo principalmente la nostra attenzione
allo studio dei sistemi differenziali invarianti nel tempo e lineari.
24
Capitolo 2
(2.1)
A proposito della (2.1), supporremo che f sia definita, continua e dotata di derivate parziali prime
continue per ogni x Rn , e che inoltre soddisfi una disuguaglianza del tipo
||f (x)|| a||x|| + b
per certe costanti positive a, b. Sappiamo che sotto queste condizioni `e garantita, per ogni condizione
iniziale (t0 , x0 ), esistenza, unicit`a e prolungabilit`a allinfinito della soluzione al problema di Cauchy.
Inoltre, poiche il sistema (2.1) `e definito da una funzione f che non dipende esplicitamente da
t, per la Proposizione 1.9 esso `e invariante nel tempo; non `e quindi restrittivo supporre che t0 = 0.
2.1
La mappa di flusso
Ogni soluzione della (2.1) pu`o essere interpretata come la parametrizzazione di una curva x = (t)
di Rn . Per ogni t R, il vettore tangente a tale curva in x coincide con f (x). Per questa ragione
la funzione f : Rn Rn che definisce la (2.1) si chiama anche un campo vettoriale.
Il sostegno di una soluzione x = (t) della (2.1) prende anche il nome di orbita o traiettoria.
Bisogna fare attenzione a non confondere il grafico di una soluzione (t), che `e un sottoinsieme di
RRn , con lorbita di (t), che coincide con limmagine (R) e che `e un sottoinsieme di Rn . Per
chiarire ulteriormente, osserviamo che lorbita di non `e altro che la proiezione del grafico di su
Rn , effettuata secondo linee parallele allasse dei tempi (si veda la Figura 2.1).
1
Le nozioni che andiamo ad introdurre in questo capitolo saranno nel seguito applicate essenzialmente nel caso
dei sistemi lineari; tuttavia, esse si comprendono meglio in tutta la loro generalit`
a enunciandole in riferimento a un
sistema del tipo (2.1).
25
26
10
y
5
0
t
10
10
x
5
20
15
10
5
5
10
(t) = (t)
(t) = (t) t R .
(2.2)
Da un punto di vista geometrico, la (2.2) ci dice che se i grafici di due soluzioni hanno un punto
in comune, allora coincidono.
Sempre da un punto di vista geometrico, linvarianza nel tempo si interpreta dicendo che traslando nel tempo grafici di soluzioni si ottengono ancora grafici di soluzioni. Tutte le soluzioni
ottenute in questo modo sono ovviamente parametrizzazioni equivalenti della stessa curva: ad esse
corrisponde dunque una stessa orbita (si veda ancora la Figura 2.1). Vale una sorta di viceversa.
Lemma 2.1 Siano (t) e (t) due soluzioni qualunque della (2.1) definite per ogni t R. Allora,
t1 , t2 : (t1 ) = (t2 ) = (t) = (t + T ) t R ,
(2.3)
dove si `e posto T = t1 t2 .
Dimostrazione Si ponga T = t1 t2 e (t) = (t + T ). Chiaramente, (t) `e una soluzione. Essa soddisfa
alla condizione iniziale
(t2 ) = (t2 + t1 t2 ) = (t1 ) .
Ma anche (t) `e la soluzione e, per ipotesi, soddisfa alla stessa condizione. In conseguenza dellunicit`a
delle soluzioni, si ha allora
(t) = (t + T ) = (t)
t R .
Laffermazione del Lemma 2.1 pu`o essere interpretata dicendo che se due orbite hanno un punto
in comune, esse devono coincidere (a questo proposito, si faccia ben attenzione alla differenza tra
la (2.2) e la (2.3)). Dunque, per ogni punto di Rn passa una e una sola orbita. Le orbite di un
27
sistema del tipo (2.1) si dispongono nel piano in modo da costituirne una partizione. Esse formano
un disegno che prende il nome di configurazione degli stati.
Per indicare la soluzione del problema di Cauchy
x = f (x)
x(0) = x0
(2.4)
x = x(t, x0 )
(2.5)
che ha il vantaggio di evidenziare, oltre alla variabile temporale t, anche lo stato iniziale x0 . La
(2.5) definisce una funzione da R Rn Rn , a cui si d`a il nome di mappa di flusso generato dal
campo vettoriale f . Essa pu`o essere interpretata come una funzione di t per ogni dato x0 , oppure
come una funzione da Rn in Rn parametrizzata da t.
Osservazione 2.1 Nella (2.5), la variabile t va pensata non tanto come lindicazione di un preciso istante di tempo, ma piuttosto come lindicazione della durata del processo, cio`e come la
lunghezza dellintervallo di tempo necessario per operare il trasferimento di stato da x0 in x(t, x0 ).
(2.6)
(2.7)
qualunque siano t, R e x0 Rn .
2.2
La (2.5) non `e altro che quello a cui si riduce la (1.9) nel caso della (2.1).
28
Definizione 2.1 Si dice che x
`e un punto dequilibrio stabile (nel senso di Liapunov) per il sistema
(2.1) se per ogni > 0 esiste un > 0 tale che
kx0 x
k <
kx(t; x0 ) x
k < ,
t 0
.
Definizione 2.2 Si dice che x
`e un punto dequilibrio attrattivo se esiste un 0 > 0 tale che, per
ogni stato iniziale x0 per cui kx0 x
k < 0 , si ha
lim x(t; x0 ) = x
.
t+
(2.8)
Definizione 2.3 Se x
`e allo stesso tempo un punto dequilibrio stabile e attrattivo, si dice che `e
asintoticamente stabile. Se inoltre la (2.8) vale per ogni x Rn , x
si dir`
a globalmente asintoticamente stabile. Infine, se la convergenza delle soluzioni verso x
ha carattere esponenziale, e cio`e se
esistono M > 0, > 0 tali che
x0 con kx0 x
k < 0 si ha kx(t; x0 ) x
k M et ,
(2.9)
Capitolo 3
x = Ax ,
(3.1)
Nella tradizione matematica, (3.1) si chiama un sistema di equazioni differenziali lineari omogeneo a coefficienti costanti. In forma esplicita, (3.1) si scrive
x 1 = a11 x1 + . . . + a1n xn
3.1
Richiami
Cominciamo col ricordare alcuni fatti importanti a proposito dei sistemi di equazioni del tipo (3.1).
Fatto 1. Per ogni stato iniziale x0 assegnato esiste una e una sola soluzione x = (t) della (3.1)
tale che (0) = x0 ; inoltre, (t) `e definita per ogni t R.
Fatto 2. Se v Rn (v 6= 0) `e un autovettore di A relativo allautovalore R, allora (t) = et v
`e la soluzione corrispondente allo stato iniziale v.
Fatto 3. Se 1 (), 2 () sono soluzioni di (3.1) e 1 , 2 R, allora anche 1 1 () + 2 2 () `e
soluzione di (3.1).
Fatto 4. Date k soluzioni 1 (), . . . , k () di (3.1), queste costituiscono un sottoinsieme linearmente indipendente in C(, +, Rn ) se e solo se i vettori 1 (t), . . . , k (t) costituiscono,
per ogni t R, un sottoinsieme linearmente indipendente in Rn .
Fatto 5. Linsieme di tutte le soluzioni di (3.1) forma un sottospazio S di C(, +, Rn ): la
dimensione di S `e finita e, pi`
u precisamente, uguale ad n. Ad S si d`
a il nome di integrale
generale del sistema (3.1).
29
30
Il sistema di equazioni (3.1) ha senso anche se si ammette che x possa prendere valori nello
spazio n-dimensionale complesso Cn , e che gli elementi di A siano complessi: a parte le ovvie
modifiche, rimane vero tutto quanto abbiamo detto fino a questo momento1 . Valgono le seguenti
ulteriori propriet`a.
Fatto 6. Se gli elementi di A sono reali, e se z() `e una soluzione non reale di (3.1), allora anche
la sua coniugata z() `e una soluzione di (3.1).
Fatto 7. Se gli elementi di A sono reali, e se z() `e una soluzione non reale di (3.1), allora z()
e z() sono linearmente indipendenti; inoltre,
z() + z()
z() z()
e 2 () =
2
2i
sono due soluzioni della (3.1) reali e linearmente indipendenti.
1 () =
(3.2)
Osservazione 3.1 Ad autovalori non reali, corrispondono dunque soluzioni reali a carattere oscillatorio. In particolare se = 0, gli autovalori sono immaginari, e si hanno soluzioni periodiche di
periodo minimo uguale a 2/.
A questo punto risulta chiaro che lintegrale generale della (3.1) pu`o essere scritto come combinazione lineare
(t) = c1 1 (t) + . . . + cn n (t)
(3.3)
Lopportunit`
a di estendere la ricerca delle soluzioni al campo complesso anche nel caso in cui gli elementi di A
siano reali, `e suggerita dal Fatto 2: eventuali autovalori non reali di A danno infatti luogo a soluzioni che sarebbe
difficile individuare rimanendo nel campo reale.
31
matrice fondamentale. In particolare, vi `e ununica matrice fondamentale tale che (0) = I. Essa
viene detta anche matrice fondamentale principale.
Introduciamo il vettore costante c = (c1 , . . . , cn )t . Se (t) `e una qualunque matrice fondamentale, la (3.3) si scrive anche
(t) = (t)c
(3.4)
La soluzione particolare che soddisfa alle condizioni iniziali (t0 ) = x0 si ricava risolvendo il
sistema algebrico
(t0 )c = x0
rispetto allincognita vettoriale c. Se t0 = 0 e (t) `e la matrice fondamentale principale, allora si
ha semplicemente c = x0 .
3.2
La matrice esponenziale
Sia M(C) lo spazio vettoriale di dimensione finita formato da tutte le matrici quadrate di ordine
n n a elementi complessi. Se M = (mi,j )i,j=1,...,n M(C), definiamo
||M || =
sX
|mi,j |2 .
i,j
In questo modo, M(C) diventa uno spazio normato. Si pu`o dimostrare che la serie
X
Mk
k=0
k!
converge qualunque sia M M(C); la sua somma si indica col simbolo eM e si chiama matrice
esponenziale.
Riportiamo una lista delle principali propriet`a della matrice esponenziale:
se gli elementi di M sono reali, allora anche gli elementi di eM sono reali;
e0 = I, ove 0 indica la matrice i cui elementi sono tutti nulli;
eN +M = eM eN , a condizione che M N = N M ;
gli autovalori di eM sono tutti e solo i numeri complessi della forma e , dove `e un autovalore
di M ;
eM M = M eM ;
det eM = etr M , ed `e quindi diverso da zero (tr M indica la traccia di M );
se P `e una matrice non singolare, eP
1 M P
= P 1 eM P .
Torniamo adesso al sistema (3.1). Per ogni t R, gli elementi della matrice esponenziale etA
sono funzioni derivabili. Inoltre, vale la proposizione seguente.
32
Proposizione 3.1 Qualunque sia A M(C) si ha, per ogni t R,
d tA
e = AetA .
dt
La matrice esponenziale fornisce dunque un formalismo utile a rappresentare le soluzioni del
sistema (3.1). Infatti, se x = (t) `e la soluzione di (3.1) tale che (t0 ) = x0 , allora, per lunicit`a
delle soluzioni e le propriet`a dellesponenziale, si avr`
a
(t) = e(tt0 )A x0
e, se t0 = 0, ancor pi`
u semplicemente
(t) = etA x0
(3.5)
3.3
A diagonale
Sia
1
0
A=
0
0
0 ... 0
2 . . . 0
= diag (1 , . . . , n )
... ... 0
0 . . . n
1
0
0
0
v1 =
. . . , . . . , vn = . . . .
0
1
(3.6)
Un sistema fondamentale di soluzioni del sistema (3.1) potr`a essere quindi scritto della forma
1 (t) = e1 t v1 , . . . , n (t) = en t vn .
Il sistema (3.1) definito da una tale A si dice disaccoppiato, in quanto levoluzione di ciascuna
componente xi del vettore x dipende da xi ma non dipende da nessuna xj con j 6= i. Un sistema di
2
Alcuni concetti e risultati di algebra lineare, di cui faremo uso a questo scopo, sono riportati nellAppendice B
per comodit`
a dello studente
33
questo tipo pu`o anche essere risolto direttamente, integrando separatamente le singole equazioni. Il
sistema fondamentale di soluzioni a cui si perviene per questa via `e ovviamente lo stesso di prima.
Sempre al medesimo risultato si pu`o infine arrivare costruendo la matrice esponenziale. Infatti, `e
immediato verificare che
Ak = diag (k1 , . . . , kn )
per ogni k intero positivo, per cui
etA = diag (e1 t , . . . , en t ) .
3.4
A nilpotente
Se A `e nilpotente, vuol dire che esiste un intero q positivo tale che Ak = 0 per ogni k q. Dunque
la serie che definisce la matrice esponenziale si riduce ad un polinomio e pu`o essere calcolata
elementarmente. Una tipica matrice nilpotente (per cui q = n) `e
0
0
A = ...
0
0
1
0
...
0
0
0
1
...
0
0
...
...
...
...
...
0
0
... .
1
0
(3.7)
Il sistema corrispondente
x 1 = x2
x 2 = x3
...
x n = 0
pu`o anche essere risolto procedendo in cascata (dal basso verso lalto). I due approcci portano,
ovviamente, allo stesso risultato. Un sistema fondamentale di soluzioni pu`o essere scritto nella forma
1 (t) = v1 , 2 (t) = tv1 + v2 , . . . , n (t) =
tn1
v1 + . . . + tvn1 + vn
(n 1)!
(3.8)
dove i vettori v1 , . . . , vn sono, come in (3.6), quelli della base canonica. Daltra parte, il calcolo
diretto della matrice esponenziale, supponendo sempre A nella forma (3.7), mostra che
t2
2!
...
1
..
.
0
0 0
t
..
.
0
0
...
etA = ..
.
...
...
tn1
(n1)!
tn2
(n2)!
..
.
t
1
Osservazione 3.3 Si noti che zero `e lunico autovalore della matrice (3.7); lo spazio proprio corrispondente ha dimensione uno. Inoltre, Av1 = 0 (vale a dire che v1 `e un autovettore di A), Av2 = v1 ,
Av3 = v2 e via di seguito.
34
La formula dellintegrale generale del sistema definito da una matrice del tipo (3.7) si pu`o
scrivere come
(t) = c1 1 (t) + . . . + cn n (t) = d1 + td2 + . . . +
tn1
dn
(n 1)!
dove
c2
cn
0
c3
.
.
d1 =
, d2 = .. , . . . , dn = .. .
0
cn
cn1
0
0
cn
c1
c2
..
.
t2
2!
...
1
..
.
0
0 0
t
..
.
0
0
...
t(In +T )
t .
e
=e .
.
3.5
tn1
(n1)!
tn2
(n2)!
...
...
..
.
t
1
(3.9)
A diagonale a blocchi
M1
0
M = ..
.
0
0
M2
..
.
...
...
0
0
..
.
...
Mk
= diag (M1 , . . . , Mk ) ,
3.6
Equivalenza lineare
35
Immaginiamo il sistema (3.1) come il modello matematico di un processo che si svolge in uno spazio vettoriale reale V di dimensione n nel quale sia stata fissata una base. Ln-pla x = (x1 , . . . , xn )t
di numeri reali rappresenta, in tale base, le componenti dello stato del sistema.
Supponiamo adesso di prendere unaltra base di V , e di indicare con y = (y1 , . . . , yn )t le
componenti dello stato in questa seconda base.
` noto che esiste una matrice non singolare P tale che, per ogni elemento di V ,
E
x = P y.
Vediamo come cambia lequazione (3.1), quando si rappresentano gli stati del sistema rispetto
alla seconda base. Si ha
y = P 1 x = P 1 AP y = By .
(3.10)
Si ottiene dunque ancora un sistema lineare, definito da una matrice simile alla data.
Viceversa, due sistemi del tipo (3.1) definiti da matrici simili possono sempre essere pensati
come uno stesso sistema fisico rappresentato in diversi sistemi di coordinate.
Definizione 3.1 Due sistemi
x = Ax
y = By ,
x Rn , y Rn
(3.11)
Dal punto di vista della rappresentazione delle soluzioni, possiamo quindi lavorare su un qualunque sistema linearmente equivalente al dato, tenendo poi conto della (3.11) per ricondursi alle
coordinate originali.
La nozione di equivalenza lineare, cos` come quella di similitudine tra matrici, si generalizza
immediatamente al caso in cui x Cn . Se A e B sono matrici simili, A `e reale e B contiene elementi
complessi, allora la matrice P che opera il cambiamento di base conterr`
a necessariamente elementi
complessi.
3.7
A diagonalizzabile
` noto che una matrice A di dimensioni n n `e diagonalizzabile (cio`e simile a una matrice diaE
gonale) se e solo se esistono n vettori v1 , . . . , vn linearmente indipendenti ciascuno dei quali `e un
autovettore di A. Si dice che i vettori v1 , . . . , vn costituiscono una base propria di A. In particolare,
A `e diagonalizzabile se ci sono n autovalori distinti.
Indicata con P la matrice le cui colonne sono, ordinatamente, v1 , . . . , vn , si ha
P 1 AP = diag (1 , . . . , n ) = D
36
dove 1 `e lautovalore di A relativo a v1 , 2 `e lautovalore di A relativo a v2 e cos` via (non `e
richiesto che i numeri 1 , . . . , n siano distinti).
Per calcolare etA possiamo prima diagonalizzare A mediante il cambiamento di coordinate
determinato da P , quindi calcolare etD , e infine ritornare alle coordinate originali, facendo uso
della (3.11).
Osservazione 3.5 Se A `e reale ma possiede autovalori complessi, allora P e D avranno elementi
complessi cos` come etD ; tuttavia, si ricordi che, per costruzione, gli elementi di etA devono essere
reali.
Si noti che (t) = P etD `e una matrice fondamentale, per calcolare la quale non `e richiesta
linversione di P ; tuttavia, in generale gli elementi di P etD non sono reali, neanche se A `e reale.
In definitiva, per determinare esplicitamente gli elementi che formano la matrice etA e quindi
lintegrale generale della (3.1) nel caso diagonalizzabile `e sufficiente conoscere gli autovalori di A e
i relativi autovettori.
Esempio 3.1 Consideriamo il sistema
x 1 = x2
x 2 = x1
A=
0 1
1 0
i
, e i , con autovettore
1
i
1
. Due soluzioni
1 (t) = e
it
i
1
sin t
cos t
+i
cos t
sin t
e 2 (t) = e
i t
i
1
sin t
cos t
cos t
sin t
Come si vede, esse sono coniugate. Prendendo parte reale e parte complessa si ottengono due
soluzioni reali linearmente indipendenti
1 (t) =
sin t
cos t
2 (t) =
cos t
sin t
P =
che `e data da
P
1
=
2i
i
1
i
1
1 i
1 i
Si calcola facilmente
D = P 1 AP =
i
0
0 i
37
e
tD
it
e
ei t
Infine,
etA = P etD P 1 =
cos t sin t
sin t cos t
In questo caso, la matrice esponenziale si sarebbe potuta calcolare anche direttamente sulla
base della definizione stessa: si verifica infatti senza difficolt`a che A4 = I2 .
3.8
Forma di Jordan
C1,1
0
J = .
..
0
0
C1,2
..
.
...
...
0
0
..
.
...
Ck,k
dove i blocchi Ci,j sono a loro volta matrici quadrate della forma
Ci,j
i
0
.
.
=
.
..
.
1
i
..
.
..
.
0
1
..
.
..
.
...
...
...
...
0
0
..
.
38
Sezione 3.5, che la strategia illustrata nel caso di una matrice diagonalizzabile pu`o essere estesa
alla situazione presente: si trasforma il sistema dato (3.1) nel sistema
y = Jy
(3.12)
v1,1,0
v1,1,1 . . .
| {z }
autovettore
{z
prima catena
}|
v1,2,0
v1,2,1 . . .
| {z }
autovettore
}|
v1,3,0
v1,3,1 . . . . . .
| {z }
autovettore
{z
}|
seconda catena
{z
terza catena
}|
v2,1,0
autovettore
v2,1,1 . . . . . . . . .
| {z }
{z
prima catena
Linsieme di tutti questi vettori costituisce una base dello spazio, che prende sempre il nome di
base propria. La colonne della matrice P si costruiscono mettendo uno accanto allaltro i vettori
della base propria; con riferimento allo schema precedente,
P = [v1,1,0 v1,1,1 . . . v1,2,0 v1,2,1 . . . v1,3,0 v1,3,1 . . . v2,1,0 v2,1,1 . . .] .
Se si permutano gli indici degli autovalori oppure, per ogni autovalore, lordine degli autovettori
(fermo restando, per ogni autovettore, lordine di generazione di eventuali autovettori generalizzati),
si ottiene unaltra base propria e unaltra forma di Jordan. In questo senso la forma di Jordan non
`e unica.
Una volta costruita una base propria, a condizione di rispettare gli ordini dei vari tipi di indice
come sopra indicato, la forma di Jordan `e automaticamente determinata, e quindi non c`e in realt`a
nessun bisogno di effetture materialmente il cambiamento di coordinate. Per risalire a etA (nelle
coordinate originali), `e tuttavia indispensabile calcolare P 1 . Anche in questo caso, il calcolo di
P 1 pu`o essere risparmiato se ci si accontenta della matrice fondamentale (in generale complessa)
P etJ .
Ricordando in particolare la (3.9), e la procedura illustrata nella Sezione 3.1(Fatto 7), possiamo
riassumere le conclusioni a cui siamo giunti nella proposizione seguente.
Proposizione 3.2 Lelemento generico r,s (t) della matrice etA (r, s = 1, . . . , n) si presenta nella
forma
r,s (t) =
k
X
(r,s )i (t)ei t
i=1
dove ogni termine (r,s )i (t) `e un polinomio (a coefficienti complessi, in generale) di grado inferiore
alla molteplicit`
a algebrica di i , e i `e un autovalore di A (i = 1, . . . , k).
Se A `e una matrice reale, lelemento generico r,s (t) della matrice etA pu`
o essere messo nella
forma
39
r,s (t) =
k
X
(3.13)
i=1
dove (pr,s )i e (qr,s )i sono polinomi a coefficienti reali di grado inferiore alla molteplicit`
a algebrica
di i (nella formula precedente sono naturalmente compresi gli autovalori reali, per i quali i = 0).
3.9
Come applicazione delle conclusioni a cui siamo giunti sulla struttura di etA , vogliamo ora dare una
stima asintotica delle soluzioni della (3.1) (per t +), che ci sar`a molto utile nel seguito.
Lemma 3.1 Per ogni > 0 e ogni intero m N esiste una costante k > 0 tale che tm < ket , per
ogni t 0.
Dimostrazione Per induzione. Se m = 1 si prende k = 1 . Infatti posto
f (t) =
si ha, f (0) =
funzione
et
t
La
e f 0 (t) = et 1 > 0 per t > 0. Supponiamo che il risultato valga per m 1, con k = k.
f (t) = ket tm
`e tale che
f (0) = k
m1
f (t) = ke mt
=m
k t
e tm1
m
>0
mk
.
Sia 0 il massimo delle parti reali i degli autovalori i della matrice A (i = 1, . . . , k) e sia
un numero reale pi`
u grande di 0 :
> 0 i
per ogni
(i = 1, . . . , k) .
k
X
i=1
k
X
(Qr,s )i (t)ei t
i=1
dove (Qr,s )i `e un polinomio i cui coefficienti sono numeri positivi (o nulli), che si ottengono maggiorando i valori assoluti dei coefficienti dei polinomi (pr,s )i (t) e (qr,s )i (t). Anche se non `e essenziale
per quanto segue, osserviamo che il grado di (Qr,s )i `e inferiore alla molteplicit`a algebrica di i .
Sia 0 < < 0 . Per il Lemma
3.1, vi sono costanti
k tali che |r,s (t)| kr,s e(0 +)t kr,s et
qP
qP r,s
2
2 t e, in definitiva,
per tutti i t 0. Dunque ketA k =
r,s r,s (t)
r,s kr,s e
ketA k k0 et
t 0
40
dove k0 `e una nuova costante. Si noti che se tutti gli autovalori con parte reale esattamente uguale
a 0 hanno la molteplicit`a algebrica coincidente con quella geometrica, allora la precedente disuguaglianza vale con 0 al posto di . Infatti, se i `e un autovalore tale che i = Re i = 0 , i
corrispondenti polinomi (pr,s )i (t) e (qr,s )i (t) si riducono a costanti. Dunque il termine (Qr,s )i (t)ei t
pu`o essere maggiorato direttamente, a meno di unopportuna costante, con e0 t , senza bisogno di
utilizzare il Lemma 1. Per quegli autovalori i per cui i = Re i < 0 , si pu`o ricorrere al Lemma 1 con = 0 i . I corrispondenti termini (Qr,s )i (t)ei t potranno quindi essere maggiorati,
sempre a meno di una costante, con ei t et = e0 t . Riassumiamo queste conclusioni nella seguente
proposizione.
Proposizione 3.3 Sia A una matrice a coefficienti reali. Per ogni > 0 , esiste k0 > 0 tale che
ketA k k0 et
t 0 .
(3.14)
t0
(3.15)
3.10
(3.16)
pu`o essere trattata come caso particolare della (3.1). Posto infatti
y = x1 , y 0 = x2 , . . . , y (n1) = xn
si ha
x01 = y 0 = x2
x02 = y 00 = x3
............
x0n
= y (n) = a1 xn . . . an x1
e, in forma vettoriale,
x = Cx
dove si `e posto x = (x1 , . . . , xn )t , e
(3.17)
41
0
0
.
C = ..
0
an
1
0
..
.
0
an1
0 ...
0
1 ...
0
..
..
.
.
.
0 ...
1
. . . . . . a1
(3.18)
Per soluzione della (3.16) si intende, naturalmente, una funzione y(t) : R R dotata di almeno
n derivate continue e soddisfacente la (3.16) identicamene per t R. Non `e difficile rendersi conto
come il problema di determinare lintegrale generale (cio`e linsieme di tutte le soluzioni) della
(3.16) sia equivalente a quello di trovare lintegrale generale del sistema (3.17), e si riduca alla
determinazione di n soluzioni linearmente indipendenti della (3.16).
Matrici che si presentano con la struttura (3.18) si chiamano matrici compagne (companion).
Cos` come la forma di Jordan, anchesse consentono di visualizzare immediatamente un importante
oggetto invariante. Si verifica infatti facilmente per induzione che se C `e una matrice compagna
come in (3.18) allora il suo polinomio caratteristico `e
h
pc () = (1)n n + a1 n1 + . . . + an .
Data una qualunque matrice A, e individuati i coefficienti a1 , . . . , an del suo polinomio caratteristico, possiamo associare ad A una matrice C in forma compagna, in modo che A e C abbiano lo
stesso polinomio caratteristico, e quindi gli stessi autovalori con le stesse molteplicit`a algebriche.
In generale, non `e per`o detto che Ae !C siano simili. Per esempio, la matrice identit`
a ha
n
X
n i
polinomio caratteristico pc () =
(1)i
ma non `e simile alla matrice compagna associata:
i
i=0
la matrice identit`a `e simile solo a se stessa.
La forma compagna dunque non `e una forma canonica rispetto alla relazione di similitudine. In
altre parole, non tutti i sistemi di equazioni in Rn equivalgono ad una equazione scalare di ordine
n.
Ha interesse in se, ma anche in vista di applicazioni future, dare delle condizioni affinche una
data matrice A e la matrice C in forma compagna associata ad A siano simili.
a seguenti sono equivalenti:
Teorema 3.2 Sia A una matrice quadrata n n. Le propriet`
(i) A `e simile ad una matrice compagna;
(ii) rank (A I) = n 1 per ogni autovalore di A;
(iii) la molteplicit`
a geometrica di ogni autovalore di A `e uguale a 1;
(iv) il polinomio caratteristico di A coincide col suo polinomio minimo;
(v) esiste un vettore v 6= 0 tale che gli n vettori
v, Av, A2 v, . . . , An1 v
sono linearmente indipendenti.
42
La dimostrazione completa del Teorema 3.2 si trova per esempio in LaSalle J.,The stability and
control of discrete process, Spinger Verlag, 1986. Si presti principalmente attenzione allequivalenza
tra (i) e (v), di cui avremo bisogno nel seguito e di cui presentiamo una dimostrazione nella prossima
sezione. Un vettore v con la propriet`a enunciata al punto (v) viene detto un vettore ciclico per A.
La propriet`a (iii) del Teorema 3.2 implica in particolare che per ogni autovalore di M vi `e un
unico autovettore in senso proprio e quindi ununica catena di eventuali autovettori generalizzati.
Ne segue allora che lintegrale generale dellequazione (3.16) si ottiene come combinazione lineare
delle n funzioni
e1 t , te1 t , . . . , ti 1 e1 t
......................
ek t , tek t , . . . , tk 1 ek t
essendo 1 , . . . , k le radici distinte dellequazione
n + a1 n1 + . . . + an = 0
(3.19)
e 1 , . . . , k le loro molteplicit`a algebriche. Si noti che il primo membro della (3.19) coincide, a meno
del segno, col polinomio caratteristico pc () della matrice in forma compagna associata alla (3.16).
Per questa ragione, la (3.19) `e chiamata lequazione caratteristica della (3.16). Essa si pu`o scrivere
direttamente, senza bisogno di trasformare lequazione (3.16) nel sistema equivalente, sostituendo
formalmente a y ed interpretando gli ordini di derivazione come potenze.
u in dettaglio il caso dellequazione lineare di ordine 2
Esempio 3.2 Consideriamo un po pi`
y + ay + by = 0 .
(3.20)
Distinguiamo le varie forme che pu`o prendere lintegrale generale y(t), a seconda che lequazione
caratteristica
2 + a + b = 0
(3.21)
abbia soluzioni reali distinte o coincidenti, ovvero soluzioni complesse non reali. Si ha:
y(t) = c1 e1 t + c2 e2 t
(3.22)
(3.23)
(3.24)
La (3.24) si pu`
o ottenere applicando le formule (3.2). In alternativa, un modo semplice e diretto per ottenere la
(3.24) consiste nel partire dalla forma
k1 et + k2 et
43
2
1.5
0.5
0.5
1.5
10
12
14
16
18
20
1.5
0.5
0.5
1.5
10
12
14
16
18
20
(3.25)
dove q
e [0, 2) sono univocamente definiti dalle relazioni c1 = cos , c2 = sin . Le quantit`
a
= c21 + c22 e si chiamano rispettivamente ampiezza e fase della funzione periodica (3.25). Il
reciproco del periodo minimo si chiama frequenza. Si noti che nella (3.25), la frequenza dipende da
che `e analoga alla (3.22), ricordare che ei = et (cos t i sin t) e porre
c1 = k1 + k2
in particolare, c1 e c2 risultano reali se si sceglie k2 = k1 .
c2 = i (k1 k2 ) ;
44
b mentre lampiezza dipende invece dalle condizioni iniziali e rimane costante. In questo caso si ha
cio`e conservazione dellenergia.
3.11
Matrice compagna
In questa sezione dimostreremo che una matrice A `e simile alla matrice in forma compagna associata
se e solo se esiste un vettore ciclico per A, ossia un vettore v 6= 0 tale che i vettori v, Av, . . . , An1 v
costituiscono una base di Rn (equivalenza delle affermazioni (i) e (v) del Teorema 3.2). Cominciamo
col dimostrare un lemma.
Lemma 3.2 Sia C una matrice in forma compagna, e siano 1 , . . . , n i suoi autovalori (eventualmente non distinti). Allora C `e simile ad una matrice della forma
1
0
.
M = ..
0
0
1
2
..
.
0
1
..
.
...
...
0
0
0
0
...
...
0
0
..
.
n1
...
0
0
..
.
(3.26)
(3.27)
e facciamo vedere che con opportune sostituzioni lineari si arriva ad un sistema definito dalla matrice (3.26).
Lenunciato poi segue facilmente. Poniamo
1 = y, 2 = p2,1 y + y 0 , . . . , n = pn,1 y + . . . + pn,n1 y (n2) + y (n1)
dove i coefficienti pi,j sono definiti dalle relazioni
p2,1 y + y 0 = (1 + D)y
p3,1 y + p3,2 y 0 + y 00 = (1 + D)(2 + D)y
.............
pn,1 y + . . . + pn,n1 y (n2) + y (n1) = (1 + D) . . . (n1 + D)y
e D `e loperatore di derivazione. Si ha
45
10
20
n0
Si faccia attenzione a non confondere la (3.26) con la forma di Jordan di C, con la quale
coincide solo nel caso in cui 1 = 2 = . . . = n . In presenza di autovalori distinti infatti, nella
forma di Jordan, sulla diagonale immediatamente superiore a quella principale, devono comparire
necessariamente degli elementi nulli.
Sia P la matrice per cui C = P 1 M P . Allora P ha la forma
p2,1
.
..
0
1
..
.
0
0
..
.
...
...
0
0
..
.
0
0
..
.
.............
z
= a1 y + y 0
n1
zn = y .
Si ha
z10
z0
0
z
46
sistema che corrisponde alla matrice
0 0 . . . 0 an
1 0 . . . 0 an1
C t = .. ..
.
..
...
. .
.
0 0 ... 1
a1
Poiche tutte le sostituzioni eseguite sono lineari e invertibili, abbiamo anche provato che C e
C t sono simili (il che per altro `e vero per qualunque matrice).
Siamo ora pronti per la dimostrazione. Sia dunque A simile alla sua forma compagna C.
Sappiamo dal Lemma 3.2 che A `e anche simile alla matrice (3.26).
Sia w = (0, . . . , 0, 1)t . Il risultato della moltiplicazione M w `e un vettore coincidente con lultima colonna di M . Calcoliamo successivamente M 2 w = M (M w), M 3 = M (M 2 w), . . . e quindi
formiamo una matrice le cui colonne sono costituite dai vettori w, M w, . . . , M n1 w, ordinatamente:
0 0
0 0
.
..
.
.
.
0 0
0 1
1 n
0
0
..
.
1
n + n1
2n
... 1
...
..
...
...
...
dove al posto degli asterischi vi sono certe funzioni di 1 . . . n che non importa specificare. Questa
matrice `e chiaramente non singolare, per cui w, M w, . . . , M n1 w sono linearmente independenti.
Sia ora P la matrice che trasforma A in M , e sia v = P w. Si ha
(w, M w, . . . , M n1 w) = (P 1 P w, P 1 AP w, . . . , P 1 An1 P w) =
= P 1 (v, Av, . . . , An1 v)
da cui segue lasserto. Viceversa, supponiamo vera la condizione (v) del Teorema 3.2, e verifichiamo
che A `e simile a C t (trasposta della forma compagna di A). Sia Q = (v, Av, . . . , An1 v). La verifica
consiste nel far vedere che Q1 AQ = C t o, equivalentemente,
AQ = (Av, A2 v, . . . , An v) = QC t =
0 0 ...
1 0 ...
0 an
0 an1
0 an2
.
..
..
.
.
1
a1
Il calcolo non `e difficile (per lultima colonna utilizzare il Teorema di Cayley-Hamilton). Che
la forma compagna e la sua trasposta sono simili lo sappiamo gi`a, ma possiamo anche procedere
direttamente. Basta infatti osservare che la forma compagna soddisfa la (v) con v = (0, . . . , 0, 1)t .
Ripetendo il calcolo di cui sopra, si ritrova la similitudine asserita. Si conclude, essendo la
similitudine unequivalenza.
Capitolo 4
Stabilit`
a dei sistemi lineari non forzati
In questo capitolo ci occuperemo di sistemi dinamici lineari non forzati
x = Ax
(4.1)
4.1
Posizioni dequilibrio
Le posizioni dequilibrio del sistema (4.1) sono tutte e sole le soluzioni dellequazione Ax = 0.
Quindi il sistema (4.1) ha sempre una posizione dequilibrio per x = 0. Tale posizione dequilibrio
`e unica (quindi isolata) se e solo se det A 6= 0. Altrimenti si ha uninfinit`a di posizioni dequilibrio
(nessuna delle quali isolata), il cui insieme forma un sottospazio di Rn .
Osservazione 4.1 Supponiamo che esista un punto x
6= 0 tale che A
x = 0. Con riferimento al
sistema (4.1), x
`e una posizione dequilibrio stabile se e solo se lorigine `e una posizione dequilibrio
stabile.
Infatti, posto y = x x
, si ha
y = x = Ax = Ax A
x = Ay .
Le deviazioni di x rispetto a x
, ovvero le deviazioni di y rispetto alla posizione y = 0, vengono
quindi determinate dallo stesso sistema di equazioni che determina le deviazioni di x rispetto alla
posizione x = 0.
Osservazione 4.2 Se un punto dequilibrio `e attrattivo per il sistema (4.1), allora deve essere
isolato. Dunque se A `e singolare, non ci sono posizioni dequilibrio attrattive. Pertanto, se il sistema
(4.1) possiede una posizione dequilibrio attrattiva x, allora x
= 0.
Le due osservazioni precedenti portano a concludere che, nello studio della stabilit`a e della
stabilit`a asintotica dei sistemi lineari, non `e restrittivo limitarsi allorigine.
47
48
Osservazione 4.3 Se lorigine `e stabile [rispettivamente, asintoticamente stabile] per il sistema (4.1) allora lorigine `e stabile [rispettivamente, asintoticamente stabile] per tutti i sistemi
linearmente equivalenti a (4.1).
Dimostrazione Sia B = P 1 AP e sia (t) una generica soluzione del sistema y = By. Fissiamo > 0, e
sia 0 = /kP 1 k. Poiche (4.1) `e stabile nellorigine, esiste un 0 > 0 tale che k(0)k < 0 = k(t)k < 0
per ogni t 0 e ogni soluzione (t) di (4.1). Poniamo = 0 /kP k e (t) = P (t). Allora
k(0)k < = k(0)k = kP (0)k kP k k(0)k < 0
da cui
k(t)k = ||P 1 (t)|| kP 1 k k(t)k < .
Infine, supponiamo che limt+ (t) = 0 per una data soluzione di (4.1). Preso > 0 e posto 0 =
/kP 1 k, esiste allora T > 0 tale che
t > T = k(t)k < 0
e di qui segue k(t)k kP 1 k k(t)k < . A questo punto non `e difficile completare il ragionamento.
4.2
Criteri di stabilit`
a
Per i sistemi lineari invarianti nel tempo, lo studio della stabilit`a pu`o essere ricondotto ad un
problema puramente algebrico.
Teorema 4.1 Se tutti gli autovalori di A hanno parte reale negativa allora lorigine `e un punto
dequilibrio globalmente e esponenzialmente stabile per il sistema (4.1).
Viceversa, se lorigine `e un punto dequilibrio (localmente) attrattivo per il sistema (4.1), allora
tutti gli autovalori di A hanno parte reale negativa.
Dimostrazione Supponiamo che gli autovalori di A siano tutti con parte reale negativa. Allora nella (3.15)
si pu`o scegliere e k0 in modo che 0 < < 0. Che lorigine sia globalmente e esponenzialmente attrattiva,
`e una conseguenza immediata. Per quanto riguarda la stabilit`a, facciamo ancora ricorso alla (3.15). Come gi`a
osservato, si pu`o prendere negativo; per t 0, si ha allora et 1. Dunque, per ogni > 0, `e sufficiente
prendere = /k0 .
Supponiamo ora che lorigine sia localmente attrattiva. Esiste dunque un intorno dellorigine con la
propriet`a che tutte le soluzioni corrispondenti ad uno stato iniziale appartenente a tale intorno, devono
tendere a zero per t +. Procediamo per esclusione.
Cominciamo a supporre che vi sia un autovalore con parte reale strettamente positiva.
Se `e reale e se v `e un autovettore corrispondente (ovviamente anchesso reale) allora si ha una soluzione
della forma et v. Si noti che v pu`o essere preso di norma arbitrariamente piccola.
Se invece = + i `e complesso, allora si ha una soluzione della forma
et [(cos t)u + (sin t)w] ,
dove u, w sono certi vettori reali, che possono essere presi di norma arbitrariamente piccola, e > 0. In
entrambi i casi, queste soluzioni sono non limitate per t 0. Ci`o contraddice lipotesi.
49
In modo analogo si esclude la possibilit`a di autovalori con parte reale nulla. In tal caso infatti o = 0,
e allora vi sarebbe una soluzione costante non nulla, oppure `e un numero puramente immaginario, e allora
vi sarebbe una soluzione periodica del tipo (cos t)u + (sin t)w che `e limitata ma non tende a zero.
Dal Teorema 4.1 e dalla sua dimostrazione si deducono altre informazioni, che possono essere
riassunte nel modo seguente.
La condizione che la matrice A abbia tutti i suoi autovalori con parte reale strettamente
negativa `e necessaria e sufficiente affinche lorigine sia un punto dequilibrio asintoticamente
stabile per il sistema lineare (4.1).
Lorigine, se `e localmente attrattiva per il sistema lineare (4.1), allora lo `e anche globalmente
e esponenzialmente.
Per un sistema lineare, se lorigine `e un punto dequilibrio localmente attrattivo, allora `e
anche stabile.
Pu`o invece darsi il caso di un sistema lineare con un punto dequilibrio stabile non attrattivo;
per esempio, x = 0 con x R, le cui soluzioni sono tutte costanti, oppure il sistema dellEsempio
B.1, le cui soluzioni sono tutte periodiche.
Unaltro fatto che si desume dalla dimostrazione del Teorema 4.1 `e che se c`e anche un solo
autovalore di A con parte reale positiva allora lorigine `e instabile. A questo punto, resta solo da
prendere in considerazione il caso in cui tutti gli autovalori di A hanno parte reale non positiva, e
ce n`e almeno uno con parte reale esattamente uguale a zero.
Teorema 4.2 Le seguenti affermazioni sono equivalenti:
(i) Gli autovalori di A hanno tutti parte reale non positiva, e gli eventuali autovalori con parte
reale nulla hanno la molteplicit`
a algebrica coincidente con quella geometrica;
(ii) la matrice esponenziale etA `e limitata in norma per t 0;
(iii) Lorigine `e stabile per il sistema (4.1).
Dimostrazione (i) = (ii) Se gli autovalori di A hanno tutti parte reale non positiva, e se gli eventuali
autovalori con parte reale nulla hanno la molteplicit`a algebrica uguale a quella geometrica, allora possiamo
applicare la (3.14) con = 0 = 0. La conclusione `e immediata.
(ii) = (iii) Se esiste una costante k0 > 0 tale che ||etA || k0 t 0, allora x0 Rn si ha
ketA x0 k k0 kx0 k .
(4.2)
50
dove v1 , v2 , u1 , u2 sono certi vettori reali. Tale soluzione corrisponde alla condizione iniziale = v1 , come
`e facile verificare. Poiche u1 e u2 non possono essere entrambi nulli, la soluzione presenta un andamento
oscillatorio, e lampiezza delle oscillazioni cresce al crescere di t. Abbiamo cio`e identificato una soluzione non
limitata per t 0. Ci`o contraddice lipotesi di stabilit`a.
Il caso = 0 si tratta in modo analogo ed `e lasciato al lettore.
Con ragionamenti del tutto analoghi, si pu`o anche provare la proposizione seguente.
Proposizione 4.1 Le seguenti affermazioni sono equivalenti:
(i) Gli autovalori di A hanno tutti parte reale non positiva, e gli eventuali autovalori con parte
reale nulla hanno la molteplicit`
a algebrica coincidente con quella geometrica;
(ii) tutte le soluzioni del sistema sono limitate per t 0.
4.3
Lequazione di Liapunov
In questa sezione studieremo una diversa caratterizzazione dei sistemi lineari stabili. Ricordiamo
che una matrice P simmetrica e a coefficienti reali si dice:
definita positiva se per ogni 0 6= x Rn si ha xt P x > 0;
semidefinta positiva se xt P x 0 per ogni x Rn .
Se le condizioni richieste si applicano alla matrice P , allora si dice, rispettivamente, che P `e
definita negativa, semidefinita negativa. Si dice infine che P `e indefinita se xt P x assume sia valori
positivi che negativi.
Teorema 4.3 Le seguenti propriet`
a sono equivalenti:
1. gli autovalori della matrice A hanno tutti parte reale strettamente negativa;
2. esiste una matrice reale simmetrica definita positiva P tale che per ogni soluzione non nulla
(t) della (4.1), posto V (x) = xt P x e g(t) = V ((t)), si ha
d
g(t)
= ||(0)||2 ;
dt
t=0
(4.3)
(4.4)
Dimostrazione Supponiamo valida la prima affermazione e dimostriamo la seconda. Indichiamo con pij gli
elementi della matrice P da costruire, e siano
1 (t), . . . , n (t)
tA
51
Z
pij =
0
it (s)j (s)ds .
Ogni pij `e ben definito: infatti, se gli autovalori di A hanno parte reale negativa, tutti gli elementi di etA
tendono a zero esponenzialmente e quindi lintegrale improprio converge.
` chiaro che P `e simmetrica. Se (t)
Dimostriamo che la matrice P cos` costruita ha le propriet`a richieste. E
indica la soluzione corrispondente ad uno stato iniziale x = (x1 , . . . , xn ) Rn , abbiamo la rappresentazione
(t) = etA x =
n
X
i (t)xi .
i=1
Dunque,
V (x) = x P x =
n
X
pij xi xj =
i,j=1
=
0
Z
=
0
i,j=1
n
X
it (s)j (s)ds
xi xj =
!t n
X
i (s)xi
j (s)xj ds =
i=1
+
n
X
t
i (s)j (s) xi xj ds =
i,j=1
n Z
X
j=1
k(s)k2 ds .
Da qui segue subito che V (0) = 0 e V (x) > 0 per ogni x 6= 0. Resta da far vedere la (4.3). Premesso che
Z
V ((t)) =
k(t + s)k2 ds =
k()k2 d
d
V ((t))t=0
dt
=
=
d +
k()k2 d t=0 =
dt t
Supponiamo ora valida la seconda affermazione e dimostriamo la terza. Riprendiamo la funzione V ((t))
introdotta pocanzi e calcoliamone la derivata in un modo diverso. Si ha
d
d
t
V ((t))) =
((t))t P (t) = ((t))
=
dt
dt
t t
t
= ((t)) A P (t) + ((t)) P A(t) .
Valutiamo questa identit`a per t = 0 e poniamo (0) = x. Tenendo conto dellipotesi, si ha
xt [At P + P A]x = xt x
da cui, per larbitrariet`a della soluzione (t) scelta, segue At P + P A = I.
Supponiamo infine valida la terza affermazione e dimostriamo la prima. Sia un autovalore di A, reale
o complesso, e sia Av = v (v 6= 0). Si ha
52
vt v
=
=
vt (At P + P A)v = (A
v )t P v + vt P Av =
t
t
v P v +
+ )
v P v = (
v t P v = 2 vt P v
dove indica la parte reale di . Ora, non `e difficile verificare che se P `e una qualunque matrice reale
simmetrica definita positiva, e se v `e un vettore (reale o complesso) diverso dallorigine, allora vt P v > 0.
Dunque, necessariamente < 0.
La (4.4) pu`o essere interpretata come unequazione nellincognita matriciale P , ed `e infatti nota
come equazione matriciale di Liapunov. Essa equivale ad un sistema lineare di n(n + 1)/2 equazioni
algebriche avente come incognite gli elementi di P ; il Teorema 4.3 stabilisce tra laltro che se gli
autovalori di A hanno tutti parte reale strettamente negativa, allora tale sistema `e risolubile. Pi`
u
precisamente, sotto tale condizione, la (4.4) ammette una e una sola soluzione definita positiva.
Il seguente corollario fornisce una versione generalizzata della (4.4).
Corollario 4.1 Se gli autovalori di A hanno tutti parte reale negativa, allora per ogni matrice reale simmetrica definita positiva Q, esiste una soluzione (reale, simmetrica, definita positiva)
dellequazione
At P + P A = Q .
(4.5)
Se per una data matrice reale simmetrica definita positiva Q, esiste una soluzione (reale,
simmetrica, definita positiva) della (4.5), allora gli autovalori di A hanno tutti parte reale negativa.
Il seguente teorema caratterizza invece la stabilit`a.
Teorema 4.4 Le seguenti propriet`
a sono equivalenti:
1. gli autovalori di A hanno tutti parte reale non positiva, e gli eventuali autovalori con parte
reale nulla hanno la molteplicit`
a algebrica coincidente con quella geometrica;
2. esiste una matrice reale simmetrica definita positiva P tale che la matrice At P + P A `e
semidefinita negativa.
4.4
Il criterio di Routh-Hurwitz
I risultati che abbiamo esaminato in questo capitolo mettono in evidenza limportanza di criteri
che permettono di prevedere il segno delle radici di un polinomio. Gli autovalori di una matrice A
altro non sono infatti che le soluzioni dellequazione algebrica che si ottiene annullando il polinomio
caratteristico. Sia dunque
P () = n + a1 n1 + . . . + an1 + an
un polinomio a coefficienti reali di grado n, monico1 .
1
Monico significa che il coefficiente di grado massimo `e uguale ad 1. Poiche siano interessati alle radici dellequazione
P () = 0, non `e restrittivo assumere che P () sia monico.
53
Proposizione 4.2 Condizione necessaria affinch`e P () abbia tutte le radici con parte reale negativa `e che i coefficienti ai siano tutti maggiori di zero.
Dimostrazione Siano 1 , . . . , k le radici reali (negative) di P () e siano
1 i 1 , . . . , h i h
quelle complesse coniugate, con 1 < 0, . . . , h < 0. Allora deve aversi
P () =
( 1 )1 . . . ( k )k
( (1 + i 1 ))1 ( (1 i 1 ))1 . . . ( (h + i h ))h ( (h i h ))h .
Le coppie di binomi dove compaiono le soluzioni complesse possono essere sostituite da trinomi
2 + p1 + q1 , . . . , 2 + ph + qh
dove, essendo 1 < 0, . . . , h < 0, tutti i coefficienti p1 , . . . , ph , q1 , . . . , qh sono positivi.
Eseguendo la moltiplicazione, di trova che i coefficienti di P () devono essere tutti positivi.
La condizione della Proposizione 4.2 `e certamente anche sufficiente se il grado del polinomio `e
minore o uguale a 2, ma non lo `e in generale. Per esempio, si ha
"
# "
#
1 + i 11
1 i 11
[ + 2] = 3 + 2 + + 6 .
2
2
Esistono vari criteri che permettono di stabilire quando un polinomio ha tutte le radici nel
semipiano {z C : Rez < 0}. Questi vanno genericamente sotto il nome di criteri di Routh e
Hurwitz. Presentiamo, senza dimostrazione, uno di questi criteri, che si basa sul calcolo del segno
dei determinanti di n matrici 1 , 2 , ..., n di ordine rispettivamente uguale a 1, 2, ..., n. Tali matrici
sono costruite a partire dai coefficienti di P (), secondo la seguente procedura. Innanzitutto, per
comodit`a di notazione, poniamo aj = 0 per ogni valore dellindice j > n. Definiamo quindi
1 = a1 ,
2 =
a1
1
a1
3 = 1
0
a1
1
4 =
0
0
a1
1
5 = 0
0
0
a3
a2
a3
a2
a1
1
0
a3
a2
a1
a3
a2
a1
1
a5
a4 ,
a3
a5
a4
a3
a2
a5
a4
a3
a2
a1
a7
a6
,
a5
a4
a7
a6
a5
a4
a3
a9
a8
a7 ,
a6
a5
54
e cos` via, fino allordine n. Osserviamo che nelle righe di posto dispari (la prima, la terza, ecc.)
si dispongono i coefficienti di indice dispari in ordine crescente, mentre nelle righe di posto pari si
dispongono i coefficienti di indice pari, sempre in ordine crescente, incluso il primo che `e uguale ad
1. Gli elementi che compongono le prime due righe si ripetono nelle righe successive ma spostati
ogni volta di una posizione a destra. Le posizioni che si liberano allinizio vengono occupate da zeri
mentre, ad ogni nuova ripetizione, viene eliminato lultimo elemento sulla destra della riga.
Teorema 4.5 Il polinomio P () ha tutte le radici nel semipiano {z C : Rez < 0} se e solo se
tutti i determinanti delle matrici 1 , ..., n costruite come sopra indicato, sono positivi.
Per esempio, nel caso n = 3 la condizione si riduce a
a1 > 0, a3 > 0, a1 a2 a3 > 0 .
Capitolo 5
(5.1)
ove b(t) `e una funzione continua I Rn , e I `e un intervallo di R (per i nostri scopi, i casi
significativi sono I = R oppure I = [0, +)). Elenchiamo alcuni fatti che ci interessano.
Fatto 1. Per ogni istante iniziale t0 I e ogni stato iniziale x0 Rn esiste una e una sola
soluzione x = (t) della (5.1) tale che (t0 ) = x0 ; inoltre, (t) `e definita per ogni t I.
Fatto 2. Se 1 (t), 2 (t) sono soluzioni di (5.1) definite su I, allora 1 (t) 2 (t) `e soluzione del
cosiddetto sistema lineare omogeneo associato
x = Ax .
(5.2)
Fatto 3. Se (t) `e una qualunque soluzione del sistema omogeneo associato (5.2) e se 0 (t) `e una
soluzione del sistema non omogeneo (5.1), allora (t) + 0 (t) `e una soluzione del sistema non
omogeneo (5.1).
Fatto 4. (Principio di sovrapposizione) Se 1 (t) `e una soluzione del sistema (5.1) con b(t) = b1 (t)
e 2 (t) `e una soluzione del sistema (5.1) con b(t) = b2 (t), allora 1 (t) + 2 (t) `e una soluzione
del sistema (5.1) con b(t) = b1 (t) + b2 (t).
Discende dai Fatti 2 e 3 che per determinare linsieme di tutte le soluzioni di (5.1), al quale si
d`a ancora il nome di integrale generale, bisogna conoscere:
(a) una matrice fondamentale (t) della (5.2);
(b) almeno una soluzione particolare della (5.1) stessa.
55
56
Lintegrale generale sar`a allora dato dalla formula
x = (t) = (t)c + 0 (t)
(5.3)
5.1.1
Per quanto riguarda il punto (b), abbiamo il seguente risultato di carattere generale.
Proposizione 5.1 La funzione
0 (t) =
Z t
t0
e(t )A b( ) d
(5.4)
(tt0 )A
x0 +
Z t
t0
(t )A
b( )d = e
(tt0 )A
(x0 +
Z t
t0
e(t0 )A b( )d )
(5.5)
che prende il nome di formula di Lagrange (o formula della variazione delle costanti). Una volta
determinata etA , la difficolt`a della (5.5), sta tutta nel calcolo dellintegrale, e quindi dipende da
b(t).
Osservazione 5.1 Nel seguito, useremo spesso la (5.5) scritta per t0 = 0, e cio`e nella forma
(t) = etA x0 +
Z t
0
e(t )A b( ) d .
(5.6)
La (5.6) ha una interpretazione notevole dal punto di vista fisico. Essa infatti mostra come ogni
soluzione sia la somma di due contributi: il primo dipende dallo stato iniziale ma non dal termine
forzante, mentre il secondo dipende, al contrario, dal termine forzante ma non dallo stato iniziale.
Equazioni come la (5.1) intervengono spesso nelle applicazioni, sia quelle studiate dalla fisica
classica (in cui b(t) si presenta come un termine forzante assegnato), sia quelle considerate nella
teoria dei sistemi (in cui b(t) si interpreta come un ingresso). In ogni caso, `e ragionevole supporre che
b(t) rappresenti un segnale prodotto da un esosistema, cio`e da un sistema esterno, che alimenta il
sistema principale mediante una connessione in serie. Gli esosistemi sono spesso semplici dispositivi
` quindi ragionevole dar importanza al caso in cui
lineari privi di temini forzanti. E
b(t) =
H
X
h=1
Ph (t)eh t
57
dove ogni Ph (t) `e un polinomio a coefficienti vettoriali e h C. In questi casi, come noto, il calcolo
dellintegrale che compare nella (5.5) pu`o essere evitato grazie al principio di sovrapposizione e a
certe regole che permettono di ottenere direttamente una soluzione particolare.
5.1.2
Metodo di somiglianza
Possiamo limitarci al caso in cui b(t) = P (t)et , con P (t) polinomio a coefficienti vettoriali.
Dobbiamo distinguere due casi.
Caso 1: non coincide con alcun autovalore di A. Esiste allora una soluzione particolare di (5.1)
con la seguente struttura: 0 (t) = Q(t)et essendo Q un polinomio a coefficienti vettoriali dello
stesso grado di P .
Caso 2: `e un autovalore di A, di molteplicit`a algebrica 1. Esiste allora una soluzione
particolare di (5.1) con la seguente struttura: 0 (t) = Q(t)et essendo Q un polinomio a coefficienti
vettoriali, di grado deg Q = deg P + : in questo caso si dice che il sistema `e in risonanza.
In entrambi i casi, i coefficienti di Q vanno determinati di volta in volta, imponendo lidentit`
a
0 (t) = A0 (t) + P (t)et . Si noti che, in generale, con questo metodo si ottiene una soluzione
particolare che non coincide con quella suggerita dalla Proposizione 5.1 e della quale non `e possibile
predeterminare il valore iniziale.
Insistiamo sul fatto che le regole esposte valgono anche se `e complesso. Grazie a questa
osservazione e in virt`
u delle formule
ei t ei t
ei t + ei t
,
sin t =
2
2i
il procedimento descritto si estende a termini forzanti del tipo b(t) = P (t) cos t oppure b(t) =
P (t) sin t (essendo sempre P un polinomio a coefficienti vettoriali). Consideriamo per esempio il
caso
cos t =
(5.7)
1 (t) = cei t
e 2 (t) = cei t
per un certo vettore di costanti c Cn . Per il principio di sovrapposizione, una soluzione particolare
del sistema con b(t) dato dalla (5.7) si potr`a allora prendere della forma
0 (t) = cei t + cei t .
Tale soluzione di fatto `e reale, in quanto i due addendi sono coniugati, e si pu`o riscrivere nella
forma
0 = a cos t + b sin t
(5.8)
58
per certe costanti vettoriali a, b Rn .
` importante osservare che la (5.8) `e una soluzione periodica, con la stessa
Osservazione 5.2 E
frequenza del termine forzante (5.7).
Osserviamo anche che nella soluzione (5.8) sono presenti sia la funzione seno che la funzione
coseno, nonostante che nel termine forzante (5.7) compaia solo la funzione coseno.
5.2
Facendo uso della (3.14), possiamo dare una stima asintotica delle soluzioni anche per i sistemi non
omogenei del tipo (5.1).
Proposizione 5.2 Se tutti gli autovalori della matrice A hanno parte reale negativa e se b(t) `e
una funzione limitata sullintervallo [0, +), allora vale la formula
k(t)k k0 kx0 ket + b0 ,
t0,
k0 kx0 ke
+ b0 k0
e(t ) d
=
=
b0 k0
b
k0
0
k0 kx0 ket +
k0 kx0 ket
e(t )
it
0
e 1 .
k0
||
la disuguaglianza precedente
Continuiamo a supporre che tutti gli autovalori della matrice A abbiano parte reale negativa.
Ricorrendo ancora alla (3.14) con negativo, si deduce che
lim ketA x0 k = 0
t+
qualunque sia x0 . Ci`o significa che nella (5.6), per t sufficientemente grande, il termine etA x0 si
pu`o trascurare e la soluzione diventa indipendente dallo stato iniziale. Levoluzione temporale
del sistema si usa pertanto dividere in due stadi: il transitorio (transient) in cui levoluzione risente
visibilmente dellinfluenza dello stato iniziale, e il regime (steady-state) in cui linfluenza dello stato
iniziale `e esaurita, e levoluzione dipende essenzialmente dal termine forzante.
59
Ovviamente questa distinzione non `e rigorosa, in quanto etA x0 non sar`a mai esattamente zero
per quanto grande si prenda t. Essa dipende dai margini di errore consentiti dagli strumenti di
misura e dallaccuratezza richiesta, ma `e tuttavia molto comoda ed espressiva, almeno sul piano
euristico.
Osservazione 5.3 La soluzione a regime deve essere pi`
u precisamente pensata come una soluzione
limite, verso la quale tendono asintoticamente tutte le soluzioni del sistema (5.1) (sempre a
condizione che tutti gli autovalori della matrice A abbiano parte reale strettamente negativa). Tale
soluzione limite `e essa stessa una soluzione del sistema (5.1), ma non `e necessariamente quella che
assume il valore zero al tempo zero, cio`e quella che compare come secondo addendo nella (5.6). In
generale infatti, il secondo addendo della (5.6) potrebbe nascondere ulteriori termini che tendono
a zero per t + e che servono per compensare la differenza tra gli stati iniziali. La soluzione a
regime si trova in maniera naturale quando si procede col metodo di somiglianza.
(5.9)
con la condizione iniziale x(0) = 1. Lintegrale generale dellequazione omogenea associata `e dato
da x = et c, con c costante arbitraria. Ponendo c = 1, si ottiene in particolare la soluzione
dellequazione omogenea associata corrispondente alla stessa condizione iniziale x(0) = 1 richiesta
per la (5.9). La soluzione dellequazione
completa (5.9) si pu`o trovare facendo uso della Proposizione
R
5.1: nella fattispecie si ottiene x = 2 0t e(t ) d = 2 2et . La soluzione cercata si scrive allora,
in accordo con la (5.6),
x = et 2et + 2 .
(5.10)
In alternativa, si pu`o procedere col metodo di somiglianza: in questo modo si trova direttamente
la soluzione di regime x = 2, che risulta costante. Si scrive quindi lintegrale generale della (5.9)
nella forma
x = et c + 2
e imponendo la condizione x(0) = 1, questa volta si ricava c = 1. Come naturale, il risultato cos`
ottenuto coincide con quello fornito dalla (5.10). La Figura 5.1 mostra i grafici dei vari addendi che
compongono la (5.10).
5.3
(5.11)
60
3
2.5
R
2
1.5
N
1
0.5
A
0
0.5
1
1
Figura 5.1: La curva a tratto pi`u marcato rappresenta il grafico della soluzione della (5.9) tale che x(0) = 1;
la curva indicata da A rappresenta il grafico della soluzione dellomogenea associata tale che x(0) = 1; la
curva indicata da R rappresenta il grafico della soluzione di regime; la curva indicata da N rappresenta il
grafico della soluzione della (5.9) tale che x(0) = 0.
0
..
.
b(t) =
.
0
g(t)
Tuttavia, ai fini della determinazione dellintegrale generale, se g(t) = p(t)et , dove C
e p(t) `e un polinomio a coefficienti reali o complessi, conviene operare direttamente sulla (5.11).
Lintegrale generale si presenter`a infatti nella forma
y(t) = y1 (t) + . . . + yn (t) + 0 (t)
dove y1 (t), . . . , yn (t) sono soluzioni linearmente indipendenti dellequazione omogenea associata e
0 (t) `e una soluzione particolare. In conformit`a col metodo di somiglianza, 0 (t) pu`o essere ricercata
della forma:
1. 0 (t) = q(t)et se non `e soluzione dellequazione caratteristica della (5.11);
2. 0 (t) = t q(t)et se `e soluzione con molteplicit`a algebrica dellequazione caratteristica
della (5.11).
In entrambi i casi, q(t) rappresenta un polinomio dello stesso grado di p(t).
Ricordiamo che la soluzione 0 (t) fornita dal metodo di somiglianza non coincide, in generale,
con la soluzione della (5.11) che si annulla per t = 0. La soluzione particolare della (5.11) che si
annulla per t = 0 potrebbe essere trovata trasformando la (5.11) in un sistema (5.1) e applicando
a questultimo la formula di Lagrange. Questa procedura `e per`o artificiosa e complicata dal punto
di vista dei calcoli. Vedremo in seguito un metodo pi`
u diretto.
Se tutte le radici dellequazione caratteristica della (5.11) hanno parte reale strettamente negativa, la soluzione particolare 0 (t) pu`o ancora essere interpretata come soluzione di regime.
61
3
2.5
1.5
0.5
0.5
1.5
10
12
14
16
18
20
Esempio 5.3 Consideriamo lequazione lineare di ordine 2 nella sua forma pi`
u generale
y + ay + by = g(t) .
(5.12)
(5.13)
(5.14)
Attenzione che pi = 0 (i = 1, 2) non implica in generale qi = 0 (si ricordi in proposito lOsservazione 5.2).
62
0 (t) = cos(t + )
(5.15)
Esempio 5.4 Si consideri ancora lequazione (5.12), con lo stesso termine forzante ma questa volta
con a = 0. Se 2 = b allora i `e soluzione dellequazione caratteristica. Si presenta quindi il caso
della risonanza. Lintegrale generale prende la forma
0 (t) = (c1 + tq1 ) cos t + (c2 + tq2 ) sin t .
(5.16)
Capitolo 6
(6.1)
dove u(t) rappresenta lingresso e y(t) luscita. Equazioni del tipo (6.1) modellizzano sistemi fisici di
notevole interesse per le applicazioni: esse hanno giocato un ruolo importante nello sviluppo storico
della teoria dei sistemi, soprattutto ai suoi inizi.
La (6.1) si presenta come unequazione lineare non omogenea. Ne discende in particolare che
per ogni ingresso u() PC([0, +), R) e per ogni assegnazione di condizioni iniziali
y(0) = y0 , y 0 (0) = y1 , . . . , y (n1) (0) = yn1
(6.2)
6.1
Funzione di trasferimento
Con le convenzioni e le notazioni introdotte nellAppendice B, tenendo conto delle (6.2) e facendo
uso della (B.10) si ha:
L[y (n) + a1 y (n1) + . . . + an1 y 0 + an y] = L[u(t)]
cio`e
63
64
(6.3)
dove pc (s) = sn + a1 sn1 + . . . + an coincide (eventualmente a meno del segno) col polinomio
caratteristico della matrice in forma compagna che definisce il sistema differenziale associato alla
(6.1); inoltre
P0 (s) = A0 sn1 + A1 sn2 + . . . + An1
(6.4)
dove
A0 = y0 , A1 = y1 + a1 y0 , . . . , An1 = yn1 + a1 yn2 + . . . + an1 y0 .
Si nota che:
(i) pc (s) non dipende ne dal termine forzante ne dalle condizioni iniziali;
(ii) deg P0 (s) < deg pc (s);
(iii) P0 (s) `e identicamente nullo se e solo se y0 = . . . = yn1 = 0.
Dalla (6.3) si ottiene formalmente
Y (s) =
P0 (s) U (s)
+
pc (s)
pc (s)
(6.5)
che `e ben definita ogni volta che s non `e soluzione dellequazione caratteristica. Poiche le soluzioni
dellequazione caratteristica sono in numero finito, esiste un numero reale 0 tale che la (6.5) vale
nel semipiano {s C : Re s > 0 }.
La (6.5) fornisce in modo puramente algebrico la trasformata di Laplace della soluzione y(t)
cercata. Questultima potr`a essere ora determinata per t 0 applicando la trasformata di Laplace
inversa L1 .
Le seguenti considerazioni mettono in luce la stretta analogia tra la struttura della (6.5) e quella
della (5.6). Il primo addendo contiene infatti le informazioni relative ai dati iniziali ed `e quello che
si avrebbe se si dovesse risolvere lomogenea associata alla (6.1) con gli stessi dati iniziali. Esso si
presenta come una funzione razionale propria: una volta effettuato lo sviluppo in fratti semplici,
lapplicazione di L1 non presta difficolt`a.
65
Osservazione 6.1 Si ritrovano naturalmente, per questa via, le conclusioni gi`a note sulla forma
dellintegrale generale dellequazione differenziale lineare omogenea a coefficienti costanti
y (n) + a1 y (n1) + . . . + an1 y 0 + an y = 0 .
(6.6)
Lantitrasformata della funzioni razionale P0 (s)/pc (s) `e infatti costituita dalla somma di funzioni
del tipo q1 (t)et cos t e q2 (t)et sin t dove q1 (t), q2 (t) sono polinomi di grado inferiore ad n i cui
coefficienti dipendono dalle condizioni iniziali. In particolare, nel caso in cui le radici dellequazione
caratteristica della (6.6) abbiano tutte parte reale strettamente negativa, tutte le soluzioni (e le
loro derivate) tenderanno a zero per t + e il sistema definito dalla (6.1) risulter`a internamente
stabile.
Il secondo addendo della (6.5) dipende dal termine forzante ed `e quello che si avrebbe se si
dovesse risolvere la (6.1) con condizioni iniziali nulle (invece che con le condizioni (6.2)). Esso si
presenta sotto la forma di un prodotto H(s)U (s), dove la funzione H(s) = 1/pc (s) (definita nel
semipiano {s C : Re s > 0 }) prende il nome di funzione di trasferimento. Se indichiamo con h(t)
la funzione che vale identicamente zero per t < 0 e coincide con la trasformata di Laplace inversa di
H(s) per t 0, la soluzione della (6.1) corrispondente alle condizioni iniziali y0 = . . . = yn1 = 0
verr`a allora rappresentata (si ricordi la (B.12) dellAppendice B) mediante la formula
y(t) =
Z t
0
h(t )u( ) d
per t 0 .
(6.7)
Se si accetta inoltre la convenzione che gli ingressi siano nulli per t < 0, si riconosce allora nella
h(t) la funzione della risposta impulsiva relativa al sistema definito dalla (6.1).
Osservazione 6.2 La (6.7) estende il metodo della variazione delle costanti alle equazioni differenziali lineari di ordine arbitrario.
Esempio 6.1 Si voglia risolvere lequazione differenziale lineare del secondo ordine
y 00 + 3y 0 + 2y = 1
(6.8)
con le condizioni iniziali y(0) = 1, y 0 (0) = 0. Applichiamo ad entrambi i membri di (6.8) loperatore
L. Si ha
Y (s) =
s+3
1
s2 + 3s + 1
1
+
=
=
2
2
s + 3s + 2 s(s + 3s + 2)
s(s + 2)(s + 1)
2
1
1
2
+
s s+2 s+1
66
Possiamo ora applicare L1 , in quanto siamo pervenuti ad una somma di trasformate di funzioni
elementari note. Si ottiene
y(t) =
1
1 e2t + 2et
2
per t 0. Si riconosce in questultima espressione la somma di una soluzione particolare della (6.8)
e di una soluzione particolare dellomogenea associata.
Conviene soffermarsi un momento a riflettere sulle varie fasi dei calcoli svolti. In particolare,
osserviamo che Y (s) si era ottenuto prima come somma di due addendi: si `e quindi passati ad
ununica espressione razionale e si `e infine eseguita la decomposizione in fratti semplici. Questo
modo di procedere `e in generale il pi`
u conveniente dal punto di vista della rapidit`a di esecuzione
dei calcoli. Pu`o essere tuttavia istruttivo eseguire i calcoli in modo diverso, e cio`e mantenendo
separati il termine che contiene le informazioni sulle condizioni iniziali da quello che contiene le
informazioni sul termine forzante. Si ha:
Y (s) =
1
2
+
s+2 s+1
1
2
1
1
2
+
s s+2 s+1
da cui
y(t) = e
2t
+ 2e
2t
2e
1
+
2
Risulta ora facilmente leggibile la composizione di y(t). La prima parentesi corrisponde alla
soluzione che si sarebbe avuta in assenza del termine forzante (cio`e, la soluzione dellequazione
omogenea associata) con le stesse condizioni iniziali. Poiche le radici dellequazione caratteristica
sono negative, questa parte si esaurisce nel transitorio.
La parentesi quadra rappresenta la soluzione che si sarebbe avuta imponendo condizioni iniziali
nulle. Questa si compone di una parte costante, che coincide con la soluzione di regime, e di alcuni
termini che sono destinati anchessi ad esaurirsi nel transitorio. Come gi`a sappiamo, la presenza di
questi termini `e dovuta alla necessit`a di compensare i valori iniziali della soluzione di regime che
in questo caso, come in generale, non sono nulli.
Quando il termine forzante non `e una semplice costante, entrano in gioco polinomi di grado
superiore da fattorizzare. Per esempio se il termine forzante fosse uguale a sin t, allora si perviene
a:
Y (s) =
=
s+3
1
+
=
(s + 2)(s + 1) (s + 2)(s + 1)(s2 + 1)
s2 + 3s2 + s + 4
1
12
25
1 3s
=
+
+
(s + 2)(s + 1)(s2 + 1)
10 s + 2 s + 1 s2 + 1
e quindi
y(t) =
1
12e2t + 25et + sin t 3 cos t .
10
67
6.2
(6.9)
sotto lipotesi che lequazione caratteristica pc (s) = 0 abbia tutte le radici con parte reale negativa.
Come noto, sotto queste condizioni la soluzione di regime `e periodica, con la stessa frequenza del
termine forzante (6.9). Nel Capitolo 5 (Esempio 5.3) abbiamo gi`a svolto alcune considerazioni relativamente al caso di unequazioni del secondo ordine. Il metodo illustrato in questo capitolo basato
sulluso della trasformata di Laplace consente di ottenere ancora altre informazioni. In particolare, esso fornisce uno strumento di rapida e semplice applicazione per determinare i parametri del
sistema e del segnale in ingresso in modo che il segnale in uscita abbia ampiezza e fase prescritte.
Questo tipo di problema va sotto il nome di analisi della risposta in frequenza. La (6.5) diventa
Y (s) =
P0 (s)
1 p1 s + p2
.
+
pc (s)
pc (s) s2 + 2
Poiche, come abbiamo supposto, tutte le radici dellequazione pc (s) = 0 si trovano nel semipiano
negativo del piano complesso, si avr`a pc (i ) 6= 0; di conseguenza pc (s) non `e divisibile per s2 + 2 .
Possiamo riscrivere il secondo membro come
Y (s) =
P0 (s) P (s) q1 s + q2
+
+ 2
pc (s)
pc (s)
s + 2
(6.10)
Questultima mostra in particolare che deg P < deg pc . Poiche < 0, possiamo ripetere a
proposito del termine P (s)/pc (s) il ragionamento dellOsservazione 6.1. In definitiva, i contributi
dei termini P0 (s)/pc (s) e P (s)/pc (s) sono destinati ad esaurirsi nel transitorio, e la risposta a regime
dipende essenzialmente dal terzo addendo (q1 s + q2 )/(s2 + 2 ), la cui antitrasformata `e data da
q1 s + q2
q2
= q1 cos t + sin t = k sin(t + )
2
2
s +
(p2 + i p1 ) ,
pc (i )
68
da cui q2 = Re [ pc (i ) (p2 + i p1 )] e q1 = Im [ pc (i1 ) (p2 + i p1 )]. Alternativamente, si possono ricavare
p1 e p2 in funzione dei valori desiderati per q1 e q2 .
6.3
Analizziamo adesso il comportamento del sistema definito dalla (6.1) dal punto di vista della
stabilit`a esterna, nel senso della Definizione 1.3.
Teorema 6.1 Il sistema descritto dallequazione (6.1) `e BIBO-stabile se e solo se le soluzioni
dellequazione caratteristica del sistema non forzato (6.6) hanno tutte parte reale strettamente
negativa.
Dimostrazione Per semplicit`a, limitiamo la dimostrazione alla parte sufficiente, per il caso di un sistema
definito da unequazione differenziale di ordine 2, la cui equazione caratteristica abbia radici reali distinte.
In tal caso, posto pc (s) = s2 + a1 s + a2 = (s s2 )(s s1 ), la (6.5) si riscrive
Y (s) =
P0 (s)
U (s)
1
1
+
=
(6.11)
Come abbiamo gi`a detto (Osservazione 6.1) se s1 e s2 sono entrambe strettamente negative il sistema `e
internamente stabile: il contributo del primo addendo della (6.11) `e allora sicuramente limitato per t 0.
Possiamo quindi concentrarci sul secondo addendo. Esso si pu`o riscrivere nella forma
1
U (s)
U (s)
.
s2 s1 s s2
s s1
La sua antitrasformata `e uguale a
Z t
Z t
Z t
1
s2 (t )
s1 (t )
e
u( ) d
e
u( ) d =
h(t )u( ) d
s2 s1
0
0
0
avendo posto
h() =
Z
1
es2 (t ) es1 (t ) =
es2 (r) es1 r dr .
s2 s1
0
A questo punto `e facile concludere che anche il contributo del secondo addendo rimane limitato per t 0,
se lingresso u(t) `e limitato.
Osservazione 6.3 Se si assume che il sistema sia inizializzato a zero, la (6.11) si riduce a
1
1
y = s2 y + v
v = s1 v + u .
Z t
0
e(t)s2 v() d
v=
Z t
0
e(t )s1 u( ) d .
69
Combinando insieme le due espressioni, si ha
y=
Z t
0
(t)s2
0
( )s1
u( ) d
d .
Z t Z t
0
dr u( ) d
Z
0
e(r)s2 ers1 dr
gi`a impiegata nella dimostrazione precedente, la funzione della risposta impulsiva del nostro sistema.
Questo ragionamento, opportunamente generalizzato, fornisce una rappresentazione della funzione della risposta impulsiva per sistemi del tipo (6.1) di ordine arbitrario.
Osservazione 6.4 Segue dallOsservazione 6.1 e dal Teorema 6.1 che per un sistema definito
dallequazione (6.1) stabilit`a interna e stabilit`a esterna sono propriet`a equivalenti.
70
Capitolo 7
x = Ax + Bu
y = Cx
(7.1)
7.1
Insiemi raggiungibili
(7.2)
ha, per ogni ingresso ammissibile u(t) e per ogni stato iniziale x(0) = x0 , ununica soluzione, definita
per t 0, che indicheremo con x(t, x0 , u()).
Il sistema (7.2) si pu`o pensare come un sistema di equazioni lineari non omogeneo, con termine
forzante b(t) = Bu(t). Pertanto,
x(t, x0 , u()) = etA (x0 +
Z t
0
e A Bu( ) d ) .
(7.3)
Come abbiamo gi`a osservato (si veda il Capitolo 5), la (7.3) si decompone come la somma di
x(t, x0 , 0) = etA x0
71
(7.4)
72
che si dice anche la soluzione libera (o non forzata) del sistema in quanto corrisponde allingresso
u = 0, e la
x(t, 0, u()) =
Z t
0
e(t )A Bu( )d
(7.5)
che rappresenta la soluzione corrispondente allo stesso ingresso ma con stato iniziale nullo.
La Proposizione 2.1 ha un analogo in questo contesto.
Proposizione 7.1 Per ogni coppia di numeri reali t, s [0, +), per ogni ingresso ammissibile
u() : [0, +) Rm , per ogni stato iniziale x0 , si ha
x(0, x0 , u()) = x0
e
x(t + s, x0 , u()) = x(t, x(s, x0 , u()), w())
dove si `e posto w( ) = u( + s) per [0, +).
(7.6)
73
Dimostrazione Sia x1 un punto qualunque di Rn . Se il sistema `e globalmente raggiungibile al tempo T da
un certo x0 , esister`a in particolare un ingresso u(t) tale che
Z
x1 + eT A x0 = eT A x0 +
e(T )A Bu( ) d .
Semplificando, si ottiene
Z
x1 =
e(T )A Bu( ) d
e(T )A Bu( ) d
cio`e
Z
x1 = eT A x0 +
e(T )A Bu( ) d
7.1.1
Z t
a
(7.7)
`e lineare.
Dimostrazione La verifica segue immediatamente dalle ben note propriet`a di linearit`a dellintegrale. Se
b, Rm ) e , R, anche u1 + u2 C(a,
b, Rm ) e
u1 , u2 C(a,
Z t
Z t
Z t
e(t )A B(u1 ( ) + u2 ( )) d =
e(t )A Bu1 ( ) d +
e(t )A Bu2 ( ) d .
a
Fissiamo ora T 0. La (7.7) si pu`o reinterpretare come unapplicazione che associa ad ogni
T, Rm ) lelemento di Rn
funzione u() C(0,
x = (u()) = x(T, 0, u()) =
Z T
0
e(T )A Bu( ) d Rn .
(7.8)
74
T, Rm ) Rn `e lineare.
Corollario 7.1 Lapplicazione : C(0,
Corollario 7.2 Per ogni T > 0 fissato, linsieme R(T, 0) `e un sottospazio vettoriale di Rn . Per
ogni T > 0 e per ogni x0 6= 0, linsieme R(T, x0 ) `e una sottovariet`
a lineare di Rn .
Dimostrazione Per ogni fissato T > 0, linsieme R(T, 0) coincide con limmagine delloperatore e ci`o
prova che `e un sottospazio vettoriale di Rn . La seconda affermazione segue dallosservazione che R(T, x0 ) si
ottiene traslando R(T, 0) mediante il vettore v = eT A x0 .
In base a queste conclusioni, `e naturale assumere come misura della grandezza dellinsieme
R(T, x0 ) la sua dimensione, in quanto sottovariet`
a lineare di Rn .
Corollario 7.3 Il sistema (7.1) `e globalmente raggiungibile al tempo T se e solo se R(T, 0) = Rn ,
cio`e se e solo se la dimensione di R(T, 0) `e massima.
7.1.2
Linearit`
a delloperatore ingresso-uscita
Sulla base dei risultati precedenti, siamo a questo punto in grado di dimostrare la Proposizione
1.10. Dalla (7.3), per ogni ingresso ammissibile u(t) : [0, +) Rm e ogni stato iniziale x0 , si
deduce una rappresentazione per la funzione di uscita del sistema (7.1)
tA
Z t
0
e A Bu( ) d ) .
(7.9)
(7.10)
Dimostrazione della Proposizione 1.10 Per il Teorema 7.1, lapplicazione che associa ad ogni u()
T, Rm ) la funzione x(t, 0, u()) `e lineare. Quindi anche lapplicazione che associa ad u() la funzione
C(0,
y(t, 0, u()) = Cx(t, 0, u()) `e lineare. Daltra parte pure lapplicazione che associa x0 alla funzione y(t, x0 , 0) =
CetA x0 `e lineare. Per concludere, basta tener presente la (7.10) e osservare che se f1 : V1 W , f2 : V2 W
sono applicazioni lineari, allora f1 + f2 : V1 V2 W `e unapplicazione lineare.
7.1.3
Il seguente teorema fornisce una prima condizione necessaria e sufficiente per la raggiungibilit`a
globale di un sistema lineare senza vincoli sui controlli.
Teorema 7.2 Il sistema (7.1) `e globalmente raggiungibile al tempo T > 0 se e solo se la matrice
(T ) =
`e non singolare.
Z T
0
e A BB t e A d
75
Dimostrazione Prima facciamo vedere che se (T ) `e non singolare, allora per ogni coppia di stati x0 , z0 Rn
esiste un controllo u(t) per cui vale la (7.6). Si ponga
t
u( ) = B t e A 1 (T )[x0 eT A z0 ]
(7.11)
e si calcoli
Z
eT A x0
+
0
e(T )A Bu( ) d =
"Z
T
= eT A x0 eT A
#
t
e A BB t e A d 1 (T )[x0 eT A z0 ] =
(7.12)
= eT A x0 eT A (T )1 (T )[x0 eT A z0 ] = eT A x0 eT A x0 + z0 .
In definitiva,
Z
TA
e(T )A Bu( ) d = z0 .
x0 +
0
(T ) =
||B t e A ||2 d
(7.13)
`e, in generale, semidefinita positiva. Supponiamo ora che (T ) sia singolare: esister`a allora un punto x0 Rn
(x0 6= 0) tale che xt0 (T )x0 = 0.
t
Tenendo conto di (7.13), si dovrebbe avere B t e A x0 = 0 identicamente per ogni s [0, T ]. Lipotesi
di raggiungibilit`a globale implica che partendo da x0 si possa raggiungere lorigine al tempo T : ovvero,
Z
e
TA
x0 =
e(T )A Bu( ) d
(7.14)
x0 =
e A Bu( ) d
e quindi
Z
||x0 ||2 = xt0 x0 = xt0
T
0
e A Bu( ) d =
ut ( )B t e A x0 d = 0
mentre x0 era stato scelto diverso da zero. Lasserto `e cos` provato per assurdo.
Osservazione 7.1 La (7.11) fornisce una risposta (teorica) al problema di determinare il controllo
che permette di trasferire il sistema dallo stato x0 allo stato z0 .
76
7.1.4
Matrice di controllabilit`
a
Il criterio offerto dal Teorema 7.2 ci sar`a utile nei successivi sviluppi teorici, ma `e chiaramente di
scarsa utilit`a pratica. Il criterio che andiamo a dimostrare in questa sezione costituisce, da questo
punto di vista, un risultato migliore, perch`e pu`o essere verificato eseguendo semplici calcoli algebrici
a partire dalle matrici A e B che definiscono il sistema.
Teorema 7.3 Per il sistema (7.1) linsieme R(T, 0) `e indipendente da T . Si ha infatti, per ogni
T > 0,
n
(7.15)
0 = h,
Z
e(T )A Bu( ) d i =
Z
h, e(T )A Bu( )i d =
h, eA Bu(T )i d .
(7.16)
(0, T )
u Rm .
(7.17)
diciamo h, eA B u
i > 0). Per il principio della permanenza del segno, esisterebbe allora un > 0 tale che
( , + ) (0, T ) e la funzione
7 h, eA B u
i
potremmo dunque definire
si manterrebbe positiva per < < + . Posto = T ,
n
u
per < < +
u( ) =
0 altrimenti .
Allora,
(7.18)
(7.19)
Dunque,
Z
T
0
Z
h, eA Bu(T )i d =
h, eA B u
i d > 0
in contraddizione con la (7.16). Dunque la (7.17) `e vera. Passando al limite per 0+ , si ottiene
h, Bui = 0
u Rm .
1
0
0
...
1
m
Scegliendo successivamente u =
... , . . . , u = 0 , questultima mostra che `e ortogonale a b , . . . b .
0
1
Inoltre, derivando la (7.17) rispetto a , si ha
77
h, eA ABui = 0
(0, T )
u Rm
n1
X
i=0
n1
X
X i
X
i Ai
i Ai
i
Bui + h,
Bui =
h, Ai Bui +
h, Ai Bui .
i!
i!
i!
i!
i=n
i=0
i=n
I termini della prima sommatoria sono tutti nulli, ma anche quelli della seconda lo sono in quanto, per il
Teorema di Cayley-Hamilton, per ogni i n, il vettore Ai Bu `e combinazione lineare degli Ai Bu con i < n.
In conclusione, h, eA Bui = 0, [0, T ] e u Rm . Ma allora anche
Z
h,
e(T )A Bu( )d i = 0
(7.20)
dove [B|AB| . . . |An1 B] indica la matrice con n righe e n m colonne che si ottiene scrivendo una
accanto allaltra, nellordine, le colonne delle matrici B, AB, ... , An1 B.
La matrice [B|AB| . . . |An1 B] prende anche il nome di matrice di controllabilit`
a o matrice di
Kalman del sistema (7.1). Il seguente Corollario `e conseguenza immediata del Teorema 7.3.
Corollario 7.4 Il sistema (7.1) `e completamente controllabile se e solo se `e globalmente raggiungibile per qualche (e quindi per ogni) T > 0.
Osservazione 7.2 Affermare che certi vettori v1 , . . . , vn di Rn sono linearmente indipendenti equivale ad affermare che det [v1 | . . . |vn ] 6= 0. Poiche il determinate dipende in maniera continua dai
coefficienti, se si sostituisce v1 , . . . , vn con altri vettori v1 , . . . , vn tali che vk sia sufficientemene
vicino a vk (k = 1, . . . , n), allora anche i vettori v1 , . . . , vn sono linearmente indipendenti.
Da questa osservazione, segue facilmente che se il sistema (7.1) `e completamente controllabile
B
sono matrici tali che A sia sufficientemente vicina ad A e B
sia sufficientemente vicina
e se A,
B
`e completamente controllabile.
ad B, allora anche il sistema definito dalle matrici A,
78
Si pu`o anche dimostrare che se il sistema (7.1) non `e completamente controllabile, allora esiste
B
arbitrariamente vicine ad A, B e tali che il sistema definito da A,
B
`e
una coppia di matrici A,
completamente controllabile.
In altre parole, possiamo affermare che genericamente i sistemi del tipo (7.1) sono completamente controllabili, nel senso che:
1. perturbazioni arbitrarie ma piccole dei coefficienti non fanno perdere la propriet`a di completa
controllabilit`a;
2. la propriet`a di completa controllabilit`a pu`o essere acquisita mendiante perturbazioni piccole
ma opportune dei coefficienti.
(7.21)
Interpretando u come ingresso e y come uscita, questa equazione definisce un sistema SISO che pu`o
equivalentemente essere riscritto come un sistema (7.1) con A in forma compagna,
..
.
b=
0
1
e C ridotta alla riga (1 0 . . . 0). La variabile di stato di questo sistema coincide col vettore x =
(y, y 0 , . . . , y (n1) ).
Si verifica facilmente che il sistema definito dalla (7.21) `e completamente controllabile, qualunque siano i coefficienti a1 , . . . , an .
7.1.5
Il criterio di Hautus
rank [A I|B] = n .
(7.22)
Prima di procedere alla dimostrazione, osserviamo che la (7.22) `e certamente verificata se non
`e un autovalore di A. Ricordiamo inoltre che un sottospazio V di Rn si dice invariante per A se
AV V .
79
Lemma 7.1 Se V `e un sottospazio invariante per A, allora esiste un autovettore v 6= 0 di A
contenuto in V .
Dimostrazione Sia q = dim V e sia v1 , . . . , vn una base di Rn , tale che i suoi primi q vettori v1 , . . . , vq
costituiscano una base di V . Con riferimento a questa base, la matrice A deve assumere la forma
A11 A12
0
A22
in forza dellipotesi di invarianza. Loperatore da V in V definito dalla matrice A11 avr`a un autovettore della
forma 1 v1 + . . . + k vk = w V corrispondente a qualche autovalore . Non `e difficile verificare che w `e
anche un autovettore di A corrispondente a .
Dimostrazione del Teorema 7.4 Dimostriamo ora che la (7.20) implica la (7.22). Supponiamo, per assurdo, che per qualche C, le righe della matrice [A I|B] (che sono in numero di n) possano essere
linearmente dipendenti. Esisterebbe un vettore Cn ( 6= 0) tale che
t A = t
t B = 0 .
In particolare, la funzione
(t) = et t B = (et )t B = t B + t t B +
2 t2 t
B + ...
2
ecc.
si ottiene, in definitiva,
t B = t AB = t A2 B = . . . = 0 .
Ci`o implica che le n righe della matrice [B|AB| . . . |An1 B] sono linearmente dipendenti, e dunque il suo
rango non `e uguale ad n.
Facciamo infine vedere che la (7.22) implica la (7.20). Per il Teorema di Cayley-Hamilton, se la (7.20)
non valesse, allora le righe di tutte le matrici della forma Aj B (j = 0, 1, . . .) apparterrebbero ad uno stesso
sottospazio proprio di Cn . Esisterebbe cio`e un vettore v 6= 0 tale che
v t B = v t AB = v t A2 B = . . . = 0 .
(7.23)
Posto w = A v, si ha
wt B = (At v)t B = v t AB = 0 ,
wt AB = (At v)t AB = v t A2 B = 0 ,
ecc.
Indicato con V il sottospazio di C costituito da tutti i vettori v per cui vale la (7.23), abbiamo cos`
provato che se v V , anche w = At v V , e cio`e che V `e invariante rispetto alloperatore lineare associato
alla matrice At . Per il Lemma 7.1, deve allora esistere un vettore non nullo V ed un numero complesso
C tale che
At =
ovvero
t A = t .
80
7.2
Osservabilit`
a
Lo studio delle propriet`a di osservabilit`a interessa i sistemi dinamici, nella cui modellizzazione si
vuole distinguere tra variabili di stato e variabili di uscita. Il ruolo della funzione di osservazione
diventa cruciale, e si pongono nuovi problemi.
Definizione 7.4 Due punti x
, z Rn si dicono indistinguibili al tempo T se per ogni ingresso
ammissibile u() : [0, T ] U si ha
y(t, x
, u()) = y(t, z, u())
t [0, T ] .
La precedente definizione si interpreta nel modo seguente: che lo stato iniziale sia x o z, la
risposta del sistema `e sempre la stessa, qualunque sia la sollecitazione u() applicata in ingresso. In
altre parole, non `e possibile ricostruire lo stato iniziale sulla base di esperimenti che si limitino a
registrare luscita in corrispondenza di un ingresso arbitrario.
Esempio 7.1 Si consideri il sistema
x 1 = x1 + u
x 2 = x2
Z t
0
es u(s)ds) ,
x2 = aet .
7.2.1
Ci interessano in maniera particolare i processi lineari che sono privi di stati indistinguibili. Osserviamo prima di tutto che nella Definizione 7.4 la funzione di ingresso gioca un ruolo del tutto
marginale.
Proposizione 7.3 Due punti x
e z sono indistinguibili per il sistema (7.1) se e solo sono indistinguibili per il sistema
x = Ax
y = Cx .
(7.24)
Dimostrazione Se x
e z sono indistinguibili al tempo T per il sistema (7.1), allora, per ogni u()
T, Rm ) e ogni t [0, T ] si ha
C(0,
y(t, x
, u()) = y(t, z, u())
cio`e
Z
C[etA (
x+
0
Z
e A Bu( ) d )] = C[etA (
z+
0
e A Bu( ) d )] .
81
Semplificando, rimane lidentit`a
CetA x
= CetA z
per ogni t [0, T ]. Ci`o significa appunto che x
e z sono indistinguibili rispetto al sistema (7.24).
Il viceversa si prova eseguendo i passaggi al contrario.
Inoltre, per caratterizzare gli stati indistinguibili da un generico x Rn , `e sufficiente caratterizzare gli stati indistinguibili dallorigine.
Proposizione 7.4 Se x
, z sono indistinguibili al tempo T > 0, allora = x
z `e indistinguibile
dallorigine. Viceversa, se `e indistinguibile dallorigine al tempo T e se x `e un generico vettore
di Rn , allora x e x + sono tra loro indistinguibili.
Dimostrazione Grazie alla Proposizione 7.3, possiamo riferire la definizione di indistinguibilit`a al sistema
(7.24). Dire che x
e z sono indistinguibili al tempo T , significa allora che
CetA x
= CetA z
per ogni t [0, T ]. Questultima si pu`o riscrivere come
CetA (
zx
) = 0 = CetA 0
per ogni t [0, T ]. Lasserto segue ponendo = x
z.
Viceversa, se `e indistinguibile dallorigine (e quindi CetA = 0 per ogni t [0, T ]), qualunque sia
x Rn possiamo scrivere
CetA ( + x) = CetA + CetA x = CetA x
per ogni t [0, T ]. Ci`o significa che + x e x sono indistinguibili al tempo T per il sistema (7.24), e quindi
anche per il sistema (7.1).
Un primo passo verso la caratterizzazione degli stati indistinguibili dallorigine `e costituito dal
seguente teorema.
Teorema 7.5 Le seguenti affermazioni sono equivalenti:
(i) `e indistinguibile dallorigine al tempo T per il sistema (7.1);
(ii) ker CetA , t [0, T ];
(iii) luscita del sistema (7.1) relativa allingresso nullo u(t) 0 e allo stato iniziale `e nulla su
[0, T ].
Dimostrazione Lequivalenza tra (i) e (ii) segue subito dalla Proposizione 7.3. Lequivalenza tra (ii) e (iii)
`e immediata.
82
7.2.2
Matrice di osservabilit`
a
Dal Teorema 7.5(ii) si deduce che linsieme N(T, 0) degli stati indistinguibili dallorigine al tempo
T coincide con lintersezione
t[0,T ] ker CetA .
Ma t[0,T ] ker CetA `e un sottospazio di Rn . Dunque N(T, 0) `e un sottospazio di Rn , al quale si
d`a anche il nome di spazio di non-osservabilit`
a. Consideriamo ora le matrici
C t , At C t , . . . , (At )n1 C t
e interpretiamo le loro colonne come vettori di Rn . Sia V Rn lo spazio generato da tali vettori.
Teorema 7.6 Per il sistema (7.1), lo spazio di non-osservabilit`
a N(T, 0) `e indipendente da T . Si
ha infatti, per ogni T > 0, N(T, 0) = V .
` simile a quella del Teorema 7.3. Sia v N(T, 0). Allora, [0, T ] e Rp
Dimostrazione E
hCeA v, i = 0
ovvero
t
hv, eA C t i = 0 .
Per = 0, segue hv, C t i = 0 e, per larbitrariet`a di , v `e ortogonale a tutte le colonne di C t . Si
prosegue derivando rispetto a e calcolando le successive derivate sempre per = 0.
Viceversa, se v V , allora per ogni Rp
hv, C t i = . . . = hv, (At )n1 C t i = 0
t
e da queste segue hv, eA C t i = 0 per ogni usando, come nel Teorema 7.3, lo sviluppo in serie dellesponenziale e il Teorema di Cayley-Hamilton. Infine,
hCeA v, i = 0
(7.25)
Corollario 7.5 Il sistema (7.1) `e completamente osservabile se e solo se per ogni coppia di stati
indistinguibili x
, z si ha x
= z, ovvero se N = {0}.
Osservazione 7.4 Ne laffermazione (ii) del Teorema 7.5 ne la condizione (7.25) dipendono dalla
matrice B. Ci`o non `e sorprendente, se si tiene conto della Proposizione 7.3.
83
Osservazione 7.5 Si verifica facilmente che un sistema (7.1) definito per mezzo di unequazione
differenziale di ordine n,
y (n) + a1 y (n1) + . . . + an1 y 0 + an y = u(t)
nella quale u viene interpretato come ingresso e y come uscita `e completamente ossevabile, qualunque siano i coefficienti a1 , . . . , an .
7.2.3
Dire che il sistema (7.1) `e completamente osservabile equivale a dire che per ogni data funzione
di ingresso u(t) : [0, +) Rm , lapplicazione che associa un segnale di uscita y(t) ad uno stato
iniziale x(0) = x0 `e iniettiva, e quindi la conoscenza di y(t) su un intervallo [0, T ] (per qualche
T > 0) deve essere sufficiente per risalire a x0 . A tale scopo, si pu`o procedere nel modo seguente.
Supponiamo noti A, B, C, e y(t) per t [0, T ]. Ricordiamo che per ogni ingresso ammissibile
u(t)
tA
y(t) = C e x0 +
Z t
0
(ts)A
Bu(s) ds .
tAt
C y(t) = e
tAt
tAt
tA
C Ce x0 + e
C C
Z t
0
e(t )A Bu( ) d
e integrando tra 0 e T :
E(T )x0 =
avendo posto E(T ) =
Z T
tAt
Z T
C y(t) dt
0
R T tAt t tA
C Ce dt.
0 e
tAt
C C
Z t
0
(t )A
Bu( ) d
dt ,
(7.26)
E(T ) =
||CetA ||2 dt 0 .
Lintegrale a secondo membro `e zero se e solo se lintegrando `e identicamente nullo, cio`e se e solo se
ker CetA per ogni t [0, T ]. Se il sistema `e completamente osservabile, lunica possibilit`a `e = 0. Il
viceversa si prova facilmente per assurdo.
84
7.2.4
Dualit`
a
x = At x + C t u
y = Btx
(7.27)
con u Rp e y Rm , in cui le matrici B e C hanno, per cos` dire, scambiato i loro ruoli. Cos`
(7.1) `e completamente controllabile se e solo se (7.27) `e completamente osservabile e viceversa. Il
sistema (7.27) si dice anche il duale del sistema (7.1). Le propriet`a di completa controllabilit`
a e di
completa osservabilit`a si dicono anche propriet`a duali.
Si noti anche lanalogia tra il Teorema 7.2 e il Teorema 7.7.
7.3
Scomposizioni canoniche
Nello studio dei sistemi, gioca un ruolo importante la ricerca di forme canoniche, cio`e di rappresentazioni che consentono una visualizzazione immediata delle principali propriet`a strutturali. Ci`o
implica la ricerca di opportuni sistemi di coordinate per il sistema (7.1).
7.3.1
Equivalenza lineare
I sistemi
x = Ax + Bu
y = Cx
+ Bu
z = Az
y = Cz
7.3.2
Invarianza controllata
Prima di procedere alla determinazione della prima importante forma canonica, ci serve ancora
una definizione. Un sottospazio W Rn si dice un invariante controllato per il sistema (7.1) se
x0 W e per ogni ingresso ammissibile si ha:
x(t, x0 , u()) W
t > 0 .
85
Lo spazio R(T, 0) (che da questo momento in poi indicheremo semplicemente con R) `e un
esempio di spazio invariante controllato. Infatti, supponiamo che esista, per assurdo, un punto
x0 R e un ingresso u() : [0, T ] Rm tale che x(T, x0 , u()) = x1 6 R. Se u0 () : [0, t0 ] Rm `e
un ingresso per cui x(t0 , 0, u0 ()) = x0 (ed almeno uno di tali ingressi esiste per ipotesi) si potrebbe
allora porre
u
( ) =
u0 ( )
u( t0 )
per
per
0 < t0
t0 t0 + T .
7.3.3
Parte controllabile
z1 =
z2 =
A11 z1 +
A12 z2 +
A22 z2
B1 u
(7.28)
dove z = (z1 , z2 ) con z1 Rq , z2 Rnq , e dove A11 , A12 , A22 , e B1 sono matrici delle dimensioni
opportune. Inoltre, il sistema
z1 = A11 z1 + B1 u
(7.29)
z1 = A11 z1 + A12 z2 + B1 u
z2 = A21 z1 + A22 z2 + B2 u .
A questo punto ricordiamo che R `e un invariante controllato e che tale propriet`a `e ovviamente intrinseca.
86
Se fosse allora A21 6= 0 la traiettoria uscente da uno stato (z1 , 0) R con z1 6= 0, A21 z1 6= 0 e
corrispondente allingresso u() = 0 avrebbe per t = 0 vettore tangente
A11 z1
A21 z1
6 R
e ci`o `e assurdo per il Lemma 7.2. Dunque A21 = 0. In maniera del tutto analoga si mostra poi che B2 = 0.
In pratica, la matrice P che determina il cambiamento di coordinate si pu`o rappresentare nella forma
P = [v1 . . . vq vq+1 . . . vn ]
dove v1 , . . . , vq siano stati scelti in modo da formare una base di R, e vq+1 . . . vn in modo da formare, assieme
a v1 , . . . , vq , una base di Rn . Si noti che nella scelta di questi vettori vi `e un largo margine di arbitrariet`a.
Non `e restrittivo (e in vista di certi possibili sviluppi, potrebbe addirittura essere consigliabile) effettuare la
scelta in modo che i vettori v1 , . . . , vn risultino a due a due ortogonali.
Resta ancora da dimostrare che (7.29) `e completamente controllabile. Dato un qualunque z1 Rq ,
per costruzione deve esistere un ingresso u(t) in corrispondenza del quale la soluzione del sistema (7.28)
trasferisce lorigine di Rn nello stato (z1 , 0) R. Ovviamente, lo stesso ingresso applicato al sistema (7.29)
trasferisce lorigine di Rq in z1 . Dunque (7.29) `e completamente controllabile.
u -
- z1
z2
6
2
- z2
La (7.29) si ottiene dalla (7.28) ponendo z2 = 0. Essa si configura dunque come un sottosistema,
cui si d`a talvolta il nome di parte controllabile del sistema (indicata nella figura con 1 ).
Si noti che levoluzione della componente z2 dello stato, in (7.28), `e del tutto indipendente
dallazione dellingresso. Si dice anche che essa rappresenta la parte incontrollabile del sistema
(indicata nella figura con 2 ).
La forma (7.28) ha dunque il vantaggio di evidenziare la parte controllabile del sistema, separandola da quella incontrollabile.
7.3.4
Parte osservabile
z1 = A11 z1 + A12 z2 + B1 u
z =
2
A22 z2 + B2 u
y = C2 z2
87
z2 = A22 z2 + B2 u
y = C2 z2
(7.30)
che si ottiene ignorando la variabile z1 `e completamente osservabile. Questa volta per`o la scelta
della matrice P che determina il cambiamento di coordinate richiede un po pi`
u di attenzione. Si
comincia col costruire la matrice di osservabilit`
a e se ne calcola il rango, che poniamo uguale a
n r. Si estraggono quindi dalla matrice di osservabilit`
a n r colonne linearmente indipendenti,
che indichiamo vq+1 , . . . , vn . Si prendono infine altri r vettori v1 , . . . , vr linearmente indipendenti
tra loro e ortogonali al sottospazio di Rn generato da vq+1 , . . . , vn . In base al Teorema 7.6, i vettori
v1 . . . vr costituiscono una base dello spazio di non-osservabilit`
a N. La matrice P si pu`o prendere
nella forma
P = [v1 . . . vr vr+1 . . . vn ] .
Se lo si desidera, `e possibile modificare la costruzione, in modo da far s` che le colonne di P
risultino ortogonali a due a due.
I due sottosistemi (7.30) e
z1 = A11 z1 + B1 u
(7.31)
si dicono rispettivamente parte osservabile (indicata in figura con 2 ) e parte inosservabile (indicata
in figura con 1 ) del sistema.
u -
1
z2
6
u -
7.3.5
z2 -
y
-
Scomposizione di Kalman
z
A22 z2
+ A24 z4 + B2 u
2 =
z =
4=
A33 z3 + A34 z4
A44 z4
(7.32)
y = C2 z2 + C4 z4 .
La speciale struttura esibita dal sistema (7.32) corrisponde alle connessioni visualizzate nella
figura seguente, dove i sottosistemi 1 , 2 , 3 , 4 sono quelli che determinano levoluzione dei
blocchi di coordinate z1 , z2 , z3 , z4 , rispettivamente.
88
3
z3
?
-
1
z2
6
-d
-
z4
z4
z4
z4 -
z2 -
C4
?
d
6
C2
Capitolo 8
Stabilit`
a interna e stabilit`
a esterna
dei sistemi lineari
Le nozioni classiche di stabilit`a e stabilit`a asintotica non sono sufficienti a descrivere il comportamento di un sistema con ingressi. Si consideri per esempio un sistema che, in assenza di sollecitazioni,
presenta una posizione dequilibrio stabile. Tale posizione non sar`a certamente mantenuta quando si
applicano delle forze esterne. Tuttavia, `e ragionevole aspettarsi che lo scarto della funzione duscita
rispetto alla posizione dequilibrio sia in qualche modo legato allampiezza del segnale in ingresso, e
che si mantenga piccolo se lampiezza del segnale in ingresso `e piccola. Come abbiamo visto nel
Capitolo 1, quando si riscontra questo tipo di comportamento si dice che il sistema `e esternamente
stabile.
Lidea di stabilit`a esterna si ispira al comportamento dei sistemi definiti da equazioni scalari di
ordine n che, come abbiamo visto nel Capitolo 5, ammettono soluzioni periodiche (quindi limitate)
quando il termine forzante `e periodico. Daltra parte, `e possibile che un sistema con un termine
forzante limitato ammetta soluzioni non limitate (un esempio `e dato dallequazione scalare x = 1).
Possiamo sintetizzare il contenuto di questo capitolo come lo studio delle relazioni che intercorrono tra la stabilit`a interna e la stabilit`a esterna di un sistema lineare del tipo
x = Ax + Bu
y = Cx
(8.1)
(8.2)
ha nellorigine una posizione dequilibrio asintoticamente stabile. Per questo genere di analisi, `e uso
assumere rispettivamente come spazio delle funzioni in ingresso e come spazio delle funzioni in uscita
gli spazi PCB([0, +), Rm ) e CB([0, +), Rp ), dotati della norma della convergenza uniforme.
Inoltre, come in precedenza, indicheremo con x(t, x0 , u()) e con y(t, x0 , u()) rispettivamente la
soluzione della parte differenziale e luscita del sistema (8.1), corrispondenti allo stato iniziale x0
(al tempo t0 = 0) e allingresso u(), valutate al tempo t.
89
90
8.1
Stabilit`
a esterna
Prima di tutto, ricordiamo, per comodit`a del lettore, la definizione di stabilit`a BIBO (Definizione
1.3 del Capitolo 1).
Definizione 8.1 Diremo che il sistema (8.1) `e BIBO-stabile se per ogni R > 0 esiste un S > 0
tale che
kx0 k R , ku()k R = ky(t, x0 , u())k S
(8.3)
Rn
(8.4)
CB(0, +, Rm )
Per dimostrare la parte necessaria, abbiamo invece bisogno di premettere alcuni lemmi.
Lemma 8.1 Se il sistema (8.1) `e BIBO-stabile, allora esiste un M > 0 tale che ||CetA || < M per
t 0.
Dimostrazione Per ipotesi, esiste una costante S1 tale che se ||x0 || 1 allora ||y(t, x0 , 0)|| S1 per ogni
t 0.
Indichiamo con ij (t) lelemento generico della matrice CetA e supponiamo per assurdo che esista una
coppia di indici i, j tali che ij (t) non sia limitata per t 0. Prendiamo come x0 il vettore j-esimo della base
canonica, cio`e il vettore ej le cui componenti sono tutte nulle, tranne la j-esima che `e uguale a 1. La i-esima
componente della funzione (t) = CetA ej `e uguale a ij (t) e si ha
91
Lemma 8.2 Se il sistema (8.1) `e BIBO-stabile, allora esiste un L > 0 tale che
Z t
kW ( )k d < L
(8.5)
kW ( )k d
converge.
La dimostrazione del Lemma 8.5 `e analoga a quella della Proposizione 1.5 del Capitolo 1 (parte
necessaria). Infatti, se il sistema (8.1) `e inizializzato a zero, in virt`
u della formula di Lagrange
loperatore ingresso-uscita prende la forma
y(t) =
Z t
0
Ce(t )A Bu( ) d .
Se conveniamo di restringere gli ingressi ammissibili alle funzioni che sono nulle per t < 0, il
sistema (8.1), inizializzato a zero, si comporta dunque come un sistema a risposta impulsiva, con
matrice della risposta impulsiva
h(t) =
W (t) se t 0
0
se t < 0 .
Osservazione 8.2 Il Lemma 8.2 si pu`o enunciare dicendo che nel caso dei sistemi lineari, la stabilit`a BIBO implica la limitatezza della risposta impulsiva. Tuttavia in generale, limitatezza della
risposta impulsiva e stabilit`a BIBO non sono equivalenti per il sistema (8.1). Per esempio, il sistema
x 1 = x1
x 2 = x2 + u
92
Siamo adesso in grado di completare la dimostrazione del Teorema 8.1.
Dimostrazione della parte necessaria Dimostriamo che se il sistema (8.1) `e BIBO-stabile allora `e anche
stabile con guadagno finito.
Consideriamo prima luscita del sistema (8.1) corrispondente allo stato iniziale x0 = 0 e a un ingresso
ammissibile u(). Per il Lemma 8.2, posto L = 2 , si ha
Z
ky(t, 0, u())k
kW (t )u( )k d
kW (t )k ku()k d
0
0
Z t
ku()k
kW ()k d 2 ku()k
0
per ogni t 0. Consideriamo poi luscita del sistema (8.1) corrispondente a un qualunque stato iniziale x0
e allingresso u 0. Per il Lemma 8.1, posto M = 1 , si ha
||CetA || 1
per ogni t 0. Di qui segue
||y(t, x0 , 0)|| 1 ||x0 ||
n
Da questo momento in poi, dicendo che un sistema lineare `e esternamente stabile intenderemo
che vale una (e quindi anche laltra) delle propriet`a espresse dalle Definizioni 8.1 e 8.2.
A conclusione di questa sezione, facciamo vedere che la stabilit`a esterna `e invariante per
cambiamenti di coordinate lineari in Rn .
Proposizione 8.1 Sia
+ Bu
z = Az
y = Cz
(8.6)
tA
(t )A
tA
y(t) = Ce z0 +
Ce
Bu( ) d = Ce P z0 +
Ce(t )A Bu( ) d .
0
Essa coincide quindi con la risposta del sistema (8.1) relativa allo stato iniziale P z0 e allo stesso ingresso.
Si ha
||y(t)|| 1 ||P z0 || + 2 ||u()|| 1 ||z0 || + 2 ||u()||
dove 1 = ||P ||1 . Per dimostrare limplicazione inversa, `e sufficiente scambiare i ruoli dei sistemi.
93
8.2
Stabilit`
a interna
Cominciamo col ricordare che lorigine `e asintoticamente stabile per il sistema non forzato (8.2) se
e solo se gli autovalori di A hanno tutti parte reale negativa. In tal caso, si usa anche dire che A ha
la propriet`
a di Hurwitz, o, pi`
u brevemente, che `e Hurwitz. Mostriamo che, in generale, la stabilit`a
interna implica quella esterna.
Teorema 8.2 Supponiamo che la matrice A sia Hurwitz. Allora, il sistema (8.1) `e BIBO-stabile.
Dimostrazione In virt`
u della Proposizione 5.2, per certe costanti k0 , , b si ha i
||x(t, x0 , u())|| k0 ||x0 ||et + b||u()||
per t 0. Se A `e Hurwitz, si pu`o prendere negativa, e quindi et < 1. Per concludere, basta poi osservare
che ||y|| ||C|| ||x||.
x 1 = 0
x 2 = x2 + u
(con funzione di uscita uguale allidentit`a) ha la propriet`a di stabilit`a con guadagno finito, ma non
`e internamente stabile.
Si pone allora il problema di trovare condizioni aggiuntive, sotto le quali il Teorema 8.2 possa
essere invertito, oppure di trovare una propriet`a pi`
u debole della stabilit`a asintotica del sistema non
forzato, che risulti necessaria e sufficiente per la stabilit`a BIBO del sistema (8.1). Risolveremo questo
problema per gradi, affrontando prima il caso in cui la matrice C sia lidentit`
a, e successivamente
il caso generale.
8.3
Il caso C = I
x = Ax + Bu
y=x.
(8.7)
In tali condizioni, la stabilit`a BIBO si riduce alla stabilit`a BIBS e inoltre W (t) = etA B.
Proposizione 8.2 Se il sistema (8.7) `e BIBO-stabile, allora lorigine `e un punto dequilibrio stabile
(in generale, non asintoticamente) per il sistema non forzato (8.2).
Dimostrazione Evidentemente, la stabilit`a BIBO implica che il sistema non forzato (8.2) ha tutte le soluzioni limitate per t 0. Ci`o equivale a dire che lorigine `e un punto dequilibrio stabile (nel senso di
Liapunov) per il sistema non forzato (8.2).
94
Daltra parte, la stabilit`a semplice (non asintotica) del sistema non forzato non `e sufficiente per
la stabilit`a BIBO del sistema (8.7) (si pensi al sistema scalare x = u). Per caratterizzare la stabilit`a
esterna del sistema (8.7) in termini di stabilit`a interna, dobbiamo quindi identificare una propriet`a
che sia intermedia tra la stabilit`a semplice e la stabilit`a asintotica del sistema non forzato.
Lemma 8.3 Supponiamo che il sistema (8.7) sia BIBO-stabile, e sia u() : [0, +] Rm una
funzione continua a tratti. Se esiste un numero t > 0 tale che u(t) 0 per t t, allora
lim x(t, 0, u()) = 0 .
(8.8)
t+
Dimostrazione Sia u
una costante tale che ||u(t)|| u
per t [0, t]. Se t > t,
Z
x(t, 0, u()) =
W (t )u( ) d =
0
t
tt
W ()u(t ) d
da cui
Z
||x(t, 0, u())|| u
tt
||W ()|| d .
R
Poiche il sistema `e BIBO-stabile, lintegrale improprio 0 ||W ()|| d converge (Lemma 8.2). Lintegrale
nellultima formula scritta pu`o allora essere reso arbitrariamente piccolo per t sufficientemente grande.
Siamo adesso in grado di dimostrare un inverso parziale del Teorema 8.2 per i sistemi che si
presentano nella forma (8.7).
Proposizione 8.3 Supponiamo che il sistema (8.7) sia completamente controllabile. Se il sistema
`e anche BIBO-stabile, allora la matrice A `e Hurwitz.
` sufficiente far vedere che lorigine `e globalmente attrattiva per il sistema non forzato
Dimostrazione E
(8.2), e cio`e che per ogni x0 Rn , limt+ x(t, x0 , 0) = 0.
Poiche (8.7) `e completamente controllabile, fissato un istante T0 > 0 esiste un ingresso u0 : [0, T0 ) Rm
tale che x(T0 , 0, u0 ()) = x0 . Definiamo allora
u0 (t) se t [0, T0 ]
u(t) =
0
se t > T0 .
Per il Lemma 8.3, possiamo affermare che
lim x(t, 0, u()) = 0 .
t+
Poiche x(t, 0, u()) x(t, 0, u0 ()) per t [0, T0 ], si ha x(T0 , 0, u()) = x0 . Inoltre, per le propriet`a dei
sistemi invarianti nel tempo,
x(t, 0, u()) = x(t T0 , x0 , 0)
per t > T0 .
95
(si pensi ad un sistema definito dallequazione scalare x = x). Il prossimo passo consiste nella
determinazione di una condizione necessaria e sufficiente pi`
u precisa, sempre limitata ai sistemi del
tipo (8.7) ma svincolata dallipotesi di completa controllabilit`
a.
Ricordiamo che a meno di un cambiamento di coordinate lineare, si pu`o supporre che il sistema
(8.7) si presenti nella forma
z1 = A11 z1 + A12 z2 + B1 u
z2 =
A22 z2
(8.9)
dove z1 Rq e z2 Rnq (le notazioni sono quelle della Sezione 4.6.3) e la coppia di matrici A11 ,
B1 definiscono un sistema in Rq completamente controllabile.
Teorema 8.3 Il sistema (8.7) `e BIBO-stabile se e solo se valgono entrambe le condizioni seguenti:
(i) la matrice A11 della parte controllabile ha tutti gli autovalori con parte reale negativa;
(ii) la matrice A22 della parte non controllabile non ha autovalori con parte reale positiva e per
ogni suo eventuale autovalore con parte reale nulla, le molteplicit`
a algebrica e geometrica
coincidono.
Dimostrazione Se il sistema (8.9) `e BIBO-stabile, lo stesso deve essere vero per il sottosistema
z1 = A11 z1 + B1 u
che `e completamente
sono un sottoinsieme
Proviamo adesso
z Rn e un ingresso
(8.10)
controllabile. La (i) segue allora applicando la Proposizione 8.3. Gli autovalori di A22
dellinsieme degli autovalori di A. Allora, la (ii) segue subito dalla Proposizione 8.2.
il viceversa. Cominciamo col fissare un numero positivo R e consideriamo un punto
u(t) tali che
k
zk < R ,
ku()k < R .
z1 (t)
Indichiamo con z(t) =
la soluzione del sistema, scritto nella forma (8.9), corrispondente alla
z
2 (t)
z1
condizione iniziale z =
e allingresso u(t). Osserviamo che
z2
kz(t)k kz1 (t)k + kz2 (t)k
e
k
z1 k k
zk ,
k
z2 k k
zk
dove le norme sono prese, a seconda dei casi, in R , in Rq oppure in Rnq . Per lipotesi su A22 , esister`a una
costante > 0 tale che
kz2 (t)k k
z2 k < R .
Posto
v(t) = A12 z2 (t) + B1 u(t) ,
si ha allora
kv(t)k kA12 kR + kB1 kR .
= max{R, kA12 kR + kB1 kR}. Poiche A11 `e Hurwitz, il sottosistema
Sia R
96
z1 = A11 z1 + v
`e BIBO-stabile. Dunque esiste una costante S tale che se
,
kv(t)k < R
k
z1 k < R
(8.11)
8.4
Il caso generale
Torniamo adesso al caso generale (8.1). Stabiliamo, prima di tutto, una versione generalizzata della
Proposizione 8.2.
Proposizione 8.4 Supponiamo che il sistema (8.1) sia completamente osservabile e che sia inoltre
BIBO-stabile. Allora lorigine `e un punto dequilibrio stabile (in generale, non asintoticamente) per
il sistema non forzato (8.2).
Dimostrazione Per lipotesi di stabilit`a esterna, qualunque sia R > 0 esiste S > 0 tale che se ||x0 || < R e
u 0 si ha
||CetA x0 || < S
per t 0. Supponiamo che A possieda un autovalore reale > 0, e sia v 6= 0 un autovettore di tale che
||v|| < R. Si avr`a
||CetA v|| = ||C(et v)|| = et ||Cv|| < S
per t 0, il che `e possibile solo se Cv = 0. Per le propriet`a dellesponenziale si ha inoltre
d
CetA v = CAetA v .
dt
Daltra parte, si ha anche
d
d
CetA v = et Cv = et Cv .
dt
dt
Da Cv = 0 segue dunque CAetA v = 0 per t 0, e in particolare, per t = 0, CAv = 0. Iterando il
procedimento fino al calcolo delle derivate (n 1)-esime, si arriva alla conclusione che
C
CA
v = 0 .
...
CAn1
Di qui segue che la matrice (C t |At C t | . . . |(At )n1 C t ) ha rango strettamente minore di n, il che `e
impossibile per la condizione di completa osservabilit`a.
97
Supponiamo che A abbia un autovalore = 0 di molteplicit`a geometrica strettamente inferiore alla
molteplicit`a algebrica. Esistono un autovettore v0 e un autovettore generalizzato v1 (entrambi non nulli) tali
che
etA v1 = tv0 + v1 .
Non `e restrittivo assumere ||v1 || < R, cos` che ||CetA v1 || < S per t 0. Ma
||CetA v1 || = ||tCv0 + Cv1 || t||Cv0 || ||Cv1 ||
e questa quantit`a pu`o essere limitata per t 0 solo se Cv0 =0. Ovviamente,
d tA
d
e v1 = (tv0 + v1 ) = v0
dt
dt
cio`e
d
CetA v1 = Cv0 = 0 .
dt
Daltra parte, si ha anche
d
CetA v1 = CAetA v1 = CA(tv0 + v1 ) .
dt
Questultima pu`o essere nulla solo se CAv0 = 0. A questo punto la dimostrazione procede come nel caso
precedente.
In maniera del tutto analoga, si pu`o escludere che A possieda autovalori complessi con parte reale positiva
o autovalori immaginari con molteplicit`a algebrica strettamente maggiore della moltrplicit`a geometrica.
Lemma 8.4 Supponiamo che il sistema (8.1) sia completamente osservabile e che sia inoltre
BIBO-stabile. Allora il sistema (8.7), dove le matrici A e B sono le stesse del sistema (8.1), `e
BIBO-stabile.
Dimostrazione In caso contrario, esisterebbe un R > 0 tale che per ogni S > 0 si potrebbero trovare uno
stato iniziale x0 , un ingresso ammissibile u() : [0, +] Rm , e un istante > 0 tali che
s
||x0 || < R , ||u()|| < R , ma ||x( )||
S
||E(1)||
u
(t) =
u(t) per t
0
per t > .
Naturalmente, ||
u()|| < R. Per t si ha
y(t) = Cx(t) = Ce(t )A x( ) .
Prendendo le norme, e integrando tra e + 1, si ha
98
+1
+1
||y(t)|| dt =
Z
||Ce(t )A x( )|| , dt =
Z
xt ( )
+1
xt ( )e(t )A C t Ce(t )A x( ) dt =
R +1
||y(t)|| dt max[, +1] ||y(t)|| = ||y(
|| per qualche . Mettendo insieme le due
Daltronde
conclusioni, si ricava
||y(
)|| ||E(1)|| ||x( )||2 > S .
Questo significherebbe che (8.1) non `e esternamente stabile, contrariamente allipotesi.
Grazie al lemma precedente, possiamo enunciare un inverso parziale del Teorema 8.2 per i
sistemi del tipo (8.1), generalizzando cos` la Proposizione 8.3.
Proposizione 8.5 Supponiamo che il sistema (8.1) sia completamente controllabile e completamente osservabile. Supponiamo inoltre che sia BIBO-stabile. Allora la matrice A `e Hurwitz.
Dimostrazione Per il Lemma 8.4, il sistema (8.7) `e esternamente stabile. Inoltre, se il sistema (8.1) `e completamente controllabile, anche il sistema (8.7) sar`a completamente controllabile. Si perviene alla conclusione
in virt`
u della Proposizione 8.3.
(8.12)
Con un ultimo sforzo, possiamo infine liberarci da ogni ipotesi restrittiva e formulare una
condizione necessaria e sufficiente di carattere generale.
Facendo riferimento alla scomposizione di Kalman studiata nella Sezione 4.6.5, e alle notazioni
col`a introdotte, consideriamo il sistema
z2 = A22 z2 + A24 z4 + B2 u
z4 =
A44 z4
(8.13)
99
Dimostrazione Supponiamo prima che il sistema (8.13) possieda la propriet`a di stabilit`a BIBO. Non `e
restrittvo assumere che il sistema (8.1) si presenti nella forma di Kalman (Proposizione 8.1) che riportiamo
per comodit`a
A22 z2
+ A24 z4 + B2 u
z2 =
z3 =
A33 z3 + A34 z4
A44 z4
z4 =
y = C2 z2 + C4 z4 .
Sia R > 0 e consideriamo il sistema (8.1): scegliamo uno stato iniziale z = (
z1 , z2 , z3 , z4 ) e un ingresso
ammissibile u() tali che
||
z || < R
e ||u()|| < R .
Il vettore (
z2 , z4 ) riunisce una parte delle componenti di z, quindi si ha
||(
z2 , z4 )|| < R .
Per ipotesi, esiste allora S tale che ||y(t)|| < S per ogni t 0. Per concludere basta osservare che (8.13)
e (8.1) hanno la stessa uscita.
Viceversa, supponiamo che (8.1) possieda la propriet`a di stabilit`a BIBO. Introduciamo R e consideriamo
il sistema (8.13). Scegliamo uno stato iniziale (
z2 , z4 ) e un ingresso ammissibile u() tali che
||(
z2 , z4 )|| < R
e ||u()|| < R .
Applichiamo lo stesso ingresso al sistema (8.1) scegliendo come condizione iniziale z = (0, z2 , 0, z4 ).
Chiaramente ||
z || = ||(
z2 , z4 )||. Dunque esiste S tale che ||y(t)|| < S per ogni t 0. Ancora una volta, si
conclude osservando che i due sistemi hanno la stessa uscita.
(8.14)
`e completamente controllabile, anche levoluzione di z2 si mantiene limitata. Di qui si arriva facilmente alla
conclusione.
Viceversa, supponiamo che il sistema possieda la propriet`a di stabilit`a BIBO. Poiche il sistema `e completamente osservabile, per la Proposizione 8.4, la matrice
A22 A24
0
A44
definisce un sistema non forzato per cui lorigine `e stabile (non asintoticamente). Ci`o implica in particolare
la condizione (ii). La condizione (i) segue applicando la Proposizione 8.5 al sottosistema completamente
controllabile e completamente osservabile
100
z2 = A22 z2 + B1 u
y = C2 z2
(8.15)
inizializzato a (
z2 , 0).
Capitolo 9
Stabilizzabilit`
a
Come accennato nel primo capitolo, il comportamento di un sistema pu`o essere regolato, senza
alterarne radicalmente la struttura, mediante la costruzione di opportuni dispositivi di controllo
collegati in retroazione. Simili dispositivi possono essere di natura statica (e quindi essere rappresentabili per mezzo di una funzione) oppure richiedere unelaborazione dinamica (e quindi essere
a loro volta interpretabili come un sistema dinamico). La connessione in retroazione fa s` che il
controllo possa essere esercitato in maniera automatica (cio`e senza lintervento permanente di un
operatore umano). A tal fine, il dispositivo deve potersi avvalere di sensori che rilevino, istante per
istante, levoluzione delle variabili di stato.
Quando tutte le variabili di stato possono essere monitorate, e le informazione che se ne ricavano
possono essere utilizzate senza restrizioni dal dispositivo di controllo, si dice che siamo in presenza di
una retroazione dello stato. Quando invece le informazioni sullevoluzione dello stato sono disponibili
solo parzialmente (perche per esempio vengono acquisite attraverso una funzione di osservazione),
si dice che siamo in presenza di una retroazione delluscita.
9.1
Nel problema della stabilizzazione mediante retroazione statica dello stato la funzione di osservazione non gioca nessun ruolo. Pertanto, in questa sezione, possiamo limitarci a considerare un sistema
dinamico della forma
x = Ax + Bu ,
x Rn , u Rm .
(9.1)
Prima di tutto, cerchiamo di illustrare che cosa capita durante il ciclo di retroazione. Sia v = v(t)
un segnale che viene inviato al sistema attraverso il canale di ingresso u, e sia x(t) levoluzione che
ne risulta. La funzione di retroazione k(x) : Rn Rm genera un altro segnale w(t) = k(x(t)) che
va a sommarsi al segnale originario. Il segnale che viene effettivamente ricevuto dal sistema `e, in
altre parole, u = w(t) + v(t).
Una retroazione statica dello stato si dice lineare quando k(x) = F x, dove F `e una matrice
m n. Limplementazione di una retroazione della forma
u = Fx + v
(9.2)
dove la variabile v rappresenta, come sopra, eventuali altri segnali immessi nel sistema attraverso
101
102
lingresso u, pu`o essere interpretata come una trasformazione. Sostituendo (9.2) in (9.1), si ottiene
infatti il nuovo sistema
x = (A + BF )x + Bv
(9.3)
A, B
- d x-
9.1.1
Controllabilit`
a
Ci si pu`o per esempio chiedere se in questo modo si pu`o far acquisire ad un sistema la propriet`a di
controllabilit`a completa. La risposta `e negativa. Vale infatti il
Teorema 9.1 Qualunque sia F , gli spazi raggiungibili dallorigine R(9.1) e R(9.3) relativi rispettivamente ai sistemi (9.1) e (9.3) coincidono. In particolare,
rank [B|AB| . . . |An1 B] = rank [B|(A + BF )B| . . . |(A + BF )n1 B] .
Dimostrazione Per il Teorema 7.3
R(9.1) = span {b1 , . . . , bm ; Ab1 , . . . , Abm ; . . . ; An1 b1 , . . . , An1 bm } .
Cio`e v R(9.1) se e solo se v `e combinazione lineare di alcuni dei vettori indicati. Analogamente,
R(9.3) = span {b1 , . . . , bm ; (A + BF )b1 , . . . , (A + BF )bm ; . . . ; (A + BF )n1 b1 , . . . , (A + BF )n1 bm } .
103
Osserviamo che (A + BF )bj = Abj + BF bj . Il vettore Abj appartiene ad R(9.1) e il vettore
BF bj = [b1 | . . . |bm ]F bj
pure appartiene ad R(9.1) in quanto combinazione lineare dei b1 , . . . , bm . Procedendo, si nota che
(A + BF )2 bj = (A + BF )(A + BF )bj = A2 bj + ABF bj + BF Abj + BF BF bj .
Il primo addendo sta in R(9.1) per definizione; il secondo perche `e una combinazione lineare di Ab1 , . . . , Abm ;
il terzo e il quarto perche combinazioni lineari di b1 , . . . , bm . Non `e difficile convincersi che lo stesso ragionamento si applica a ogni termine (A + BF )k bj .
In conclusione, R(9.3) R(9.1) perch`e tutti i vettori di R(9.3) sono combinazione lineare di vettori di
R(9.1) .
Linclusione opposta si ottiene ricordando che il sistema (9.1) si pu`o riottenere da (9.3) con lapplicazione
della retroazione inversa v = F x + u. Si ripete quindi il ragionamento, scambiando i ruoli dei sistemi (9.1)
e (9.3).
9.1.2
Stabilit`
a
Nel capitolo precedente ci siamo occupati della stabilit`a esterna dei sistemi della forma (9.1). Come
abbiamo visto, si tratta di una propriet`a intrinsecamente correlata alla stabilit`a interna (detta
anche propriet`a di Hurwitz). Ci`o spiega linteresse ad elaborare modelli per cui la matrice A del
sistema non forzato abbia tutti gli autovalori con parte reale negativa e anzi, nel caso che A non
soddisfi a tale condizione, linteresse ad introdurre modifiche nella struttura del sistema affinche la
propriet`a venga acquisita.
Al contrario della controllabilit`a, la propriet`a di Hurwitz pu`o, sotto certe condizioni, essere
effettivamente acquisita mediante lapplicazione di una retroazione.
Sistemi a ingresso scalare
Consideriamo prima il caso di un sistema ad ingresso scalare (per tali sistemi, si ha m = 1
e conseguentemente B `e un vettore colonna). Lapproccio che proponiamo si basa sul seguente
Teorema.
Teorema 9.2 Sia (7.1) un sistema completamente controllabile, con m = 1.
Esiste un cambiamento di coordinate x = P per cui il sistema si trasforma in
= A0 + ub0
(9.4)
0
0
...
0
an
1
0
...
0
an1
0
1
...
0
...
...
...
...
...
...
0
0
...
1
a1
0
.
b0 = .. .
0
104
Dimostrazione Nella Sezione 11 del Capitolo 3 abbiamo visto che se per un certo vettore v i vettori
v, Av, . . . , An1 v
sono linearmente indipendenti, allora A `e simile alla matrice
0
1
...
0
0 ... 0
0 ... 0
1 ... 0
... ... ...
... ... 1
an
an1
an2
...
a1
dove i numeri a1 , . . . , an sono i coefficienti del polinomio caratteristico di A, a meno del segno (trasposta della
forma compagna). La matrice che determina il cambiamento di coordinate `e quella formata dalle colonne
v, Av, . . . , . . . An1 v.
Lipotesi di controllabilit`a del nostro sistema equivale appunto a dire che la matrice
R = [b|Ab| . . . |An1 b]
ha rango n. Dunque R1 AR = At0 ed `e immediato verificare che
1
0
R
... = b
1
0
1
cio`e R b =
... .
w = At0 w + u
... .
(9.5)
0
0
...
0
1
... ... 0
1
... 0
1
1
...
... ...
e quindi `e non singolare (gli asterischi stanno al posto di certi numeri che non occorre specificare). Ne segue,
per le stesse ragioni di cui sopra, che Q1 A0 Q = At0 . Inoltre, `e chiaro che
1
0
Q
... = b0
0
ovvero Q1 b0 =
... .
0
Cos` anche il sistema (9.4) `e linearmente equivalente a (9.5). Infine (9.4) e il sistema dato, essendo
entrambi equivalenti a (9.5), sono equivalenti tra di loro.
In altre parole, il Teorema 9.2 afferma che ogni sistema controllabile a ingresso singolo `e
linearmente equivalente ad un sistema governato da unequazione differenziale lineare.
105
Dalla dimostrazione del Teorema 9.2 si ricava unespressione esplicita per la matrice P che
determina la similitudine tra A e la sua forma compagna A0 . Si ha infatti P = RQ1 .
Riscriviamo per comodit`a il sistema (9.4) come
1 = 2
...
n1 = n
(9.6)
n = an 1 . . . a1 n + u .
1 = 2
...
n = bn 1 . . . b1 n + v
106
teoria dei sistemi, questo risultato si generalizza ai sistemi a ingresso multiplo. Vale anzi il seguente
risultato.
Teorema 9.3 Per un sistema del tipo (9.1), le seguenti propriet`
a sono equivalenti:
(i) controllabilit`
a completa
(ii) assegnabilit`
a dei poli
(iii) superstabilizzabilit`
a.
Non riporteremo la dimostrazione completa del Teorema 9.3. Tuttavia pu`o essere istruttivo
soffermarsi sul seguente enunciato parziale.
Proposizione 9.1 Se il sistema (9.1) `e completamente controllabile, allora `e stabilizzabile.
Dimostrazione Lipotesi di controllabilit`a pu`o essere espressa affermando che per ogni T > 0 la matrice
Z
(T ) =
e A BB t e A d
`e definita positiva (Teorema 7.2). Poniamo per semplicit`a = (1). Faremo vedere che la retroazione
u = F x = B t 1 x stabilizza il sistema. Cominciamo calcolando la derivata
t
t
t
d tA
e
BB t etA = AetA BB t etA etA BB t etA At
dt
da cui
Z
1
0
t
d tA
e
BB t etA dt =
dt
t
t
AetA BB t etA etA BB t etA At dt .
(9.7)
Per il Teorema fondamentale del calcolo, il primo membro della (9.7) `e uguale a
etA BB t etA
= eA BB t eA BB t .
tA
t tAt
BB e
dt
eA BB t eA BB t = A At .
(9.8)
(9.9)
(A BB t 1 ) + (A BB t 1 )t = eA BB t eA BB t .
(9.10)
La matrice a secondo membro `e certamente (almeno) semidefinita negativa. Per il Teorema 4.4, possiamo
pertanto affermare che lorigine `e stabile per il sistema
107
x = (A BB t 1 )t x
(9.11)
(9.12)
dato che una matrice e la sua trasposta hanno gli stessi autovalori. Tuttavia, sulla base della (9.10), non
possiamo concludere che (9.12) sia asintoticamente stabile: vi sono infatti semplici esempi di sistemi lineari
controllabili per cui la matrice al secondo membro della (9.10) effettivamente non `e definita positiva1 . In
altre parole, non `e detto che V (x) = xt x sia una funzione di Liapunov (in senso stretto) per il sistema
(9.11).
Per portare a termine la dimostrazione, dobbiamo quindi procedere per una via diversa. Ricorreremo
direttamente al Teorema 4.1, facendo vedere che tutti gli autovalori di (A BB t 1 )t hanno parte reale
strettamente negativa. A tal fine, i calcoli precedenti torneranno comunque utili.
Sia un autovalore (reale o complesso) di (A BB t 1 )t , e sia v 6= 0 un suo autovettore. Sia cio`e
(A BB t 1 )t v = v .
(9.13)
vt [(A BB t 1 ) + (A BB t 1 )t ]v =
v t [eA BB t eA + BB t ]v .
(9.14)
Daltra parte,
v t v +
+ )
vt [(A BB t 1 ) + (A BB t 1 )t ]v =
v t v = (
v t v = 2Re (
v t v) .
(9.15)
Di conseguenza
t
vt [eA BB t eA + BB t ]v = 2Re (
v t v) .
(9.16)
Poiche `e reale e definita positiva, si verifica facilmente che v v > 0 (abbiamo gi`a fatto un calcolo
simile nella dimostrazione del Teorema 4.3). Si ritrova cos` quanto avevamo gi`a concluso in precedenza, e
cio`e che Re 0. Se per un certo si avesse Re = 0, si dovrebbe anche avere
t
vt [eA BB t eA + BB t ]v = 0
e quindi in particolare
tv = 0 .
vt BB t v = vt BB
Questultima implica B t v = 0. Ne segue
(A BB t 1 )t v = At v (1 )t BB t v = At v .
(9.17)
vt v =
Z
t
vt etA BB t etA v dt =
Si prenda A =
0
0
1
,b=
0
0
.
1
et vt etA BB t v dt = 0
108
9.1.3
Stabilizzabilit`
a
x 1 = A11 x1 + A12 x2 + B1 u
x 2 =
A22 x2
(9.18)
A11 A12
`e lunione dellinsieme degli
0
A22
autovalori delle matrici A11 e A22 . Lazione di una retroazione non pu`o modificare in alcun modo la matrice
A22 . Dunque, se il sistema `e stabilizzabile, `e ovvio che A22 deve essere Hurwitz.
Viceversa, essendo il sottosistema relativo alle componenti x1 completamente controllabile, possiamo
costruire una retroazione u = F1 x1 (per esempio, come indicato nella Proposizione 9.1) tale che la matrice
A11 + B1 F1 sia Hurwitz. Daltra parte, la matrice A22 `e Hurwitz per ipotesi. Dunque `e Hurwitz anche la
matrice A.
Alla condizione necessaria e sufficiente di stabilizzabilit`a possono essere date altre forme; passiamone in rassegna alcune (senza dimostrazione).
Teorema 9.5 Sia V il sottospazio di Cn generato da tutti gli autovettori (in senso proprio e in
senso generalizzato) associati a tutti gli autovalori di A con parte reale positiva o nulla. Sia inoltre
U il sottospazio di Rn generato da tutti i vettori della forma Re v, Im v con v V .
Il sistema (9.1) `e stabilizzabile se e solo se U `e contenuto nello spazio raggiungibile R.
Teorema 9.6 Il sistema (9.1) `e stabilizzabile se e solo se
.
rank (A I .. B) = n
per ogni numero complesso con parte reale positiva o nulla.
Si notino le analogie e le differenze tra lenunciato del Teorema 9.6 e il criterio di Hautus sulla
controllabilit`a completa.
Teorema 9.7 Il sistema (9.1) `e stabilizzabile se e solo se esiste una matrice P simmetrica e definita
positiva tale che
At P + P A P BB t P = I .
(9.19)
109
Dimostrare che la (9.19) `e sufficiente per la stabilizzabilit`a `e facile. Si applica la retroazione
definita da F = B t P ottenendo il sistema
x = Ax BB t P x .
(9.20)
In virt`
u della (9.19) si ha:
(A BB t P )t P + P (A BB t P ) = At P + P A 2P BB t P = I + (1 2)P BB t P .
La matrice P BB t P = (B t P )t B t P definisce una forma quadratica definita non-negativa. Quindi, se 12 , P risolve lequazione matriciale di Liapunov relativa al sistema (9.20) per una certa
Q definita positiva. La conclusione segue per il Corollario 3.1.
Invece, dimostrare che la stessa condizione `e anche necessaria per la stabilizzazione `e pi`
u complicato (una dimostrazione si trova per esempio sul libro di R. Conti, Linear differential equations
and control, Academic Press 1976).
La (9.19) `e nota come equazione matriciale algebrica di Riccati. Si osservi che, a patto di
saper risolvere la (9.19), il Teorema 9.7 fornisce una retroazione stabilizzante in maniera esplicita
(certamente pi`
u esplicita di quella suggerita nella dimostrazione della Proposizione 9.1).
9.1.4
Controllabilit`
a asintotica
Se il sistema (9.1) `e stabilizzabile mediante una retroazione u = F x, allora per ogni stato iniziale
x0 Rn possiamo considerare la soluzione x(t, x0 ) del problema
x = (A + BF )x
x(0) = x0 .
Tale soluzione x(t, x0 ) coincide ovviamente con la soluzione x(t) del problema
x = Ax + Bux0 (t)
x(0) = x0
(9.21)
110
9.2
Nella sezione precedente abbiamo studiato il problema della stabilizzabilit`a mediante retroazione
statica dello stato: ovviamente questa strada non `e praticabile se lintero stato del sistema non
`e disponibile per poter essere elaborato e quindi re-immesso nel sistema attraverso il canale di
ingresso. Una situazione del genere si presenta tipicamente quando si ha a che fare con un sistema
dotato di una funzione di osservazione
x = Ax + Bu
(9.22)
y = Cx
con x Rn , u Rm , y Rp , e si cercano retroazioni della forma u = Ky. Il problema della
stabilizzabilit`a mediante retroazione delluscita `e pi`
u naturale dal punto di vista delle applicazioni,
ma anche molto pi`
u difficile da investigare.
Per renderci meglio conto delle maggiori difficolt`a che si incontrano nel problema della stabilizzabilit`a con retroazione delluscita, esaminiamo alcuni semplici esempi.
Esempio 9.1 Il sistema bidimensionale
x 1 = x2
(9.23)
x 2 = u
`e completamente controllabile, quindi stabilizzabile mediante una retroazione della forma u =
k1 x1 +k2 x2 . A condizione che si possano scegliere liberamente (e indipendentemente luno dallaltro)
i parametri k1 e k2 , il sistema `e anzi superstabilizzabile.
Tuttavia, non `e possibile stabilizzare il sistema se ci si limita ad una retroazione della forma
u = kx1 . Infatti, applicando una tale retroazione, il sistema diventa
x 1 = x2
x 2 = kx1
i cui autovalori sono o entrambi sullasse immaginario o entrambi sullasse reale (e in questultimo
caso uno sar`a positivo, laltro negativo). In altre parole, la possibilit`a di assegnare arbitrariamente
un solo parametro non garantisce i gradi di libert`a necessari per risolvere il problema.
Come abbiamo gi`a pi`
u volte suggerito, limpossibilit`a di implementare una retroazione che
utilizzi tutte le variabili di stato si verifica tipicamente quando il sistema pu`o accedere al proprio
stato solo attraverso una funzione di osservazione. Nel nostro esempio, la retroazione u = kx1 si pu`o
interpretare come una retroazione statica delluscita, se si associa al sistema (9.23) la funzione di
osservazione y = ct x con c = (1 0). Si noti che il sistema, rispetto a questa funzione di osservazione,
`e completamente osservabile; e cionnonostante, non pu`o essere stabilizzato con una retroazione
statica delluscita.
Esempio 9.2 Consideriamo ancora il sistema (9.23), questa volta con funzione di uscita y =
x1 + x2 . Applicando la retroazione u = ky = k(x1 + x2 ), si ottiene il sistema
x 1 = x2
x 2 = kx1 kx2
111
3
3
1
lim Re = 2 .
k4
k 2 4k
k + k 2 4k
1 =
e 2 =
.
2
2
La pi`
u grande delle due `e 2 : essa cresce al crescere di k, e
k
lim 2 = 2 ,
k4+
lim 2 = 1 .
k+
In definitiva, Re 2 (k) 2 per ogni k 0, ed assume il minimo assoluto per k = 2 (il grafico
della parte reale di 2 in funzione di k `e mostrato nella Figura 9.1).
Si noti che anche in questo caso, il sistema `e completamente controllabile e completamente
osservabile.
9.2.1
Presentiamo un teorema che consente, in certi casi, di semplificare lo studio del problema della stabilizzazione mediante retroazione statica. Dato un sistema del tipo (9.22), cominciamo con loperare
un cambiamento di coordinate lineare in modo da far assumere alle matrici A, B, C la struttura
(7.32) (scomposizione di Kalman) che qui riportiamo per comodit`a:
A22 z2
+ A24 z4 + B2 u
z2 =
z =
4=
y = C2 z2 + C4 z4 .
A33 z3 + A34 z4
A44 z4
(9.24)
112
Si ricordi che, con le notazioni allora introdotte, la parte controllabile `e quella identificata dagli
indici 1 e 2, mentre la parte completamente osservabile `e quella identificata dagli indici 2 e 4.
Teorema 9.9 Il sistema (9.22) `e stabilizzabile con retroazione statica delluscita se e solo se
entrambe le condizioni seguenti sono soddisfatte:
(1) le matrici A11 , A33 e A44 hanno tutti gli autovalori con parte reale negativa;
(2) la parte completamente controllabile e completamente osservabile identificata dalle equazioni
z2 = A22 z2 + B2 u
= C2 z2
(9.25)
A11
0
0
0
A12
A22
0
0
A13
0
A33
0
A14
A24
A34
A44
(9.26)
dove A12 = A12 + B1 KC2 , A14 = A14 + B1 KC4 , A22 = A22 + B2 KC2 , A24 = A24 + B2 KC4 .
In virt`
u della forma triangolare a blocchi della matrice (9.26), `e chiaro che la retroazione u = Ky stabilizza
il sistema se e solo se le matrici A11 , A22 , A33 e A44 hanno tutti i loro autovalori con parte reale negativa.
Tenuto conto della condizione (1), questo sar`a a sua volta vero se e solo se la retroazione u = K = KC2 z2
risulta essere stabilizzante per il sistema (9.25).
In virt`
u del Teorema 9.9, nello studio del problema della stabilizzabilit`a con retroazione statica
delluscita possiamo sempre pensare di avere a che fare con un sistema completamente controllabile
e completamente osservabile. Il seguente risultato pu`o allora essere di qualche utilit`a.
Proposizione 9.2 Sia dato un sistema della forma (9.22). Supponiamo che sia completamente
controllabile, e che la matrice C sia invertibile. Allora, il sistema `e stabilizzabile con retroazione
statica delluscita.
Dimostrazione Per lipotesi di completa controllabilit`a, esiste una matrice K tale che il sistema `e stabilizzabile mediante la retroazione u = Kx. Possiamo scrivere u = KC 1 Cx = KC 1 y. Si ottiene cos` una
retroazione statica delluscita u = F y con F = KC 1 che stabilizza il sistema.
9.2.2
A proposito di un sistema che pu`o essere rappresentato nella forma (9.24), vi `e unulteriore interessante riflessione da fare. Limitiamoci per un momento a considerare solo la parte differenziale.
Assegnando lingresso u 0 e scegliendo una condizione iniziale della forma z = (
z1 , 0, z3 , 0) la
soluzione si evolve sempre nel sottospazio di equazione z2 = z4 = 0, che `e quindi invariante per il
sistema non forzato. Si tenga presente che ogni soluzione giacente in questo sottospazio produce
113
uscita nulla. Per questa ragione, il sottospazio di equazione z2 = z4 = 0 `e detto lo spazio della
dinamica zero, e le equazioni
z1 = A11 z1 + A13 z3
z3 =
A33 z3
x 1 = x1 + 4x2
x = 2x1 6x2 + u
2
y = 2x1 + x2
P =
1 2
2 1
cos` come spiegato nel Paragrafo 3 del Capitolo 7, si ottiene la forma canonica di osservabilit`
a del
sistema
2
z1 = 7z1 2z2 + 5 u
x = 2z2 + 15 u
2
y = 5z2
A questo punto `e evidente che il sistema, nelle nuove coordinate, risulta stabilizzabile mediante
qualunque retroazione delluscita u = ky, purche sia k < 2. Nelle coordinate originali, la retroazione
da applicare `e ovviamente u = ky = k(2x1 + x2 ), sempre con k < 2.
9.2.3
Sistemi in dimensione 2
x 1 = x2
x 2 = a2 x1 + a1 x2 + u .
(9.27)
Supponiamo che il sistema, con funzione di osservazione y = c0 x1 + c1 x2 , risulti anche completamente osservabile. Il sistema `e stabilizzabile con retroazione statica delluscita se e solo se esiste
un numero k R tale che kc0 < a2 , e kc1 < a1 .
114
Dimostrazione Si tratta di una verifica diretta. Innanzitutto si osserva che lipotesi di osservabilit`a si
traduce nella condizione c20 + c0 c1 a1 c21 a2 6= 0, la quale implica a sua volta che c0 e c1 non possono essere
entrambi nulli. Effettuando la sostituzione u = ky, la matrice del sistema prende la forma
0
1
a2 + kc0 a1 + kc1
la cui equazione caratteristica `e
2 (a1 + kc1 ) a2 kc0 = 0 .
Si giunge alla conclusione applicando il criterio di Routh-Hurwitz.
9.2.4
Assegnabilit`
a dei poli
Come abbiamo visto dagli esempi, un sistema pu`o risultare stabilizzabile con retroazione statica
delluscita ma non superstabilizzabile. Il seguente risultato, che riportiamo senza dimostrazione,
fornisce una condizione necessaria per lassegnabilit`a dei poli, valida per sistemi di dimensione
qualunque.
Proposizione 9.4 Sia dato il sistema (9.22) e supponiamo che data una qualunque n-pla compatibile {1 , . . . , n } esista una retroazione u = Ky = KCx tale che gli autovalori della matrice
A + BKC siano esattamente 1 , . . . , n . Allora mp n.
In particolare la propriet`a di assegnabilit`a dei poli non vale per nessuno dei sistemi presentati
in questo paragrafo.
9.3
Le difficolt`a che si incontrano nel problema della stabilizzazione mediante retroazione statica delluscita possono essere aggirate ricorrendo ad una procedura di natura diversa, a patto che il sistema
sia, in linea di principio, stabilizzabile mediante retroazione statica dello stato, e che sia soddisfatta
unulteriore condizione tecnica di cui parleremo tra breve).
Definizione 9.4 Si dice che il sistema (9.22) `e stabilizzabile con retroazione dinamica delluscita
se esiste un sistema
z = F z + Gv
= Dz
(9.28)
x = Ax + BDz
z = F z + GCx
abbia nellorigine (x, z) = (0, 0) Rn+ una posizione dequilibrio asintoticamente stabile. Al
sistema (9.28) si d`
a il nome di sistema compensatore, o di sistema controllore.
115
u-
x-
D
z
y-
z1 = z1 + z2 + v
z = 2z1 z2 + v
2
= z1 z2 .
x 1 = x2
x 2 = z1 z2
z = x1 z1 + z2
z2 = x1 2z1 z2
La procedura di carattere generale che permette di costruire, sotto ipotesi opportune, una
retroazione dinamica delluscita in grado di stabilizzare un sistema del tipo (9.22) sar`a descritta
nelle prossime sottosezioni.
9.3.1
(9.29)
116
t+
Dimostrazione Posto uguale ad e(t) = x(t) z(t) lerrore che si commmette sostituendo lo stato osservato
z(t) allo stato effettivo x(t), si ha:
e = x z = Ax + Bu Lz KCx Bu = (L + KC)x Lz KCx = Le .
(9.30)
Poiche gli autovalori di L hanno tutti parte reale negativa (una matrice e la sua trasposta hanno sempre
gli stessi autovalori), si ha limt+ e(t) = 0 come desiderato.
Osservazione 9.1 Il sistema (9.29) riceve in ingresso lo stesso ingresso del sistema dato, ma anche
luscita del sistema dato.
La Proposizione 9.5 afferma che indipendentemente da come i due sistemi sono inizializzati, a
parit`a di ingresso le soluzioni di (9.29) approssimano asintoticamente quelle del sistema dato. Per
questa ragione, il sistema (9.29) si dice anche un osservatore asintotico.
9.3.2
Supponiamo ora che il sistema (9.22) possieda, oltre alla propriet`a di rilevabilit`
a, anche la propriet`a
di stabilizzabilit`a. Allora possiamo costruire una matrice H tale che la matrice (A + BH) sia
Hurwitz.
Se lintero stato del sistema fosse utilizzabile ai fini del controllo, potremmo applicare direttamente la retroazione u = Hx. Altrimenti, `e naturale tentare con la legge di controllo u = Hz,
dove la z `e fornita dallosservatore asintotico (9.29).
Effettuando la sostituzione u = Hz in (9.22) e in (9.29) (e ricordando che y = Cx), si ottengono
i due sistemi di equazioni differenziali
x = Ax + BHz
(9.31)
(9.32)
(9.33)
(9.34)
I sistemi (9.33) e (9.34) possono essere riguardati come un unico sistema lineare omogeneo, di matrice
A + BH
BH
.
(9.35)
0
A KC
117
Linsieme degli autovalori della (9.35) `e lunione degli insiemi degli autovalori delle matrici A + BH e
A KC le quali, per costruzione, sono Hurwitz. Lasserto `e provato.
Teorema 9.10 Se il sistema (9.22) `e stabilizzabile con una retroazione statica dello stato, e se
inoltre possiede la propriet`
a di rilevabilit`
a, allora `e stabilizzabile anche con una retroazione dinamica
delluscita.
Dimostrazione Il sistema formato da (9.31) e (9.32) si pu`o interpretare come risultato dalla composizione
del sistema dato (9.22) e del compensatore dinamico
z = (A KC + BH)z + Kv
= Hz .
Quello che abbiamo costruito `e quindi effettivamente una retroazione dinamica delluscita: per ritrovare
le notazioni della Definizione 9.4, `e sufficiente porre F = A KC + BH, G = K, D = H. Per completare il
ragionamento basta invocare il Lemma precedente.
x
A 0
x
B 0
0 D
x
=
+
.
0 F
0 G
C 0
A 0
= B
A =
e B
0 F
0
0
G
`e stabilizzabile (con retroazione statica dello stato). Per il Teorema 9.6, deve allora essere
118
A + I
rank
0
0
F + I
..
.
..
.
B
0
0
=n+
G
per ogni numero complesso con parte reale maggiore o uguale a zero. Di qui segue subito
.
rank (A + I .. B) = n
per ogni numero complesso con parte reale maggiore o uguale a zero.
Capitolo 10
10.1
La matrice di trasferimento
Consideriamo un sistema dinamico lineare, finito-dimensionale e invariante nel tempo, rappresentato in generale da equazioni della forma
x = Ax + Bu
y = Cx ,
(10.1)
con
x(t) =
Z t
0
(10.2)
Vogliamo ora dare una rappresentazione della funzione di uscita del sistema (10.1) alternativa
alla (10.2), facendo uso della trasformata di Laplace. A tal fine, supponiamo che u() e quindi
anche x() e y() siano definite solo per t 0. Conveniamo di restringere linsieme degli ingressi
+, Rm ) a crescita esponenziale. Con tale restrizione, in
ammissibili alle funzioni di classe C(0,
virt`
u della (10.2), anche x(t) e y(t) risulteranno a crescita esponenziale.
Si ponga X(s) = L[x(t)], U (s) = L[u(t)] e Y (s) = L[y(t)]. Applicando alla prima equazione del
sistema (10.1) la trasformata di Laplace e procedendo come nellAppendice C (sezione C.6) si ha
L[x(t)]
120
(A sI)X(s) = x0 + BU (s) .
La matrice (A sI) `e invertibile per ogni s C che non sia un autovalore di A. Per tali valori
di s, `e dunque lecito scrivere
X(s) = (A sI)1 x0 (A sI)1 BU (s) .
Questultima vale certamente, in particolare, per Re s > 0 , dove 0 designa il massimo delle
parti reali degli autovalori di A. Posto
T (s) = C(sI A)1 B ,
(10.3)
(10.4)
si ha infine
Lanalogia formale tra la (10.2) e la (10.4) (in particolare, la presenza di due addendi, uno
dipendente dallo stato iniziale e laltro dallingresso) non `e sorprendente. Infatti, la (10.4) si sarebbe
potuta equivalentemente ottenere, per s > 0 , applicando la trasformata di Laplace alla (10.2) e
ricordando la Proposizione B.4.
Confrontando la (10.4) con la (6.5) del Capitolo 6, si vede che il ruolo del polinomio pc (s) `e
stato adesso assunto dalla matrice (A sI).
Osservazione 10.1 Ricapitolando, abbiamo a disposizione due possibili modi di descrivere il comportamento di un sistema fisico: attraverso la matrice (10.3) e, qualora siano note, attraverso le
sue equazioni di stato. Nella letteratura, la forma (10.1) (o, equivalentemente, la terna di matrici
(A, B, C) che la definisce) viene anche detta una descrizione del sistema nel dominio del tempo.
Quando invece si fa uso della (10.4), si dice che il sistema `e rappresentato nel dominio della frequenza. In linea di principio, dovremmo aspettarci che ciascuna descrizione sia in grado di fornire
tutte le informazioni rilevanti che riguardano il comportamento del sistema. In una certa misura,
questa affermazione `e vera, ma il suo senso deve essere ben precisato.
La matrice T (s) definita dalla (10.3) si chiama matrice di trasferimento. Si noti che T (s) non
dipende dalle condizioni iniziali e quindi, per calcolarla, `e lecito assumere x0 = 0. Per i sistemi
SISO, per cui p = m = 1, la matrice di trasferimento si riduce ad un unico elemento. Si parla
allora, pi`
u propriamente, di funzione di trasferimento (questo termine era gi`a stato introdotto nel
caso particolare dei sistemi SISO definiti da equazioni differenziali di ordine n).
In linea di principio, `e possibile ottenere unespressione esplicita della matrice di trasferimento
facendo uso della (10.3): la difficolt`a principale consiste, naturalmente, nel calcolo dellinversa1 della
matrice (sI A). Per i nostri scopi, `e sufficiente la proposizione seguente2 .
1
2
(sI A)1 =
1
[(sn1 + a1 sn2 . . . + an1 )I + (sn2 + a1 sn3 + . . . + an2 )A + . . . + (s + a1 )An2 + An1 ]
pc (s)
(si veda per esempio H.H. Rosenbrock, State-space and multivariable Theory, Nelson 1970, pag. 12.)
121
Proposizione 10.1 Sia s un qualunque numero complesso che non sia un autovalore di A. Allora,
la matrice (sI A) `e invertibile, e si ha
(sI A)1 =
1
M (s)
pc (s)
(10.5)
dove pc (s) = sn + a1 sn1 + . . . + an `e, a meno del segno, il polinomio caratteristico di A e M (s) `e
una matrice i cui elementi sono polinomi di grado non superiore a n 1.
Dimostrazione Gli autovalori di A sono, per definizione tutti e soli i numeri complessi per cui A sI non
`e invertibile, ed `e ovvio che A sI `e invertibile se e solo se lo `e sI A. La (10.5) si deduce poi facilmente
ricordando la ben nota costruzione dellinversa basata sul calcolo dei complementi algebrici di una matrice.
x 1 = x1 x2 + u1
x 2 = x1 + u2
con funzione di osservazione y = (x1 + x2 )/2. Gli spazi degli ingressi, degli stati e delle uscite hanno
rispettivamente dimensione 2, 2, 1. Le matrici che definiscono il sistema sono
A=
1 1
1 0
B=
1 0
0 1
C = ( 1/2 1/2 ) .
sI A =
s1 1
1 s
1
s2 s + 1
s 1
1 s1
.
La matrice T (s) si riduce al vettore-riga
T (s) =
10.2
2(s2
1
(s + 1 s 2)
s + 1)
Propriet`
a della matrice di trasferimento
Dato in generale un sistema della forma (10.1), passiamo ora in rassegna alcune importanti propriet`a
della sua matrice di trasferimento T (s).
Propriet`
a1
Ciascun elemento di T (s) `e una funzione razionale propria della variabile s C, il cui denominatore `e un polinomio di grado non superiore ad n.
La Propriet`a 1 `e una immediata conseguenza della Proposizione 10.1.
122
Propriet`
a2
Sia 0 il massimo delle parti reali degli autovalori di A. Posto W ( ) = Ce A B si ha
T (s) = L[W (t)]
(10.6)
y(t) = C
Z t
0
tA
(t )A
Bu( ) d = C
Z t
0
e(t )A B( )ej d =
x + Bu
x
= A
y = Cx
(10.7)
un sistema linearmente equivalente a (10.1) (nel senso specificato nella Sezione 3.1.2). Allora,
(10.1) e (10.7) hanno la stessa matrice di trasferimento.
Infatti, se (10.1) e (10.7) sono linearmente equivalenti, vuol dire che esiste una matrice non
= P 1 B, e C = CP . Per calcolare la matrice di trasferimento
singolare P tale che A = P 1 AP , B
`
del sistema (10.7) applichiamo la solita procedura, considerando prima la parte differenziale. E
lecito, come sappiamo, supporre che il sistema sia inizializzato a zero. Si ha
(s) = P 1 AP X(s)
sX(s)
= AX(s)
+ BU
+ P 1 BU (s)
da cui
(sI P 1 AP )X(s)
= P 1 (sI A)P X(s)
= P 1 BU (s) .
Moltiplicando a sinistra per P si ricava dunque
X(s)
= P 1 (sI A)1 BU (s) .
123
Infine, si ottiene
Y (s) = C X(s)
= CP P 1 (sI A)1 BU (s) = C(sI A)1 BU (s) .
Propriet`
a4
T (s) dipende solo dalla parte completamente controllabile e completamente osservabile del sistema (10.1).
Per giustificare questultima affermazione, ricordiamo la decomposizione della Sezione 4.5.5, cui
il sistema pu`o essere ricondotto per mezzo di unequivalenza lineare. Ricordiamo anche che se la
matrice A ha una struttura triangolare a blocchi, lesponenziale etA presenta una struttura analoga.
Si calcola allora facilmente che W (t) = CetA B = C2 etA22 B2 (le notazioni sono quelle della Sezione
4.5.5).
Definizione 10.1 Supponiamo che ciascun elemento di T (s) sia stato ridotto ai minimi termini.
Si dice che il numero complesso s0 `e un polo di molteplicit`
a del sistema se:
1. il denominatore di almeno uno degli elementi di T (s) `e esattamente divisibile per (s so ) ;
2. non esiste nessun elemento di T (s) il cui denominatore `e esattamente divisibile per (sso )+1 .
In particolare, i poli del sistema sono punti del piano complesso in cui almeno uno degli elementi
della matrice T (s) non `e definito.
Propriet`
a5
Se s0 `e un polo di T (s) di molteplicit`
a , allora s0 `e un autovalore di A di molteplicit`
a algebrica
maggiore o uguale a .
La Propriet`a 5 discende direttamente dalla Proposizione 10.1. Come vedremo tra breve, pu`o
invece accadere che A abbia autovalori s0 che non sono poli di T (s).
Osservazione 10.2 Dalle Propriet`a 4 e 5 si evince che se s0 `e un polo di T (s) di molteplicit`a ,
allora s0 `e un autovalore di molteplicit`a algebrica maggiore o uguale a della matrice A22 della
parte completamente controllabile e completamente osservabile del sistema.
124
10.3
Nella sezione precedente abbiamo visto come si determina la matrice di trasferimento di un sistema,
a partire dalla rappresentazione (10.1). Occupiamoci adesso del problema inverso. Chiediamoci cio`e
come si possa risalire ad una rappresentazione (10.1), quando il sistema venga assegnato per mezzo
della sua matrice di trasferimento.
Definizione 10.2 Sia T (s) una matrice con p righe ed m colonne, i cui elementi sono funzioni
razionali proprie della variabile s C. Una terna di matrici (A, B, C) di dimensioni rispettivamente
n n, n m, p n si dice una realizzazione n-dimensionale di T (s) se T (s) `e la funzione di
trasferimento del sistema (10.1) definito per mezzo di tali matrici A, B, C.
Per illustrare le difficolt`a insite in questo problema, proponiamo due esempi.
Esempio 10.2 Si consideri il sistema SISO definito dalle equazioni
x 1 = x2
x = 2x1 + 3x2 + u
2
y = x1 x2 .
s2
1s
1s
1
=
=
.
3s + 2
(s 1)(s 2)
2s
Gli autovalori della matrice del sistema sono 1 e 2, mentre si ha un unico polo uguale a 2. Questo esempio mostra quindi come il numero dei poli possa essere effettivamente minore del numero
degli autovalori: ci`o va messo in relazione col fatto che nel calcolo della funzione di trasferimento
`e intervenuta una cancellazione tra fattori uguali che compaiono al numeratore e al denominatore. Osserviamo che il sistema in oggetto `e completamente controllabile ma non completamente
osservabile. Osserviamo anche che il sistema
x = 2x u
y=x
x 1 = u
x = x2
2
y = x1 + x2 .
sI A =
s
0
0 s1
125
1
s(s 1)
(sI A)1 =
s1
0
0
s
Con un ulteriore semplice calcolo si trova infine T (s) = 1s . Questa volta, il sistema dato `e
completamente osservabile, ma non completamente controllabile. La matrice di trasferimento `e la
stessa del sistema
x = u
y=x.
Gli Esempi 10.2 e 10.3 mostrano che sistemi con diversa rappresentazione nel dominio del tempo
possono avere la stessa funzione di trasferimento. Ci`o significa che in generale, il problema della
realizzazione pu`o avere pi`
u di una soluzione. Daltra parte, ci`o non `e sorprendente, se si tiene conto
della Propriet`a 4 secondo la quale la matrice di trasferimento dipende soltanto dalla parte completamente controllabile e completamente osservabile del sistema. Gli Esempi 10.2 e 10.3 suggeriscono
anche come la presenza di parti non completamente controllabili o non completamente osservabili
possa dar luogo alla cancellazione di fattori comuni presenti al numeratore e al denominatore di
qualche elemento della matrice di trasferimento e che, di conseguenza, in queste condizioni, possano
essere resi invisibili allosservatore esterno certe modalit`a di evoluzione dello stato.
Per distinguere tra diverse realizzazioni di una stessa T (s), sono utili le seguenti definizioni.
Definizione 10.3 Sia T (s) una matrice con p righe ed m colonne, i cui elementi sono funzioni
razionali proprie della variabile s C, che si suppongono ridotte ai minimi termini.
Una realizzazione (A, B, C) di T (s) si dice minima se il numero intero n (dimensione dello
spazio degli stati) `e il pi`
u piccolo possibile.
Una realizzazione (A, B, C) si dice canonica se il sistema (10.1) definito per mezzo di A, B, C
`e completamente controllabile e completamente osservabile.
Teorema 10.1 Sia T (s) una matrice con p righe ed m colonne, i cui elementi sono funzioni razionali proprie della variabile s C, che si suppongono ridotte ai minimi termini. Una realizzazione
di T (s) `e minima se e solo se `e canonica.
Dimostrazione Se la realizzazione (A, B, C) `e minima, allora deve essere completamente controllabile e
completamente osservabile. Questo `e facile da dimostrare. Infatti, in caso contrario, per la Propriet`a 5 la
parte completamente controllabile e completamente osservabile del sistema definito dalla terna (A, B, C)
costituirebbe unaltra realizzazione di T (s), con dimensione dello spazio degli stati strettamente minore.
Prima di provare il viceversa, ricordiamo che un sistema della forma (10.1) `e:
(1) completamente controllabile se e solo se la matrice
Z
(T ) =
eA BB t eA d
E(T ) =
eA C t CeA d
126
Procediamo per assurdo, supponendo che esista un sistema
x + Bu
x
= A
y = C x
( )A B
= Ce
A eA B
.
Ce A eA B = Ce( )A B = Ce
t
A eA BB
t eA
e A C t Ce A eA BB t eA = e A C t Ce
)=
t eA d.
dove E(T
e C Ce
d e (T
e
BB
0
0
La matrice E(T ) (T ) `e per ipotesi il prodotto di due matrici non singolari, quindi deve avere rango
) ha solo colonne, cos` come la matrice (T
) ha
massimo, cio`e uguale ad n. Daltra parte, la matrice E(T
solo righe. Quindi il loro prodotto avr`a, al massimo, rango < n. Lidentit`a (10.8) `e quindi assurda, e
lasserto `e provato.
127
B,
C)
Proposizione 10.3 Se (A, B, C) (con dimensione dello spazio degli stati uguale ad n) e (A,
(con dimensione dello spazio degli stati uguale ad n
) sono due realizzazioni canoniche di una stessa
matrice di trasferimento T (s), allora n = n
, e inoltre i sistemi definiti dalle terne (A, B, C) e
B,
C)
sono linearmente equivalenti.
(A,
Dimostrazione della Proposizione 10.2 Per la Propriet`a 1, la funzione di trasferimento, una volta ridotta
ai minimi termini, si presenta come
T (s) =
N (s)
D(s)
e il grado del polinomio D(s) `e non superiore a n. Se il grado di D(s) fosse strettamente minore di n, allora
T (s) ammetterebbe realizzazioni di dimensione minore (strettamente) di n, e ci`o contraddirrebbe le ipotesi
di completa controllabilit`a e completa osservabilit`a. Dunque il grado di D(s) deve essere esattamente uguale
a n. Ne segue che T (s) ha esattamente n poli (contando le eventuali molteplicit`a). Indichiamo con s1 , . . . , sk
i poli distinti di T (s), e con 1 , . . . , k le loro molteplicit`a, cosicche 1 + . . . + k = n. Per la Propriet`a 4,
ciascun si `e un autovalore di A, di molteplicit`a algebrica maggiore o uguale a i . Ma gli autovalori di A non
possono essere (sempre contando le molteplicit`a) pi`
u di n. Dunque, se ci fossero autovalori di A diversi da
s1 , . . . , sk oppure se qualcuno degli si avesse, in quanto aoutovalore di A, molteplicit`a strettamente maggiore
di i , si arriverebbe ad un assurdo.
10.4
Sistemi SISO
Concentriamo adesso la nostra attenzione sui sistemi SISO. Si ricordi che per un sistema SISO
m = p = 1 e la matrice di trasferimento si riduce ad un unico elemento, costituito da una funzione
razionale propria, detta funzione di trasferimento.
10.4.1
N (s)
c0 + c1 s + . . . + ck sk
= n
.
D(s)
s + a1 sn1 + . . . + an
(10.9)
Se k < n, T (s) `e propria, e quindi in base al Teorema 10.2 deve esistere una sua realizzazione.
La seguente proposizione indica come una realizzazione della (10.9) possa essere costruita, fornendo
cos`, sia pure limitatamente al caso SISO, una dimostrazione del Teorema 10.2.
Proposizione 10.4 Se k < n, il sistema
x 1 = x2
...
x
= xn
n1
(10.10)
x n = an x1 . . . a1 xn + u(t)
(10.11)
128
Dimostrazione
Il sistema (10.10) `e equivalente allequazione differenziale ordinaria a coefficienti costanti lineare di ordine
n
(n) + a1 (n1) + . . . + an1 0 + an = u(t)
(10.12)
avendo posto = x1 . Prendendo la trasformata di Laplace di entrambi i membri, con le abituali notazioni,
si ottiene
(s) =
1
U (s)
pc (s)
dove pc (s) = sn + a1 sn1 + . . . + an = D(s) coincide, eventualmente a meno del segno, col polinomio
caratteristico della matrice del sistema (10.10). Tenendo conto della (10.11), con semplici calcoli si trova
infine
Y (s) =
c0 + c1 s + . . . + ck sk
N (s)
U (s) =
U (s) = T (s)U (s) .
pc (s)
D(s)
Come si doveva dimostrare, T (s) coincide quindi con la funzione di trasferimento del sistema (10.10)(10.11).
Esempio 10.4 Consideriamo un sistema per cui linsieme degli ingressi ammissibili `e ristretto
alle funzioni u(t) di classe C k sullintervallo [0, +). Levoluzione del sistema sia governata da
unequazione lineare di ordine n
(n) + a1 (n1) + . . . + an1 0 + an = ck u(k) + . . . + c0 u
(10.13)
dove a1 , . . . , an , c0 , . . . , ck sono numeri reali, con n > k. Inoltre, si assume che luscita osservabile
coincida con lo stato . Tale modello, proprio a causa della presenza delle derivate dellingresso, a
prima vista non sembra rientrare nello schema (10.1).
129
Applicando loperatore L alla (10.13) si ottiene, a condizione che (0) = 0 (0) = . . . = (n1) (0) =
0 e che anche u(0) = u0 (0) = . . . = u(k) (0) = 0,
(sn + a1 sn1 + . . . + an )(s) = (ck sk + . . . + c0 )U (s)
cio`e
Y (s) = (s) =
ck sk + . . . + c0
U (s)
sn + a1 sn1 + . . . + an
dove, in accordo con lipotesi che m = p = 1, la matrice di trasferimento si riduce ad una funzione
scalare
T (s) =
sn
ck sk + . . . + c0
.
+ a1 sn1 + . . . + an
(10.14)
Si tratta di una funzione razionale propria (eventualmente non ridotta ai minimi termini) il
cui denominatore coincide (eventualmente a meno del segno) col polinomio caratteristico pc (s)
dellequazione omogenea associata alla (10.13).
Il sistema (10.13) pu`o quindi essere realizzato mediante unequazione del tipo (10.10) con
funzione di osservazione (10.11). Si noti che tale realizzazione `e completamente controllabile, ma
potrebbe risultare non completamente osservabile.
Nella modellizzazione dei sistemi fisici, casi in cui bisogna far comparire esplicitamente la
derivata dellingresso sono abbastanza frequenti.
10.4.2
Diagramma di Nyquist
Continuando a limitare lesposizione ai sistemi SISO, illustriamo adesso un criterio di natura grafica
che si applica alla funzione di trasferimento e che permette di riconoscere quando un dato sistema
ha la propriet`a di stabilit`a BIBO.
Osserviamo preliminarmente che, in virt`
u della Proposizione 10.2 e della Proposizione 5.5, per
un sistema del tipo SISO completamente controllabile e completamente osservabile le seguenti
affermazioni sono equivalenti:
i poli della funzione di trasferimento hanno tutti parte reale negativa
il sistema `e uniformemente BIBO-stabile.
Osservazione 10.4 Senza lipotesi che il sistema sia completamente controllabile e completamente
osservabile, lequivalenza tra queste asserzioni potrebbe venire a cadere. Per esempio, il sistema
x 1 = x1 + u
x = x
2
2
y = x1 + x2
130
Ricordiamo poi che se T (s) `e una funzione razionale, per zero di T (s) si intende ogni numero
s0 C tale che T (s0 ) = 0. Se T (s) `e la funzione di trasferimento di un sistema, gli zeri di T (s)
hanno un significato fisico, come illustra lesempio seguente.
Esempio 10.5 Consideriamo il sistema definito dalle equazioni
00
+ a1 0 + a2 = u(t)
y = c 0 ,
con condizioni iniziali (0) = 0 e 0 (0) = 00 . Supponiamo che c sia stato scelto in modo che
c2 + a1 c + a2 6= 0. Si verifica facilmente che per un tale c, il sistema risulta, oltre che completamente
controllabile, anche completamente osservabile. Applicando la trasformata di Laplace alla parte
differenziale e operando nel solito modo, si ottiene
(s) =
1
s0 + [a1 0 + 00 ]
U
(s)
+
.
s2 + a1 s + a2
s2 + a1 s + a2
cs
(c s)[s0 + (a1 0 + 00 )]
U
(s)
+
+ 0 .
s2 + a1 s + a2
s2 + a1 s + a2
(10.15)
s2
cs
.
+ a1 s + a2
Se scegliamo u(t) = ect , si ha U (s) = 1/(s c); nel primo addendo della (10.15) si ha una
semplificazione, ed eseguendo i calcoli si trova
Y (s) =
Sia ora T (s) una funzione razionale propria della variabile s C. Indichiamo con w = T (s) C
la variabile dipendente. I numeri complessi s possono essere immaginati come punti di un piano, nel
quale sia stato fissato un sistema di riferimento cartesiano di coordinate (Re s, Im s). Analogamente,
i numeri complessi w saranno immaginati in un piano riferito alle coordiante (Re w, Im w).
131
0.8
0.6
0.4
0.2
0.2
0.4
0.6
0.8
0.8
0.6
0.4
0.2
0.2
0.4
0.6
0.8
Re s = 2 + 2 cos t
Im s = 2 sin t .
Esempio 10.7 Sia T (s) = 1/(s 1)2 . Il tracciato della curva immagine secondo T della circonferenza
Re s = 1 + cos t
Im s = sin t
(Figura 10.2) d`a lillusione di una curva semplice chiusa: in realt`a, tale curva viene percorsa due
volte.
Sia data la curva s = (t) semplice e chiusa. Indichiamo con Z il numero degli zeri di T (s)
appartenenti a e con P il numero dei poli di T (s) appartenenti a . Supponiamo inoltre che sul
sostegno di (cio`e sul contorno di ) non vi siano ne zeri ne poli di T (s). Il seguente enunciato `e
un risultato classico della teoria delle funzioni complesse di variabile complessa.
Principio dellargomento Sia N il numero di volte che la curva (t) gira attorno allorigine
in senso antiorario, mentre il sostegno di viene percorso una volta in senso antiorario. Allora,
N = Z P.
Definizione 10.4 Il Diagramma di Nyquist di una funzione razionale propria T (s) `e il sostegno
della curva w = T ((t)) = (t), quando (t) = i t (t R).
132
1
0.8
0.6
0.4
0.2
0
0.2
0.4
0.6
0.8
1
0.8
0.6
0.4
0.2
0.2
0.4
0.6
0.8
10.4.3
Stabilizzabilit`
a BIBO
Sempre con riferimento ad un sistema SISO, vediamo adesso come il criterio di Nyquist pu`o essere
utile nella determinazione di retroazioni statiche delluscita atte a rendere uniformemente BIBOstabile un sistema dato.
Indicando, come al solito, con u R la variabile in ingresso e con y R la variabile in uscita,
cominciamo a vedere come cambia la funzione di trasferimento quando allingresso esterno u viene
sottratta una retroazione del tipo ky (il coefficiente k viene abitualmente chiamato guadagno; la
scelta del segno meno `e puramente convenzionale).
u- d v + 6
T (s)
- d y-
Sia T (s) la funzione di trasferimento rappresentativa di un sistema dato, che supponiamo completamente controllabile e completamente osservabile. Poniamo v = u ky. Facendo riferimento
alla figura, si ha
Y (s) = T (s)V (s) = T (s)(U (s) kY (s))
da cui
133
T (s)
1
U (s) =
1 + kT (s)
k
1
k
T (s)
U (s)
+ T (s)
1 N (s)
D(s) + kN (s)
+
=
.
k
D(s)
kD(s)
N (s)
D(s)
N (s)
1
=
.
N (s)
D(s) + kN (s)
1+k
D(s)
Inoltre, `e immediato osservare che i poli di H(s) coincidono con i poli di T (s). Il principio
dellargomento, applicato alla funzione razionale H(s), ci dice quindi che:
numero di poli di G con parte reale positiva = numero di poli di T con parte reale positiva +N
dove N indica il numero di giri che la curva H(i t) compie in senso antiorario attorno allorigine
quando t varia da a +.
Daltra parte, `e chiaro che N rappresenta il numero di giri che la curva T (i t) compie in
senso orario attorno al punto del piano complesso di coordinate ( k1 , 0), quando t varia da a
+.
Possiamo allora trarre la seguente conclusione.
Proposizione 10.5 La retroazione statica delluscita ky stabilizza in senso BIBO il sistema definito dalla funzione di trasferimento T (s) se il numero di giri che il diagramma di Nyquist di T
compie in senso orario attorno al punto ( k1 , 0), quando t varia da a + `e uguale al numero
dei poli instabili del sistema dato.
Nelle applicazioni pratiche, si traccer`a il diagramma di Nyquist della funzione di trasferimento
del sistema dato, e poi si andr`a a vedere se esiste k che soddisfa la condizione richiesta.
134
Capitolo 11
Controllo ottimo
Consideriamo un sistema lineare
x = Ax + Bu
(11.1)
dove x Rn e u Rm . Siano x
I , x
F Rn e supponiamo che x
F sia un punto raggiungibile da x
I .
In generale, dobbiamo aspettarci che il traferimento dello stato del sistema da xI a x
F possa essere
realizzato in molti modi diversi.
Esempio 11.1 In R2 , consideriamo il sistema
x 1 = u1
x 2 = u2 .
(11.2)
Il punto x
I = (1, 1) pu`o essere trasferito nellorigine x
F = (0, 0):
(a) usando il controllo costante u1 = 1, u2 = 1, in tempo T = 1;
(b) usando il controllo
(u1 , u2 ) =
(1, 0) se 0 t < 1
(0, 1) se 1 t 2
in tempo T = 2.
Ovviamente, sono possibili anche altre (infinite) strategie.
Un problema di controllo ottimo si formula introducendo un criterio che ci permetta di assegnare
un costo o un guadagno a ogni funzione di controllo. Risolvere il problema di controllo ottimo
significa determinare quei controlli che minimizzano il costo (o massimizzano il guadagno) tra tutti
quelli che trasferiscono il sistema dallo stato in cui si trova allistante iniziale nello stato desiderato.
Per esempio, nel caso dellesempio precedente, se il criterio adottato `e quello di minimizzare il tempo
necessario ad effettuare il trasferimento da x
I a x
F , la strategia (a) `e chiaramente preferibile alla
strategia (b). Se invece si vuole minimizzare un costo espresso convenzionalmente dalla quantit`
a
C=
Z T
0
(u1 + u2 )2 dt
135
136
allora conviene scegliere la strategia (b), perche con questa C = 2, mentre con la strategia (a)
C = 4.
Un problema di controllo ottimo dipende dalle matrici A, B che definiscono il sistema, ma anche
e soprattuto dal tipo di criterio che viene adottato. In questo capitolo ci limiteremo a due problemi
particolarmente importanti: il problema del tempo minimo e il problema del regolatore quadratico.
Tornando allEsempio 11.1, c`e ancora unimportante osservazione da fare. Se si utilizza il controllo costante u1 = k, u2 = k con k numero positivo, il tempo necessario per trasferire xI in
x
F diventa T = 1/k, che tende a zero al crescere di k. Pertanto, se non ci sono limitazioni sui
valori che il controllo pu`o assumere, la soluzione del problema di tempo minimo diventa banale.
Daltra parte, nelle applicazioni limplementazione di una funzione di controllo richiede limpiego di
energia, e quindi lassenza di vincoli sugli ingressi non `e unipotesi plausibile. Queste considerazioni
suggeriscono lopportunit`a di litare, nellimpostazione di un problema di ottimizzazione, linsieme
+, U ), dove U `e un sottoinsieme proprio di Rn , non
degli ingressi ammissibili allinsieme C(0,
vuoto e, in generale, limitato.
11.1
Raggiungibilit`
a in presenza di vincoli
Limportanza del ruolo che assume linsieme U dei vincoli imposti sui valori degli ingressi ammissibili
in un problema di ottimizzazione, comporta la necessit`a di ritornare sulla nozione di raggiungibilit`a
gi`a studiata nel Capitolo 7 limitatamente al caso U = Rm (assenza di vincoli).
Dati due stati x
I , x
F , diremo adesso che x
F `e raggiungibile da x
I al tempo T > 0 con controlli
+, U ) tale che x(T, xI , u()) = xF , e indicheremo
vincolati ad U se esiste un ingresso u() C(0,
con R(T, xI , U ) linsieme raggiungibile del sistema (11.1), ovvero linsieme di tutti gli stati che sono
raggiugibili da xI al tempo T , quando si ammettono solo controlli vincolati ad U .
Le propriet`a geometriche di R(T, x0 , U ) verranno a dipendere adesso non pi`
u solo dalle matrici
A e B, ma anche dallinsieme U . Per esempio, non sar`a pi`
u vero in generale che R(T, 0, U ) `e un
sottospazio di Rn . Di conseguenza, `e necessario prendere in considerazione una maggiore variet`
a
di nozioni di raggiungibilit`a, oltre a quelle gi`a introdotte nel Capitolo 7.
Definizione 11.1 Un sistema della forma (11.1), con insieme di vincoli U , si dice:
x, u R,
con vincoli sulle funzioni di controllo |u(t)| u0 , dove u0 R+ `e assegnato. Risolvendo lequazione,
per t 0 si ha
x(t) = et x0 +
e quindi
Z t
0
e(t ) u( ) d
137
et x0
Z t
0
e(t ) u0 d x(t) et x0 +
Z t
0
e(t ) u0 d
cio`e
et (x0 u0 ) + u0 x(t) et (x0 + u0 ) u0
e infine
et x0 (et 1)u0 x(t) et x0 + (et 1)u0 .
Chiaramente, il sistema `e accessibile e localmente raggiungibile lungo la soluzione libera, qualunque siano x0 e u0 (tenere presente che per t 0, et 1 0).
si veda R. Conti, Processi di controllo lineari in Rn , Pitagora Editrice Bologna 1985 (quaderni UMI 30)
138
Dimostrazione Sia S una sfera di centro lorigine e raggio r contenuta nellinterno di U . Poiche il sistema
`e completamente controllabile, per ogni versore ei appartenente alla base canonica di Rn esiste un controllo
ui (t) : [0, T ] Rm che permette di raggiungere ei dallorigine in tempo T . I controlli ui (t) non rispettano
necessariamente i vincoli per`o, essendo funzioni continue a tratti su [0, T ], esiste M > 0 tale che
|ui (t)| < M
t [0, T ], i = 1, . . . , n .
r
Poiche il sistema `e lineare, i controlli u
i (t) = M
ui (t) permettono di raggiungere dallorigine in tempo T
i che costituiscono comunque una base di Rn . Questi nuovi controlli u
n vettori e
i (t) rispettano i vincoli.
Sempre in virt`
u della linearit`a, usando i controlli
ui (t) si raggiungono i punti
ei . Lasserto `e provato,
in quanto R(T, 0, U ) `e convesso.
11.2
Conveniamo, senza ledere la generalit`a del problema, che lo stato in cui si desidera che il sistema si
trovi al termine del processo sia lorigine: poniamo cio`e xF = 0. Indichiamo quindi semplicemente
con x
lo stato in cui il sistema si trova inizialmente (cio`e al tempo t = 0).
Indichiamo con D(
x) linsieme delle terne (T, u(), x()) tali che:
1. T `e un numero positivo;
2. u(t) : [0, +) U `e un ingresso ammissibile (cio`e continuo a tratti e continuo a destra);
3. x(t) = x(t, x
, u()) `e la soluzione di (11.1) uscente da x
e corrispondente allingresso u(t);
4. x(T ) = 0.
139
Si noti che x() `e univocamente determinata da x
e u(). Se lorigine `e raggiungibile da x
a
qualche istante T (0, +), cio`e se 0 R(T, x
, U ), allora D(
x) `e certamente non vuoto.
Sia f0 (x, u) : Rn Rm R una funzione continua, data una volta per tutte. Siamo interessati
allo studio dei valori minimi assunti dallespressione
J(T, x
, u()) =
Z T
0
f0 (x(t), u(t)) dt
(11.3)
11.3
Il problema del tempo minimo consiste nel determinare, per ogni punto x trasferibile nellorigine,
quei controlli (ammesso che esistano) che permettono di effettuare il trasferimento da x a zero nel
minimo tempo possibile. Il problema del tempo minimo rientra nella forma generale introdotta
nella sezione precedente: infatti, scegliendo f0 1, si ha J(T, x
, u()) = T .
Come lascia intendere lesempio seguente, perche il problema abbia senso, conviene supporre
che U sia un sottoinsieme limitato di Rm .
Esempio 11.3 Consideriamo il semplice processo scalare x = u. Se non si impongono vincoli sui
valori di u, il trasferimento di un punto qualunque nellorigine pu`o essere effettuato in tempo arbitrariamente piccolo (infatti, aumentare |u| equivale ad aumentare la velocit`a e quindi a diminuire
il tempo necessario ad effettuare un certo spostamento). Se invece si pone 1 u 1, allora il
tempo minimo necessario per trasferire nellorigine un punto x `e esattamente uguale a |
x|.
Se una terna ottima (T , u (), x ()) D(
x) esiste, allora
T = T (
x) = min{T : 0 R(T, x
, U )} .
Pi`
u in generale, se lorigine `e raggiungibile da x
, possiamo definire T (
x) come
T (
x) = inf{T : 0 R(T, x
, U )} .
(11.4)
La (11.4) si chiama funzione di tempo minimo. Il problema del tempo minimo relativo al punto
x
ammette soluzioni se e solo se nella (11.4) il simbolo inf pu`o essere sostituito dal simbolo min,
cio`e se e solo se 0 R(T , x
, U ).
140
Teorema 11.2 (Esistenza dei controlli ottimi per il problema del tempo minimo) Sia x
un punto
trasferibile nellorigine. Sotto le seguenti ipotesi:
(i) U `e un sottoinsieme compatto di Rm ;
(ii) lorigine di Rm `e un punto interno ad U ;
(iii) il sistema (11.1) `e completamente controllabile (in assenza di vincoli);
esiste una terna ottima (T , u (), x ()) D(
x).
Non daremo una dimostrazione completa del Teorema 11.2, la quale richiede tra laltro, per
essere portata a termine in tutta la sua generalit`a, una estensione non banale del concetto di
ingresso ammissibile. Ci limiteremo ad elencare e commentare una serie di fatti (in parte gi`a noti
allo studente, in parte no) che, opportunamente combinati, portano alla conclusione.
Fatto 1. Nelle ipotesi del Teorema 11.2, x
`e un punto interno allinsieme R(T, x
, U ), per ogni T > 0
e ogni x
.
Segue facilmente dal Teorema 4.5 (Capitolo 4).
Fatto 2. Nelle ipotesi del Teorema 11.2, linsieme R(T, x
, U ) `e convesso per ogni T > 0 e ogni x
.
Si veda la Proposizione 4.3 (Capitolo 4).
Fatto 3. Nelle ipotesi del Teorema 11.2, linsieme R(T, x
, U ) `e compatto per ogni T > 0 e ogni x
.
Questo risultato richiede luso di metodi avanzati di Analisi Funzionale.
bB
Rn ,
0
/ R(T , x
, U ). Poich`e R(T , x
, U ) `e compatto, la distanza
dist(0, R(T , x
, U ))
`e strettamente positiva. Per la dipendenza continua di R(t, x
, U ) rispetto a t, deve quindi esistere un tempo
> 0 tale che
0
/ R(T, x
, U )
per ogni T < T + . Ci`o contraddice laffermazione precedente.
141
Una volta accertata lesistenza di terne ottime, si pone il problema di caratterizzarle. A tal fine
`e utile la seguente condizione necessaria.
Teorema 11.3 (Principio di massimo di Pontrjagin per il problema del tempo minimo) Supponiamo che valgano le ipotesi del Teorema 11.2. Sia x
un punto trasferibile nellorigine e sia
(T , u (), x ()) D(
x) una terna ottima per x
. Allora, esiste un soluzione (t) 6= 0 dellequazione
= A
(11.5)
(11.6)
tale che
uU
u (t) =
1
se (t)B > 0
1 se (t)B < 0 .
Il numero delle discontinuit`a di u dipende da quante volte cambia segno lespressione (t)B.
Osservazione 11.3 Grazie al Teorema 11.3, il problema del tempo minimo per il sistema (11.1)
potrebbe ritenersi completamente risolto se vi fosse un modo di associare ad ogni punto x le
opportune costanti di integrazione che permettono di selezionare, tra tutte le soluzioni di (11.5),
proprio la . Sfortunatamente, non si hanno indicazioni di carattere generale su come affrontare in
pratica questo problema. Ci`o nonostante, le informazioni sin qui raccolte sono comunque sufficienti,
in molti casi, a determinare esplicitamente i controlli ottimi (si veda il successivo Esempio 8.3).
Osservazione 11.4 Il Principio di massimo di Pontrjagin, benche venga qui enunciato solo con
riferimento ai sistemi lineari e per un problema specifico, `e un principio di carattere molto generale,
atto a caratterizzare le soluzioni di problemi di ottimizzazione quando le funzioni incognite sono
vincolate a prendere valori in un insieme compatto.
Il Principio di massimo di Pontrjagin per il problema del tempo minimo per i sistemi lineari
ammette una dimostrazione relativamente semplice, basata sui fatti precedentemente esposti e sulla
Proposizione seguente.
142
Proposizione 11.3 Supponiamo che valgano le ipotesi del Teorema 11.2 e sia x
un punto trasfe
(11.7)
Dimostrazione Supponiamo per assurdo che esista un tempo t [0, T ] tale che
x (t) R(t, x
, U ) .
Per la dipendenza continua di R(t, x
, U ) rispetto a t, esiste t < t tale che
x (t) R(t, x
, U ) .
Sia u
(t) un controllo tale che x(t, x
, U ) = x (t). Costruiamo un nuovo controllo
u
(t)
per t [0, t]
u(t) =
0 R(T, x
, U ) R(T , x
, U )
contrariamente allipotesi.
Le terne che soddisfano la (11.7) si chiamano estremali. La Proposizione 11.3 stabilisce quindi
che una terna `e ottima se e solo se `e estremale. Abbiamo ancora bisogno di una semplice propriet`a
degli insiemi convessi. Se K Rn `e convesso e se x K, allora esiste un iperpiano (variet`
a
lineare di dimensione n 1) passante per x e che gode della propriet`a seguente: linterno di K
giace interamente in una delle due met`a dello spazio individuate da . Il vettore unitario 0 6= 0
ortogonale a , uscente da x e orientato verso la met`a dello spazio che non contiene K si dice una
normale esterna a K in x. Un insieme convesso K pu`
o avere, in certi punti della sua frontiera, pi`
u
normali esterne distinte.
Si ricordi linterpretazione geometrica del prodotto scalare: se v1 e v2 sono due vettori, allora
` allora chiaro che per un convesso
v1t v2 `e la lunghezza della componente di v2 nella direzione di v1 . E
K, se x K e se 0 `e una normale esterna a K in x, che conveniamo di scrivere come vettore-riga,
si ha
0 x = max 0 y .
yK
x (T ) = 0 .
Per la Proposizione 11.3, la terna (T , x (), u ()) `e estremale e quindi esiste una normale esterna 0 6= 0
allinsieme R(T , x
, U ) nellorigine. Ne segue
0 = 0 x (T ) =
max
yR(T ,
x,U )
0 y .
143
Questultima si riscrive
"
0 = 0 e
T A
x
+
(T s)A
"
Bu (s) ds 0 e
Z
T A
x
+
(T s)A
Bu(s) ds
per ogni altro controllo u(t) : [0, T ] U . Semplificando e portando tutto a primo menbro, si ottiene
Z
0 e(T
s)A
Si riconosce nella funzione (t) = 0 e(T t)A una soluzione non nulla dellequazione (11.1).
Supponiamo ora che il Principio di massimo sia falso. Comunque sia stata scelta (t), dovrebbe esistere
un punto t [0, T ] ed un valore u
U tali che:
(1) u (t) `e continua in t
(2) (t) B[u (t) u
] < 0
Per la (2), e per la permanenza del segno, ci sarebbe allora un intorno (t , t + ) con > 0, tale che
la funzione
t 7 (t)B[u (t) u
]
`e negativa per t (t , t + ). Definiamo allora una funzione di controllo
se t (t , t + )
u
(t) =
u (t)
altrimenti,
e sia x
(t) la relativa traiettoria uscente da x
. Sia y = x
(T ). Chiaramente, si ha
n
per t (t , t + )
(t)B[u (t) u
(t)] < 0
=0
altrimenti
cos` che
Z
Z
(s)B[u (s) u
(s)] ds =
0 e(T
s)A
B[u (s) u
(s)] ds < 0
cio`e
Z
Z
0 e(T
s)A
Bu (s) ds <
0 e(T
s)A
Bu
(s) ds .
x
, si ha
0 = 0 x (T ) < 0 y
in contraddizione con quanto trovato in precedenza.
x 1 = x2
x 2 = u ,
1 u 1 .
(11.8)
144
4
10
10
1 = 0
2 = 1 .
(11.9)
u (t) =
1
se c2 c1 t > 0
1 se c2 c1 t < 0 .
che deve valere per ogni controllo ottimo. Ora, lespressione 2 = c2 c1 t cambia segno al pi`
u
una volta. I controlli ottimi dunque o sono continui oppure hanno ununica discontinuit`
a. Inoltre,
assumono solo i valori 1. Ci`o significa che ogni traiettoria ottima `e composta al pi`
u da due tratti,
di cui uno `e descritto da una soluzione del sistema
x 1 = x2
x 2 = 1
(11.10)
x 1 = x2
x 2 = 1.
(11.11)
I sistemi (11.10) e (11.11) possono essere risolti, e le relative traiettorie disegnate nel piano
x1 x2 . Per quanto riguarda (11.10) si ha:
2
2
x1 = (t + k2 ) k2 + k1
2
2
x 2 = t + k2
145
e cio`e
x1 =
x22
+ costante
2
2
2
x1 = (k2 t) + k + k1
2
2
x 2 = k2 t
cio`e
x1 =
x22
+ costante.
2
Si vede allora che gli unici punti che possono essere trasferiti allorigine con controllo continuo
sono quelli che si trovano o sul ramo di parabola 2x1 = x22 , x2 < 0 (con u = +1) oppure quelli che
si trovano sul ramo di parabola 2x1 = x22 , x2 > 0 (con u = 1). In tutti gli altri casi il controllo
ottimo presenta una discontinuit`a e precisamente: u vale prima +1 e poi 1 per i punti del piano
che si trovano nella zona
n
o n
o
mentre vale prima 1 e poi +1 nella parte rimanente del piano. La Figura 8.1 mostra la configurazione delle traiettorie ottime.
11.4
Z +
0
f0 (x(t), u(t)) dt
(11.12)
146
Definizione 11.3 Si dice che la coppia (u (), x ()) E(
x) `e ottima se in corrispondenza di tale
coppia lintegrale improprio che definisce il funzionale (11.12) converge, e inoltre
J(
x, u ()) J(
x, u())
per ogni altra coppia (u(), x()) E(
x).
11.5
Regolatore quadratico
Facciamo sempre riferimento al sistema lineare (11.1), questa volta con U = Rm . Nella sua versione
pi`
u semplice, il problema del regolatore quadratico sullorizzonte infinito consiste nel minimizzare
il funzionale
J(
x, u()) =
Z +
0
||x(t)||2 + ||u(t)||2 dt
(11.13)
(11.14)
x = (A + BF )x
x(0) = x
converge a zero esponenzialmente. Ma x(t) coincide ovviamente con la soluzione del problema
x = Ax + Bux (t)
x(0) = x
147
dove si `e definito ux (t) = F x(t). Dunque (x(t), ux (t)) E(
x), e inoltre anche ux (t) converge a zero esponenzialmente. Dalla convergenza esponenziale dei due addendi segue subito la convergenza dellintegrale
(11.14).
Una volta che ci siamo assicurati della convergenza dellintegrale nella (11.13), possiamo procedere nello studio del problema del regolatore quadratico, che consiste nellindagare lesistenza di
coppie ottime e sviluppare metodi per la loro caratterizzazione.
Nelle ipotesi della Proposizione 11.4, faremo vedere che per ogni x Rn la coppia ottima esiste
ed `e unica. Mostreremo anche che il controllo ottimo si pu`o rappresentare in forma di retroazione,
e che tale retroazione `e stabilizzante per il sistema dato.
Osservazione 11.5 Introduciamo la notazione
V (
x) = inf J(
x, u())
dove lestremo inferiore `e preso rispetto a tutte le coppie (x(), u()) E(
x). Come nel caso del
problema del tempo minimo, provare lesistenza di soluzioni equivale a mostrare che il simbolo
inf pu`o essere sostituito col simbolo min. Pi`
u avanti faremo anche vedere che V (
x) `e una
funzione quadratica, e che pu`o essere usata come funzione di Liapunov per il sistema che si ottiene
applicando, a meno di un coefficiente moltiplicativo, la retroazione stabilizzante ottima.
Ricordiamo dal Capitolo 6 (Teorema 9.7) che (11.1) `e stabilizzabile se e solo se esiste una
soluzione P simmetrica e definita positiva dellequazione matriciale algebrica di Riccati
At P + P A P BB t P = I .
(11.15)
x = Ax BB t t
= xt A
(11.16)
t+
t+
(11.17)
Dimostrazione Sia P una soluzione dellequazione matriciale (11.15), e sia x(t) la soluzione del sistema
x = Ax BB t P x
(11.18)
(t) = x(t)t P
(11.19)
e verifichiamo che (x (t), (t)) risolve il sistema (11.16). La prima equazione `e certamente soddisfatta:
infatti, tenuto conto della definizione di , essa si riduce alla (11.18). Per quanto riguarda la seconda,
utilizziamo la (11.15):
148
= x t P = (Ax BB t P x)t P = xt At P xt P BB t P = xt xt P A = (x )t A .
Il fatto che limt+ x (t) = 0 lo si deduce dal Teorema 9.7 del Capitolo 6. Il fatto che anche (t) tenda
a zero per t + lo si deduce di conseguenza dalla seconda delle (11.19).
La variabile che compare nel sistema (11.16) ha qualche analogia con quella, indicata con
la stessa lettera, utilizzata nel problema del tempo minimo: per questa ragione, anche in questo
problema, prende il nome di variabile aggiunta e viene trattata come vettore-riga.
Osservazione 11.6 Lenunciato del Teorema 9.7 richiamato pocanzi, afferma pi`
u precisamente
t
che il sistema (11.1) viene stabilizzato da ogni retroazione u = F x, con F = B P e 12 . La
retroazione utilizzata nella dimostrazione del Lemma 11.1 `e di questa forma, con = 1. Il Teorema
seguente afferma che questa retroazione, con = 1, oltre a stabilizzare il sistema formisce anche la
soluzione del problema del regolatore quadratico.
Teorema 11.4 Supponiamo che E(
x) sia non vuoto per ogni x
Rn . Allora, qualunque sia x
Rn ,
fra tutte le coppie del tipo (u(), x()) E(
x) ne esiste una (e una sola) che rende minimo (e finito)
il funzionale (11.13). Per ogni x
, il controllo ottimo ha la forma
u (t) = B t P x (t)
dove P `e una soluzione definita positiva della (11.15), e pu`
o quindi essere espresso in forma di
retroazione.
Dimostrazione Fissiamo x
, e sia (x (t), (t)) la soluzione del sistema (11.16) soddisfacente alle condizioni
(t) =
(||x(s)||2 + ||u(s)||2 ) ds .
Indichiamo in particolare
Z
(t) =
149
J(
x, u()) = lim (t) J(
x, u ()) = lim (t) .
t+
t+
h (t) =
(t)
(t)x (t) .
2
dh(t)
(t)
(t)
=
(t)x(t) (t)x(t)
+ (x (t))t x(t) + (t)Ax(t) (t)Ax(t) (t)Bu(t) .
=
dt
2
2
Semplificando e integrando, si ottiene
(t)
h(t) h(0) =
+
2
ovvero
h(t) + (0)
x=
Z t
||x(s)||2
||u(s)||2
+ (x (s))t x(s) +
(s)Bu(s)
ds .
2
2
1 t
h (t) + (0)
x=
||x (s)||2 + || (s)B||2 ds .
2 0
(11.20)
(11.21)
Torniamo alla (11.20). Completando il quadrato, il secondo addendo che compare nellintegrale si pu`o
riscrivere come
||u(s)||2
(s)Bu(s)
2
1
u(s) + B t ( (s))t u(s) + B t ( (s))t +
2
t
1 t
+ B ( (s))t B t ( (s))t =
2
1
(|| (s)B||2 ||u(s) + B t ( (s))t ||2 ) .
2
Qualunque sia s, evidentemente questultima espressione assume il valore massimo unicamente quando
u(s) = u (s) = B t ( (s))t . In particolare
Z t
Z
||u(s)||2
1 t
(s)Bu(s) ds
|| (s)B||2 ds .
2
2 0
0
Per quanto riguarda il primo addendo che compare nellintegrale (11.20), possiamo sfruttare la relazione
0 ||x(s) x (s)||2 = (x(s) x (s))t (x(s) x (s)) = ||x(s)||2 2(x(s))t x (s) + ||x (s)||2
per ricavare la maggiorazione
Z t
Z
||x(s)||2
1 t
+ (x (s))t x(s) ds
||x (s)||2 ds .
2
2 0
150
per ogni coppia del tipo (x(), u()) E(
x). Semplificando e passando al limite, per il teorema del confronto
si deduce
lim h(t) lim h (t)
t+
t+
t+
t+
H(t) H(0) =
||x (s)||2 + ||u (s)||2 ds .
0
Passando al limite per t +, nelle nostre ipotesi x (t), e quindi anche H(t), tende a zero. Dunque,
Z +
t
H(0) = x
Px
= V (
x) =
||x (t)||2 + ||u (t)||2 dt .
0
Osservazione 11.7 Si verifica facilmente che V (x) = xt P x `e una funzione di Liapunov per il
sistema che si ottiene da (11.1) applicando la retroazione u = 12 B t P x.
Appendici
151
152
A.1
Spazi vettoriali
Sia K = R oppure C. Uno spazio vettoriale V su K `e un insieme di elementi per i quali sono
definite unoperazione di somma, che associa ad ogni coppia v1 , v2 V un elemento v1 + v2 V e
unoperazione di prodotto per scalari, che associa a ogni coppia k K, v V un elemento kv V .
Tali operazioni rispettano le usuali propriet`a algebriche: in particolare esiste un elemento 0 V
tale che v + 0 = v e k 0 = 0 per ogni v e k.
Gli elementi di V si chiamano vettori (talvolta, anche se impropriamente, punti); lelemento 0
si chiama vettore nullo (o anche origine).
Un sottospazio W di V `e un sottoinsieme non vuoto W V tale che w1 , w2 W w1 + w2
W e w W, k K kw W . Ovviamente ogni sottospazio W di V contiene lorigine.
Esempi di spazi vettoriali su R sono Rn , linsieme M (n, m) di tutte le matrici reali con n righe
e m colonne, linsieme C 0 (I, Rn ) di tutte le funzioni continue x(t) : I Rn . Un esempio di spazio
vettoriale su C `e Cn .
Se q < n, linsieme {x = (x1 . . . xn ) Rn : xq+1 = . . . = xn = 0} `e un sottospazio di Rn . Se
a1 , . . . , an sono numeri fissati, linsieme
{x Rn : a1 x1 + . . . + an xn = 0}
`e un sottospazio di Rn . Linsieme C 1 (I, Rn ) delle funzioni dotate di derivata continua su I `e un
sottospazio di C 0 (I, Rn ). Se si identifica Rn con linsieme di tutti i vettori z Cn della forma
z = x + i0 con x Rn , allora Rn non `e un sottospazio di Cn .
Sia W V un sottospazio (non `e escluso che W = V ). Un sottoinsieme A V si dice un
sistema di generatori di W se ogni v W si pu`o scrivere come combinazione lineare di un numero
finito di elementi di A, ovvero v =
n
X
ki vi , per certi vi A e ki K
i=1
(i = 1, . . . , n).
Sia B = {v1 , . . . , vn } un sottoinsieme finito di V . Si dice che gli elementi di B sono linearmente
dipendenti se esistono scalari a1 , . . . , an K non tutti nulli tali che
n
X
ai vi = 0 .
i=1
153
154
Per esempio, due vettori v1 e v2 non nulli sono linearmente dipendenti se e solo se k K :
v1 = kv2 .
Un sottoinsieme A V si dice formato da vettori linearmente indipendenti se non esiste nessun
sottoinsieme finito di A i cui elementi siano linearmente dipendenti.
Un sottoinsieme A V che sia costituito da vettori linearmente indipendenti e che sia anche
un sistema di generatori di V , si dice una base. Se esiste una base formata da un numero finito n di
elementi, si dice che V ha dimensione finita e si scrive dim V = n. Una base di Rn `e per esempio
costituita dalle n-ple di numeri
1
0
.. ,
.
0
0
1
.. , . . . ,
.
0
0
..
.
che `e spesso uso scrivere come colonne. Tale base si chiama la base canonica di Rn .
Sia V uno spazio di dimensione finita, e sia = {v1 , . . . , vn } una sua base. Per ogni v V ,
restano univocamente determinati n scalari x1 , . . . , xn K tali che v =
dicono le componenti di v nella base . Si scrive anche
n
X
xi vi . Tali scalari si
i=1
x1
..
v= . .
xn
I vettori xi vi V si dicono anche i componenti di v; il vettore v viene quindi decomposto in modo
unico mediante vettori paralleli ai vettori della base. Si noti che se v V , linsieme {w : w = kv
per k K} `e un sottospazio unidimensionale di V .
Pi`
u in generale, dato un numero finito di sottospazi V1 , . . . , Vq di V , si dice che questi costituiscono una decomposizione in somma diretta di V se v V e i = 1, . . . , q resta univocamente determinato un elemento wi Vi in modo che
q
X
i=1
wi = v. Si scrive anche v =
wi . Il componente
i=1,...,q
A.2
Applicazioni lineari
155
dalle componenti di v. Viceversa data una matrice A con n righe e m colonne, e fissate delle basi
per V e W , resta univocamente determinata unapplicazione lineare L di V in W .
Lapplicazione identica di V in se `e associata alla matrice identica, ossia alla matrice quadrata
i cui elementi sono tutti nulli tranne quelli della diagonale principale che sono tutti uguali a 1. La
matrice identica si indica, usualmente, con la lettera I.
Se L `e unapplicazione lineare di V in W , linsieme
ker L = {v V : Lv = 0}
si chiama nucleo di L ed `e un sottospazio di V , mentre linsieme
im L = {w W : w = Lv per qualche v V }
si chiama limmagine di L ed `e un sottospazio di W . In generale,
dim ker L + dim im L = dim V .
Se V1 , . . . , Vq costituiscono una decomposizione in somma diretta di V allora per ogni i, lapplicazione i che associa a ogni v la sua proiezione wi Vi `e un endomorfismo di V . Endomorfismi
di questo tipo si dicono operatori di proiezione.
Se = {v1 , . . . , vn } e 0 = {v10 , . . . , vn0 } sono due basi di V , uno stesso vettore v sar`
a rappresen0
0
tato da certe componenti x1 , . . . , xn nella base , e da certe componenti x1 , . . . , xn nella base 0 .
La relazione che lega le componenti di uno stesso vettore in basi diverse non dipende dal vettore
ma solo dalle basi scelte. Essa `e rappresentata per mezzo di una matrice non singolare P . Pi`
u
0
precisamente, fissate le basi e esiste una matrice P con det P 6= 0 tale che
x01
x1
..
..
. =P .
xn
x0n
qualunque sia il vettore v V . Tale matrice P `e quella le cui colonne sono costituite, ordinatamente,
dalle componenti dei vettori della base 0 nella base . Posto infatti vi0 = p1i v1 + . . . + pni vn e
v = x01 v10 + . . . + x0n vn0 , si ha
v = x01 (p11 v1 + . . . + pn1 vn ) + . . . + x0n (p1n v1 + . . . + pnn vn ) =
=
(p11 x01
+ ... +
= x1 v1 + . . . + xn vn .
+ ... +
(pn1 x01
+ ... +
(A.1)
(A.2)
(A.3)
156
A.3
Matrici
Si ricorda che due matrici quadrate A e B si dicono simili quando esiste una matrice non singolare
P tale che B = P 1 AP . La similitudine `e una relazione di equivalenza.
Si ricordi la definizione di spazio vettoriale normato e di spazio vettoriale dotato di prodotto
scalare. Si ricordi in particolare che se V `e dotato di prodotto scalare h, i, allora la relazione
q
kvk =
hv, vi
y1
x1
..
..
n
In R tipicamente, se v = . e w = . ,
xn
yn
hv, wi =
n
X
xi yi
v
u n
uX
kvk = t x2i .
i=1
i=1
Se A `e una matrice di elementi {ai,j } (i = 1, ..., n, j = 1, ..., m), si definisce la norma di A come
kAk =
sX
a2ij .
i,j
A.4
Sia ora A una matrice quadrata n n, a elementi reali. Rispetto alle basi canoniche, A pu`
o essere
interpretata come un endomorfismo di Cn .
Ricordiamo che C `e un autovalore di A se esiste v Cn tale che v 6= 0 e
(A I)v = 0 .
(A.4)
Ogni v 6= 0 per cui vale la (A.4) si dice un autovettore (in senso stretto) di A relativo a .
Lespressione pc () = det (A I) rappresenta un polinomio di grado n. Esso prende il nome
157
di polinomio caratteristico di A, e lequazione algebrica che si ottiene annullando il polinomio
caratteristico
pc () = det (A I) = 0
(A.5)
C1
0
..
.
0
C2
..
.
...
...
0
0
..
.
...
Ck
(A.6)
158
(A i I)v1 = 0
(A i I)v2 = v1
(A i I)v3 = v2
..................
(A i I)vl1 = vl2
(A.7)
(A i I)v = vl1 .
= (A i I)l1 v
= (A i I)l2 v
.......
= (A i I)l(l1) v = (A i I)v .
(A.8)
I vettori v1 , . . . , vl1 sono quelli cercati. Infatti, moltiplicando per (A i I) ambo i membri di ciascuna
delle relazioni precedenti si ricava subito
(A i I)v1 = (A i I)l v = 0
(A i I)v2 = (A i I)l1 v = v1
.......
.......
(A i I)vl1 = (A i I)2 v = vl2 .
Lultima delle (A.7) non `e poi altro che lultima delle (A.8).
Viceversa, se v `e ottenuto mediante le (A.7) si ha
(A i I)2 v
(A i I)3 v
.......
(A i I)l1 v
(A i I)l v
= (A i I)vl1 = vl2
= (A i I)vl2 = vl3
.......
= (A i I)v2 = v1
= (A i I)v1 .
Le relazioni (A.7) possono essere interpretate dicendo che ogni autovettore generalizzato pu`o
essere ottenuto costruendo una catena che inizia con un autovettore in senso stretto. Non `e
difficile verificare che tutti gli autovettori generalizzati appartenenti ad una catena v1 , . . . , vl1 , v
sono tra loro linearmente indipendenti. Se fosse infatti v2 = av1 allora si avrebbe anche
v1 = (A i I)v2 = (A i I)av1 = a(A i I)v1 .
Ma (A i I)v1 = 0 e quindi si avrebbe v1 = 0, il che `e impossibile perche un autovettore in
senso stretto non pu`o essere nullo.
159
Se fosse v3 = av1 + bv2 si avrebbe anche
v2 = (A i I)v3 = (A i I)(av1 + bv2 ) =
= a(A i I)v1 + b(A i I)v2 =
= b(A i I)v2 .
Ma (A i I)v2 = v1 e quindi si dovrebbe avere v2 = bv1 il che, come abbiamo visto, implica
v1 = 0. Si pu`o completare il ragionamento per induzione.
Si dimostra che, utilizzando le relazioni (A.7) a partire da unopportuna scelta di i autovettori in senso stretto relativi a i e linearmente indipendenti, si ottiene un numero di autovettori
generalizzati sufficiente a completare una base di Vi , e cio`e esattamente i i vettori linearmente
indipendenti. Si noti che se i = 1, allora i vettori mancanti saranno necessariamente generati da un
unico (a meno di costanti moltiplicative) autovettore in senso stretto. Ma se i 2, pu`o darsi che i
vettori mancanti siano generati da un unico autovettore in senso stretto, ma pu`o anche darsi che vi
siano due o pi`
u catene indipendenti con diversi generatori. Questi ultimi non possono essere in generale scelti arbitrariamente tra gli autovettori in senso stretto di A, ma devono essere determinati
in maniera opportuna. Quando si verificano queste situazioni, e specialmente se la dimensione dello
spazio `e elevata, la ricerca degli autovettori atti a generare le varie catene pu`o essere tuttaltro che
banale. Sorvolando sulle procedure che possono essere impiegate a tale scopo (lo studente trover`
a
tuttavia una breve discussione in proposito nella sezione successiva), per il momento ci basta osservare che ripetendo la costruzione per ogni i = 1, ..., k, si perviene in definitiva ad una base di Cn ,
formata da autovettori in senso stretto e da autovettori in senso generalizzato: a tale base daremo
ancora il nome di base propria relativa ad A.
Unimmagine suggestiva di una base propria si pu`o ottenere rappresentando i vettori che
la compongono con dei simboli convenzionali, per esempio degli asterischi. Gli asterischi disposti orizzontalmente al livello pi`
u basso rappresentano gli autovettori in senso stretto relativi ai
vari autovalori, mentre quelli disposti verticalmente rappresentano gli autovettori generalizzati,
eventualmente generati dagli autovettori in senso stretto.
...
{z
1 autovettori relativi a 1
...
{z
... .
(A.9)
2 autovettori relativi a 2
C1,1
0
J = .
..
0
0
C1,2
..
.
...
...
0
0
..
.
...
Ck,k
160
dove i blocchi Ci,j sono a loro volta matrici quadrate della forma
Ci,j
i
0
.
.
=
.
..
.
1
i
..
.
..
.
0 ...
1 ...
..
.
..
. ...
0 ...
0
0
..
.
In ogni blocco compare solo un autovalore, ma lo stesso autovalore pu`o comparire in pi`
u blocchi.
Pi`
u precisamente, per ogni autovalore i vi sono esattamente i blocchi, ciascuno dei quali associato
ad un autovettore in senso stretto. La dimensione di ogni blocco `e uguale alla lunghezza della
catena degli autovettori generalizzati originata dallautovettore in questione. Il numero di volte che
i compare sulla diagonale principale di J `e uguale a i .
` interessante notare la corrispondenza tra la forma della matrice J e quella dello schema (A.9).
E
La matrice J prende il nome di forma canonica di Jordan della matrice A. La matrice P per cui
J = P 1 AP coincide con la matrice che rappresenta il cambiamento dalla base canonica di Rn ad
una base propria relativa ad A. Le sue colonne sono formate dalle componenti (rispetto alla base
canonica) degli autovettori (in senso stretto e generalizzato) di A scritti in un ordine opportuno.
Fra tutte le matrici simili ad A, la forma canonica di Jordan J presenta notevoli vantaggi. Essa
infatti permette di visualizzare immediatamente le principali quantit`
a che rimangono invarianti
rispetto alla relazione di similitudine, e cio`e gli autovalori e i numeri che rappresentano le loro
molteplicit`a algebriche e geometriche.
A.5
(A.10)
Questo sistema ci fornisce r1 < n relazioni indipendenti tra le componenti di v. In altre parole,
la soluzione generale di (A.10) contiene n r1 parametri 1 , . . . , nr1 . Per indicare tale soluzione,
scriveremo pertanto v = v(1 , . . . , nr1 ).
Per determinare poi il primo livello di autovettori generalizzati relativi a 0 , in virt`
u della
Proposizione 1 dobbiamo risolvere il sistema omogeneo
M 2w = 0
o, equivalentemente, il sistema non omogeneo
M w = v(1 , . . . , nr1 ) .
(A.11)
161
insieme a quella parte degli 1 , . . . , nr1 che sono rimasti liberi, compariranno nellespressione
della soluzione generale di (A.11).
Si ripete il procedimento al massimo 1 volte, e quindi si assegnano dei valori numerici ai
parametri che, alla fine, sono rimasti liberi. In una certa misura, ci`o pu`o essere fatto in modo arbitrario: lunica condizione da rispettare `e quella, ovvia, di indipendenza lineare. La teoria garantisce
che `e effettivamente possibile assegnare i parametri in modo da ottenere un insieme di vettori
linearmente indipendenti che costituiscano una base di V .
La procedura descritta `e in un certo senso la pi`
u naturale, ma `e anche notevolmente scomoda
e complicata, specialmente se la dimensione `e elevata, a causa della grande quantit`
a di parametri
da gestire. Pu`o essere allora utile disporre di un approccio alternativo.
Supponiamo di aver identificato lo spazio proprio V associato a 0 , risolvendo il sistema (A.6).
Si ricordi che la dimensione di V coincide con la molteplicit`a algebrica . Inoltre, V coincide col
nucleo di M .
Sia h lesponente della pi`
u piccola potenza di M tale che
ker M h = ker M = V
(semplici esempi mostrano che h pu`o essere strettamente minore di : si verifica che la somma di
tali esponenti estesa a tutti gli autovalori di A `e uguale al grado del polinomio minimo). Non `e
difficile rendersi conto che
ker M ker M 2 . . . ker M h = V
e che, per ogni i = 2, . . . , h,
M (ker M i ) M i1 .
Inoltre, posto ri = rank M i , `e possibile dimostrare che
r1 > r2 > . . . > rh = n .
Poiche
dim ker M i
(A.12)
= n ri , le (A.12) equivalgono a
dim ker M < dim ker M 2 < . . . < .
Il metodo che stiamo per descrivere sommariamente consente di determinare una base di V
partendo dagli autovettori generalizzati che si trovano al livello pi`
u alto, procedendo cio`e in senso
inverso rispetto al metodo visto in precedenza, nel quale le catene di autovettori venivano ricostruite
a partire dagli autovettori in senso stretto che si trovano al livello pi`
u basso.
162
Si comincia con lo scegliere, in modo arbitrario, n + rh1 vettori linearmente indipendenti
u1 , . . . , un+rh1 appartenenti a V , ma non al ker M h1 . Poiche dim ker M h1 + rh1 = n, questi
vettori costituiscono una base di uno spazio complementare al ker M h1 rispetto a V . Le immagini
M u1 , . . . , M un+rh1 di questi vettori appartengono al nucleo di M h2 . Si noti che in virt`
u delle
h2
h1
(10), il salto dimensionale tra ker M
e ker M
`e maggiore o uguale al numero dei vettori
ottenuti. Il risultato che valida tutto il procedimento, e di cui tralasceremo la dimostrazione, `e che
i vettori M u1 , . . . , M un+rh1 sono linearmente indipendenti (tra loro e, ovviamente, anche dai
vettori u1 , . . . , un+rh1 da cui eravamo partiti).
Si hanno ora due casi. Se rh2 rh1 = n + rh1 , i vettori
M u1 , . . . , M un+rh1
sono in numero tale da colmare il salto dimensionale tra ker M h2 e ker M h1 . Si pu`o allora iterare il
procedimento, considerando le immagini in ker M h3 mediante M dei vettori M u1 , . . . , M un+rh1 ,
e cio`e i vettori
M 2 u1 , . . . , M 2 un+rh1 .
Altrimenti, prima di andare avanti, si devono aggiungere tanti vettori linearmente indipendenti,
e per il resto arbitrari, quanti ne sono necessari per coprire il salto dimensionale.
Gli autovettori in senso stretto, che si trovano alla base delle varie catene di autovettori
generalizzati, si trovano allultima iterazione del procedimento.
A titolo desempio, si consideri la matrice
1
0
A=
0
0
2 0 3
1 0 1
1 1 2
0 0 1
1
0
2
0
(A.13)
1
0
(A I)v =
2
0
si trova che 2 deve essere uguale a 1 /2. La soluzione generale ha la forma
163
3
1 /2
4 .
0
(A.14)
A questo punto `e chiaro che mettendo insieme vettori della forma (A.13) e (A.14) non si otterr`a
mai una base di R4 . Infatti lultima componente risulta in ogni caso nulla. Bisogna quindi iterare
unaltra volta il procedimento. Per la risolubilit`a del sistema
3
1 /2
(A I)v =
3
0
si trova questa volta la condizione 1 = 23 44 . Tenendo conto di tutte le relazioni trovate, una
catena di autovettori potrebbe essere ottenuta, per esempio, in corrispondenza dei valori 1 = 2 e
3 = 1. Si ha cos` lautovalore in senso stretto
0
1
0
e gli autovettori generalizzati
3
1
1
0
0
3
0
1
ai quali si aggiunge per completare la base un autovettore in senso stretto linearmente indipendente,
per esempio
0
.
0
0
Se vogliamo procedere con il secondo metodo, bisogna prima di tutto calcolarsi le potenze
0
0
AI =
0
0
0
(A I)2 =
0
0
2 0 3
0 0 1
1 0 2
0 0 0
0
0
0
0
0 2
0 0
0 1
0 0
(A I)3 = 0 .
164
La sequenza decrescente dei ranghi `e 2, 1, 0 , 0. La dimensione di ker (AI) `e 2 (come sapevamo
gi`a), e gli scarti dimensionali tra ker (A I), ker (A I)2 e ker (A I)3 sono entrambi pari a 1 (si
noti in particolare che la potenza di A I il cui nucleo coincide con lintero spazio `e minore della
molteplicit`a algebrica).
Iniziamo la costruzione scegliendo un vettore non appartenente al nucleo di (A I)2 (cio`e tale
che (A I)2 6= 0), per esempio
u=
0 .
1
Si calcola poi
3
1
w = (A I)u =
2
0
e quindi
2
0
v = (A I)w =
1 .
0
Chiaramente, v risulta un autovettore in senso stretto. Per concludere la costruzione, `e sufficiente
prendere un secondo autovettore in senso stretto linearmente indipendente, per esempio
0
.
0
A.6
Dati due spazi vettoriali V , W su K, `e possibile dare una struttura di spazio vettoriale al loro
prodotto cartesiano. Pi`
u precisamente, `e immediato dimostrare le seguenti proposizioni.
Proposizione A.2 Sia V W il prodotto cartesiano di due spazi vettoriali. Rispetto alle operazioni
di somma e prodotto per scalari, cos` definite:
(v1 , w1 ) + (v2 , w2 ) = (v1 + v2 , w1 + w2 )
a(v, w) = (av, aw)
linsieme V W `e uno spazio vettoriale su K.
v1 , v2 V , w1 , w2 W
a K ,v V ,w W
165
Proposizione A.3 Supponiamo che V e W siano di dimensione finita, e siano
{e1 , . . . , en } ,
{f1 , . . . , fm }
due basi, rispettivamente per V e per W . Allora, anche V W ha dimensione finita e gli n + m
vettori {(e1 , 0), . . . , (en , 0), (0, f1 ), . . . , (0, fm )} ne costituiscono una base.
La definizione data si pu`o generalizzare quando si hanno n spazi vettoriali V1 , . . . , Vn e si
considera il prodotto cartesiano V1 . . . Vn .
Sia ora U un altro spazio vettoriale su K. Vediamo come si possa far corrispondere ad applicazioni lineari di V , W in U unapplicazione, sempre a valori in U , definita sullo spazio vettoriale
V W.
Proposizione A.4 Siano L : V U , M : W U due applicazioni lineari. Lapplicazione
: V W U definita da
(v, w) = L(v) + M (w)
`e lineare.
Dimostrazione
a) Si ha, per la linearit`a di L e M ,
[(v1 , w1 ) + (v2 , w2 )] = (v1 + v2 , w1 + w2 ) =
= L(v1 + v2 ) + M (w1 , w2 ) =
= (v1 , w1 ) + (v2 , w2 ) .
b) Sempre per la linearit`a di L e M ,
[a(v, w)] = (av, aw) = L(av) + M (aw) = a(v, w) .
A.7
Sottospazi e ortogonalit`
a
Sia V uno spazio vettoriale reale dotato di un prodotto scalare h, i, sia W un sottospazio di V e
sia infine u un vettore di V . Si dice che u `e ortogonale a W se per ogni w W ,
hu, wi = 0 .
` immediato provare che vale la:
E
Proposizione A.5 Linsieme U dei vettori u di V ortogonali a W `e un sottospazio di V .
Il sottospazio U dei vettori ortogonali ad un sottospazio W di V si dice sottospazio ortogonale
a W e si indica con W .
Poiche per ogni w W e per ogni u W risulta hw, ui = 0, si ha che W (W ) .
i = 1, . . . m .
(A.15)
Sia ora una base per V , ortonormale rispetto al prodotto scalare ivi definito. Si verifica facilmente che
se rispetto ad una tale base u e w hanno componenti (u1 , . . . , un ) e (w1 , . . . , wn ), allora
hu, wi = u1 w1 + u2 w2 + . . . + un wn .
Di conseguenza le (A.15) si riducono ad un sistema omogeneo di m equazioni indipendenti in n incognite,
le cui soluzioni costituiscono un sottospazio vettoriale di dimensione n m. Pertanto dim W = n m.
Corollario A.4 Sia V di dimensione finita, e siano W1 , W2 due suoi sottospazi. Si ha:
W1 = W2 W1 = W2 .
Dimostrazione Per limplicazione (=) basta passare al sottospazio ortogonale di entrambi i membri e
applicare il Corollario 1. Laltra implicazione `e ovvia.
B. Trasformata di Laplace
B.1
Definizione e propriet`
a
t [0, +) .
(B.1)
Ad ogni funzione continua a tratti con crescita esponenziale possiamo associare un numero 0 ,
definito come lestremo inferiore dei numeri tali che esiste un M per cui vale la (B.1). Chiameremo
questo numero lordine di f . Dimostriamo una prima propriet`a delle funzioni a crescita esponenziale.
Lemma B.1 Sia f una funzione a crescita esponenziale, e sia s un numero complesso qualunque
tale che Re s > 0 . Allora,
lim f ()es = 0 .
Dimostrazione Se H() `e una funzione complessa di variabile reale, dire che lim H() = 0 significa dire
+
che
lim Re H() = lim Im H() = 0 .
Ma per ogni z C, si ha
|Rez| |z|
|Im z| |z| .
168
Lemma B.2 Sia f una funzione continua a tratti, con crescita esponenziale, di ordine 0 . Per
ogni numero complesso s tale che Re s > 0 , lintegrale improprio
Z +
0
f (t)est dt
converge assolutamente.
Z
Z
e
|Im H(t)| dt .
(B.2)
Come abbiamo gi`a osservato nella dimostrazione del Lemma B.1, `e allora sufficiente far vedere che
converge lintegrale
Z +
|H(t)|dt .
0
|f (t)et sin(t)|dt .
Z +
0
f (t)est dt
(B.3)
169
Z +
f (t)est dt.
(B.4)
Propriet`
a 2 (Cambiamento di scala)
Sia f una funzione definita in [0, +), continua a tratti, a crescita esponenziale, di ordine 0 ,
e sia F (s) = L[f (t)] per Re s > 0 . Allora, qualunque sia a > 0, la funzione g(t) = f (at) `e a
crescita esponenziale, di ordine a0 , e
1
F
a
L[f (at)] =
s
a
per Re s > a0 .
(B.5)
f (at)est dt =
dove si `e posto r =
Re s > a0 .
s
a.
1
a
f ( )e a d =
Ma Re r = Re as =
1
a
1
a
f ( )er d =
1
F (r)
a
purche Re r > 0 ,
Propriet`
a 3 (Traslazione a destra)
Sia f una funzione definita in [0, +), continua a tratti, a crescita esponenziale, di ordine 0 ,
e sia F (s) = L[f (t)] per Re s > 0 . Sia inoltre
g(t) =
0
f (t c)
per 0 t c
per t > c ,
ove c > 0. Allora g `e una funzione a crescita esponenziale, di ordine 0 , e L[g(t)] = ecs F (s) per
Re s > 0 .
Dimostrazione La verifica che g `e a crescita esponenziale `e semplice ed `e lasciata al lettore. Per la definizione
di g si ha poi
170
Z
Z
g(t)est dt =
Posto allora = t c si ha
Z +
0
f (t c)est dt .
Z
g(t)e
st
dt =
Propriet`
a 4 (Moltiplicazione per tn )
Sia f una funzione definita in [0, +), continua a tratti, a crescita esponenziale, di ordine 0 ,
e sia F (s) = L[f (t)] per Re s > 0 . Per ogni n N, si ha allora che tn f (t) `e una funzione a
crescita esponenziale, di ordine 0 , e che
L[tn f (t)] = (1)n
dn F (s)
,
dsn
Re s > 0 .
(B.6)
Dimostrazione Che tn f (t) abbia crescita esponenziale, segue dal Lemma 3.1. La (B.6) si prova per induzione. Il caso n = 0 `e infatti vero per definizione. Supposta vera la (B.6) per n = k, il caso n = k + 1 si
ottiene derivando2 entrambi i membri rispetto ad s.
Propriet`
a 5 (Moltiplicazione per eat )
Sia f una funzione definita in [0, +), continua a tratti, a crescita esponenziale, di ordine 0 ,
e sia F (s) = L[f (t)] per Re s > 0 . Sia inoltre a R. Allora, la funzione eat f (t) `e a crescita
esponenziale, di ordine 0 + a, e
L[eat f (t)] = F (s a)
Re s > 0 + a
(B.7)
Le prossime propriet`a sono molto importanti, in quanto ci dicono come si comporta loperatore
L rispetto alle operazioni del calcolo differenziale e integrale.
Propriet`
a6
Supponiamo che f sia una funzione continua a tratti, a crescita esponenziale, di ordine 0 .
Supponiamo inoltre che la sua derivata f 0 esista e sia continua a tratti in [0, +). Se F (s) = L[f (t)]
per Re s > 0 , allora la trasformata di Laplace di f 0 esiste, e si ha
2
Qui e anche in seguito, il punto cruciale della dimostrazione consiste nello scambio tra operazioni tipiche
dellAnalisi Matematica: limiti, derivate, integrali. Affinche simili passaggi siano leciti, occorre che siano verificate
certe propriet`
a di uniformit`
a, facilmente deducibili se si opera con funzioni continue (o, a seconda dei casi, derivabili
con continuit`
a) e su domini compatti. Non approfondiamo ulteriormente questo argomento: osserviamo comunque che
lavorando con variabili complesse e su intervalli non limitati vi sono delle difficolt`
a tecniche in pi`
u che, nelle nostre
ipotesi, possono essere superate.
171
per Re s > 0 .
(B.8)
lim
f 0 (t)est dt .
f 0 (t)est dt = f (t)est 0 + s
f (t)est dt .
Propriet`
a7
Sia f una funzione definita in [0, +), continua a tratti, a crescita esponenziale, di ordine 0 ,
e sia F (s) = L[f (t)] per Re s > 0 . Allora, ogni primitiva di f `e a crescita esponenziale, di ordine
uguale a max{0 , 0} e si ha
L
Z t
0
f () d =
F (s)
s
(B.9)
Dimostrazione La prima affermazione `e lasciata per esercizio. Per quanto riguarda la (B.9), si usa ancora
lintegrazione per parti:
Z
Z
st
f () d e
0
dt =
h(t)est dt =
h(t)est 1
+
0
s
s
h0 (t)est dt =
h(0) 1
h()es
+
s
s
s
f (t)est dt .
Z t Z t1
0
...
Z tk1
0
F (s)
.
sk
(B.10)
(B.11)
Propriet`
a8
Siano f e g due funzioni definite in [0, +), continue a tratti, a crescita esponenziale, di ordine
rispettivamente 1 e 2 . Siano F (s) = L[f (t)] per Re s > 1 e G(s) = L[g(t)] per Re s > 2 . Sia
inoltre
h(t) =
Z t
0
f (t )g() d .
(B.12)
172
Allora, h `e una funzione a crescita esponenziale e L[h(t)] = F (s)G(s) per Re s > max{1 , 2 }.
La Propriet`a 8 d`a una risposta al problema di trovare una funzione h(t) tale che L[h(t)] =
F (s) G(s), note che siano F (s) = L[f (t)] e G(s) = L[g(t)].
Osserviamo che la (B.12) `e ben definita, in quanto per [0, t] si ha t 0. Considerando
le seguenti estensioni delle funzioni f e g:
f(t) =
0
se t < 0
f (t) se t 0
g(t) =
0
se t < 0
g(t) se t 0 ,
possiamo scrivere
h(t) =
Z t
0
f (t )g() d =
Z +
f(t )
g () d .
Siano ora p() e q() due funzioni qualunque, continue a tratti, definite su tutto R. Si definisce
prodotto di convoluzione tra p e q
(p q)(t) =
Z +
p(t )q() d ,
0
+
L[h(t)] =
0
Z
f(t )g() d est dt =
g()
0
f(t )est dt d .
Allintegrale che si trova allinterno della parentesi nellultima formula, possiamo applicare la Propriet`a
3. Dunque
Z
L[h(t)] =
g()e
F (s) d = F (s)
B.2
B.2.1
Trasformate notevoli
Funzioni elementari
1
s
per Re s > 0 .
173
Dimostrazione Si ha
Z
L[f (t)] =
est dt = lim
est
es
1
= lim
+ .
0
+ s
+ s
s
est dt == lim
Proposizione B.2 Le trasformate di Laplace delle restrizioni allintervallo [0, +) delle potenze,
delle funzioni esponenziali e delle funzioni circolari sono date da:
L[at] =
L[tn ] =
a
s2
n!
per Re s > 0
sn+1
L[eat ] =
L[cos t] =
L[sin t] =
per Re s > 0 ;
1
sa
(B.13)
(n N) ;
(B.14)
per Re s > a ;
(B.15)
s
+ 2
per Re s > 0 ;
(B.16)
s2 + 2
per Re s > 0 .
(B.17)
s2
Dimostrazione Le formule (B.13), (B.14) e (B.15) discendono dalla Proposizione B.1 e dalle Propriet`a 1,
2, 4 e 5. Mostriamo la validit`a della (B.13). Si ha
L[at] = aL[t] = aL[t 1] .
Applicando la Propriet`a 4 e ricordando che L[1] = 1s , si conclude allora che
L[at] =
a
.
s2
dn F (s)
dsn
ove
F (s) =
1
;
s
da cui segue, per induzione, F (n) (s) = (1)n n!s(n+1) . Per quanto concerne la (B.15), basta osservare che
1
.
sa
Passiamo ora alle trasformate delle funzioni circolari. Come abbiamo gi`a detto, loperatore L si applica
anche a funzioni f : R C. Calcoliamo dunque L[cos t] ricordando la formula di Eulero
L[eat ] = L[eat 1] =
cos t =
ei t + ei t
.
2
Si ha
L[cos t] =
per Re s > 0. Da ci`o segue subito
1
1 i t
L[e ] + L[ei t ] =
2
2
1
1
+
s + i s i
174
L[cos t] =
s2
s
.
+ 2
B.2.2
Funzioni discontinue
Dalle Proposizioni B.1 e B.2 si deducono le trasformate di quelle funzioni che si usano per rappresentare i segnali fondamentali nella Teoria dei sistemi. Per esempio, la funzione
U (t) =
0
1
se t < 0
se t 0
si chiama gradino unitario (unit-step) o anche funzione di Heaviside. Essa schematizza un segnale
che dallo stato nullo, passa improvvisamente al valore 1 (switch-on). La funzione f (t) 1 considerata nella Proposizione B.1 coincide con la restrizione di U (t) a [0, +). Tenendo conto della
definizione della trasformata di Laplace, con un piccolo abuso di notazione scriveremo3 .
1
(Res > 0) .
s
La funzione U (t) permette di rappresentare altri tipi di segnali a andamento discontinuo, le cui
trasformate possono essere facilmente calcolate in virt`
u delle Propriet`a 1 e 3. Per esempio,
L(U (t)) =
f (t) =
0 per t < c
1 per t c
equivale a
f (t) = U (t c)
f (t) =
1 per t c
0 per t > 0
equivale a
f (t) =
per t < a
1 per a t b
0 per t > b
equivale a
f (t) = U (t a) U (t b) .
La funzione U (t) serve anche a rappresentare mediante operazioni aritmetiche funzioni elementari a tratti. Per esempio, la funzione
f (t) =
3
t
t2
per t < 1
per t 1
Si osservi che la funzione complessa di variabile complessa che associa ad s il suo reciproco 1/s `e definita per
tutti i valori di s 6= 0. Tuttavia, non `e corretto dire che tale funzione `e la trasformata di Laplace di U (t). La relazione
L[U (t)] = 1/s vale infatti solo per Re s > 0. Dunque, L[U (t)] coincide con la restrizione al semipiano positivo della
funzione 1/s.
175
si pu`o scrivere come
f (t) = t[1 U (t 1)] + t2 U (t 1) .
Con il solito abuso di notazione, la (B.13) si pu`o pensare come la trasformata di un segnale di
tipo rampa
f (t) =
0 per t < 0
at per t 0
mentre le (B.16), (B.17) forniscono le trasformate di segnali sinusoidali ma (attenzione!) nulli per
t < 0.
B.2.3
Delta di Dirac
Tra i segnali tipicamente considerati nella teoria dei sistemi gioca un ruolo importante la funzione
impulso unitario, usualmente denotata col simbolo (t) e detta anche di Dirac.
(t) =
+ se t = 0
0
se t 6= 0 .
(B.18)
0+
1
(U (t) U (t )) .
(B.19)
(t) dt =
Z k
k
(t) dt = 1
k > 0 .
(B.20)
Funzioni generalizzate come la (t) possono essere sommate e moltiplicate come funzioni ordinarie. Esse possono anche essere derivate (in un senso particolare), ma di ci`o non avremo bisogno.
Ci limitiamo ad alcune propriet`a. Un impulso di intensit`
a k concentrato in a R si rappresenta
con k (t a). Si ha
Z +
k (t a)dt = k
(B.21)
(B.22)
e
Z +
176
Z t
( )d = U (t)
(B.23)
e
L[(t)] = 1 .
(B.24)
L[(t)] = L lim
0+
1
(U (t) U (t )) =
1
1
= lim {L[U (t)] L[U (t )]} = lim
+
+
0
0
=
lim
0+
1 es
s
s
1 1 es
es 1
= lim
=1.
s
s
0+
B.3
Si possono ricavare informazioni sul comportamento asintotico (cio`e per t +) di una funzione
f (t) esaminando la sua trasformata di Laplace.
Teorema B.1 (Del valore finale) Sia f (t) derivabile e sia F (s) = L[f (t)], con Re s > 0 ove
0 0. Supponiamo che il limite lim f (t) esista finito. Allora,
t+
t+
(B.25)
s0
f 0 (t)est dt .
da cui la (B.25).
Per esempio, un caso importante per le applicazioni `e quello in cui F (s) = L[f (t)] `e una funzione
(s)
razionale propria. Poniamo F (s) = N
e strettamente minore
D(s) dove il grado del polinomio N (s) `
del grado del polinomio D(s). Se 0 < 0, il Teorema del valore finale `e applicabile. Lipotesi 0 < 0
177
implica in particolare che le radici di D(s) hanno tutte parte reale strettamente negativa, e che
D(0) 6= 0. Di conseguenza
lim sF (s) = 0 .
s0
Per il Teorema B.1 possiamo concludere che il limite di f (t) per t +, se esiste finito, `e pure
uguale a zero.
Nel Teorema B.1, lipotesi che il limite di f (t) per t + esista finito non `e eliminabile. Per
convincersene, si consideri la funzione f (t) = cos t. Si ha
L[cos t] =
e lim sF (s) = lim
s0
B.4
s0 s2
s2
s
+1
s2
= 0 mentre lim cos t non esiste.
t+
+1
Trasformata inversa
B.5
(B.26)
L[eAt c] = (A sI)1 c ,
L
Z t
0
(B.27)
(t)A
(B.28)
L[etA c] =
Z
et(AsI) cdt = lim
et(AsI) cdt .
Se Re s > 0 , allora det (A sI) 6= 0 e quindi (A sI)1 esiste. Daltra parte `e noto che per ogni
matrice quadrataR M , leponenziale etM `e derivabile e si ha (etM )0 = M etM = etM M . Di qui seque che se se
M `e invertibile, etM = M 1 etM = etM M 1 . Possiamo allora procedere nel nostro calcolo.
n
o
Dallipotesi che Re s > 0 segue ancora che gli autovalori di A sI hanno tutti parte reale negativa .
` infatti chiaro che ogni autovalore di A sI `e della forma = s dove `e un autovalore di A . Ma
E
allora Re = Re Re s < 0.
Come sappiamo, se gli autovalori di una matrice M hanno tutti parte reale negativa, allora lim eM c = 0,
+
(t)A
Z
b()d =
st
(t)A
Z
b()d dt =
t(AsI)
dt b() d .
Si noti come cambiano gli estremi di integrazione in seguito allo scambio dellordine di integrazione.
Proseguendo, e sfruttando come abbiamo fatto in precedenza lipotesi che Re s > 0 , si ha infine
Z
e(t)A b()d
(A sI)1 es b()d =
Z +
1
= (A sI)
es b()d = (A sI)1 B(s) .
=
C. Raccolta di esercizi
C.1
C.1.1
Esercizio C.1 Calcolare la matrice esponenziale eA per ciascuna delle seguenti matrici
1
4
2
3
1
1
1
3
x = x + y
y = 4y .
scrivere lintegrale generale sia in forma complessa che in forma reale. Quindi trovare la soluzione
corrispondente alle condizioni x1 (/3) = 0, x2 (/3) = 4e/3 .
C.1.2
Integrale generale e soluzioni particolari di sistemi omogenei di tre equazioni in tre incognite
Esercizio C.4 Scrivere lintegrale generale dei sistemi di equazioni differenziali definiti dalle seguenti matrici
0
1
0
0
4
0
2
6 ,
2
9
0
5
6
1
3
20
0 ,
11
179
0
2
2
2
2
2
2
2 .
4
180
Esercizio C.5 Scrivere in forma reale lintegrale generale del sistema di equazioni differenziali
lineari definito dalla matrice
4
3
1
3
2
3
2
6 .
1
Esercizio C.6 Determinare lintegrale generale del sistema lineare omogeneo x = Ax dove
A= 2
0
1
0
1
0
1 .
1
y 0 2x 2y = 0 .
Trovare in particolare tutte le soluzioni costanti, e tutte quelle che verificano la condizione
x(0) = 0.
Esercizio C.8 Dato il sistema di equazioni differenziali
1
dx
=
0
dt
0
1
0
1
1
k x ,
0
x = x 43 z
y = x + 2y
z = 3x 2z .
x 1 = x1 + 3x2
x = x1 + x2 + x3
2
x 3 = 2x3
a) Individuare la matrice A del sistema, e metterla in forma di Jordan trovando la matrice P che
opera la trasformazione
b) Scrivere lintegrale generale, e determinare la soluzione particolare per cui x1 (0) = 1, x2 (0) = 0,
x3 (0) = 0.
181
c) Dire per quali R `e possibile dare una maggiorazione del tipo
||(t)|| Ket
per tutte le soluzioni (t) e per tutti i valori t 0.
` dato il sistema lineare
Esercizio C.11 E
x 1 = x1 + 2x3
x = x1 + x2 + 3x3
2
x 3 = x1 + 2x3 .
C.1.3
x 1 = x2
x1 (0) = 1
x = x1 x3
2
x (0) = 0
2
x 3 = 2x1 + 2x3 + 1
x3 (0) = 0
x 1 = 2x2 2x3 + et
x1 (0) = 0
x (0) = 1
2
x3 (0) = 1
x = 3x + 2y + t
y = 2x + y + et .
182
b) Scrivere il sistema equivalente
x = Ax
(2)
con x R3 e A matrice in forma compagna.
(3)
C.2
C.2.1
Esercizio C.16 Dimostrare che la forma quadratica a coefficienti reali ax2 + bxy + cy 2 , con a > 0,
`e definita positiva se e solo se b2 4ac < 0.
Esercizio C.17 Si consideri il sistema lineare omogeneo
x = Ax
2 1
. Verificare che lorigine `e asintoticamente stabile. Dire inoltre per
1 1
quali valori di k R esiste una funzione di Liapunov della forma
dove A `e la matrice
V (x, y) = x2 + xy + ky 2 .
Esercizio C.18 Dato il sistema lineare omogeneo
x = Ax ,
x Rn
dove
A=
3
2
3
1
(A)
x = y
y = x
(B)
x = 2x + y
y = x .
Verificare inoltre che V (x, y) = x2 xy + 2y 2 `e una funzione di Liapunov in senso stretto per
il sistema (B). Si pu`
o trovare una funzione di Liapunov in senso stretto per il sistema (A) ?
183
Esercizio C.20 Determinare k in modo che V (x, y) = x2 + k 2 y 2 sia una funzione di Liapunov in
senso stretto per x = y = 0 per il sistema lineare
C.2.2
x = x + 3y
y = y
Stabilit`
a dei sistemi piani ed equazione matriciale di Liapunov
Esercizio C.21 Verificare che lorigine `e asintoticamente stabile per il sistema bidimensionale
lineare definito dalla matrice
A=
4
1
1
3
Determinare quindi P in modo che la funzione V (x) = xt P x sia una funzione di Liapunov per
tale sistema, risolvendo lequazione matriciale
At P + P A = I .
` dato il sistema lineare omogeneo
Esercizio C.22 E
x Rn
x = Ax ,
dove
A=
1
2
3
3
x 1 = 3x1 + x2
x 2 = x1 x2
1) Verificare che lorigine `e asintoticamente stabile.
2) Determinare una funzione di Liapunov.
Esercizio C.24 Si consideri il sistema lineare
x = x 2y
y = 3x 4y .
a) Verificare che non esistono funzioni di Liapunov in senso stretto della forma x2 + ky 2 (k R).
b) Determinare una funzione di Liapunov quadratica per il sistema dato, facendo uso dellequazione
matriciale di Liapunov.
Esercizio C.25 Verificare che lorigine `e attrattiva per il sistema
x = x 2y
y = y .
Trovare k R in modo che V (x, y) = x2 + 3xy + ky 2 sia una funzione di Liapunov. Quindi
trovare unaltra funzione di Liapunov risolvendo lequazione matriciale di Liapunov.
184
C.2.3
Stabilit`
a dei sistemi in dimensione maggiore di 2
a dellorigine per i
Esercizio C.26 Utilizzando il criterio degli autovalori, discutere la stabilit`
seguenti sistemi
x 2 = 2x1 3x2 x3
x 3 = x1 2x2 2x3
x 1 = x2
x 1 = x3
x = x4
x = 2x3 + x4
x 2 = x3
x 2 = x3 x4
x 1 = 2x1 + x3
x 4 = x4
x = x1 2x2 x3
2
x 3 = x3 .
(2)
con x R2 e A matrice in forma compagna
c) Verificare che lorigine `e attrattiva per il sistema (2) e trovare una funzione di Lyapunov
quadratica per tale sistema
d) Possiamo dire che il sistema equivalente allequazione x(iv) + 7x000 + 12x00 = 0 `e stabile? (giustificare la risposta).
Esercizio C.30 Provare che se P `e una matrice simmetrica definita positiva, allora lorigine `e
asintoticamente stabile per il sistema
x = P x .
185
C.3
C.3.1
Esercizio C.31 Studiare linsieme raggiungibile al tempo T , al variare dello stato iniziale, per il
sistema
x = u
y = v
1 u 1,
1 v 1
Esercizio C.32 Determinare lo spazio raggiungibile (in assenza di vincoli sul controllo) e lo spazio
di non-osservabilit`
a per i sistemi lineari
x 1 = x2
x 1 = x1 + x3 + u1
x = x3 + u
x = x1 x3
x 2 = 2x2 + 4x3 + u2
x 2 = x1
y = x2
y = x1 + x3
..
.
Esercizio C.33 Verificare che se A `e una matrice n n in forma compagna e b = , allora il
0
1
A = 1
0
2
0
0
0
1
1
1
B = 0
1
`e completamente controllabile.
Esercizio C.35 Si consideri il sistema lineare con ingresso scalare
2
dove A = 1
0
Determinare
x = Ax + ub
0 k
0
1 0 e b = 0 .
2 3
2
i valori di k R per cui il sistema risulta completamente controllabile.
x = Ax + ub
y = ct x
x R3
0
0
1 1 2
con A = 0 2 1 , b = 0 , c = 0 .
1
1
1 1 0
a) Verificare che tale sistema `e completamente controllabile ma non completamente osservabile.
b) Scrivere la forma compagna C di A (non `e richiesto trovare esplicitamente il cambiamento
` vero che A e C sono simili?
di coordinate). E
186
Esercizio C.37 Si consideri il sistema lineare
x = 2y 2z
y = 2x + 2z
z = 3x 3y + u
C.3.2
Forma di Kalman
A=
3
4
1
2
B=
1
1
x = 3x1 y + u
y = 4x + 3y + 2u .
C.3.3
Stabili`
a BIBS
Esercizio C.40 Si consideri il sistema con ingresso scalare definito dalle equazioni
x = x + y + z + u
y = 4x + y + 3z + u
z = 2x y 2z u .
0
2 0 0
dove A = 1 1 0 e b = 0 .
2
0 2 3
`
Verificare che il sistema non `e completamente controllabile, e scriverne la forma di Kalman. E
possibile stabilizzare il sistema? Possiamo affermare che il sistema `e stabile in senso BIBO?
187
Esercizio C.42 Dire se il seguente sistema inizializzato a zero `e esternamente stabile
x 1 = 3x1 + x2 + u1
x = x1 2x2 + 8x3
2
x 3 = x3 + u2
x 1 = 2x1 + x3 + u1
x = x2 + u2
2
x 3 = 2x3
x 1 = x1 + x3 + u1
x = 2x2 + 2u2
2
x 3 = x2 x3 + u3
C.3.4
Stabilizzabilit`
a, assegnabilit`
a dei poli
x = 2x + y + u
y = 2x y 2u .
0
1
3
1
1
0
1 , b =
0 , c = 1 .
1
1
1
x = Ax + ub
y = ct x
(3)
x = Ax + ub
188
dove A = 0
2
3
0
1
0
0
1 e b = 0 .
2
1
x = 2x1 + x3 + u
x 2 = x2 x3
x = 2x2 + x3 2u
y = x2 + x3 .
a)
b)
c)
d)
x 1
x 2
2
1
4
1
x1
x2
+u
1
1
A=
2
4
1
3
b=
1
4
1) Verificare che lorigine non `e stabile per il sistema libero (con u = o).
2) Verificare che il sistema non `e completamente controllabile, e metterlo in forma di Kalman.
3) Dire se `e possibile stabilizzare il sistema e, in caso afferamtivo, indicare una retroazione stabilizzante.
Esercizio C.51 Dato il sistema
x = x + y
y = 2x y + u
189
(3) il sistema controreazionato abbia autovalori con parte reale minore di 3
[si suggerisce di effettuare il cambiamento di coordinate X = x , Y = x + y]
` dato il sistema a ingresso scalare
Esercizio C.52 E
x = Ax + ub
dove x = (x1 , x2 ),
A=
1
1
1
2
b=
1
2
1
A= 0
0
0
2
0
2
1 ,
1
3
B = 1
3
dire se `e stabilizzabile e, in caso positivo, indicare una controreazione stabilizzante. Dire inoltre se
il sistema `e superstabilizzabile.
C.4
a)
f (t) =
b)
f (t) =
1
1
t
2
se t 4
se t > 4 ,
se t 2
se t > 2 .
f (t) = sin2 3t
b)
f (t) = sin(2t + 4 ) .
190
Esercizio C.57 Scrivere le trasformate delle funzioni f (t) = sinh t e f (t) = cosh t.
Esercizio C.58 Sia f (t) una funzione continua a tratti e coincidente, per t 0, con una funzione
periodica di periodo T > 0. Provare che
L[f (t)] =
1
1 esT
Z T
0
f (t)est dt .
2s 1
,
s2
1
F (s) = 2
,
s s
2s 1
,
F (s) =
(s 1)2
1
F (s) = 2
,
s +s+1
F (s) =
F (s) =
Esercizio C.60 Utilizzando la regola della trasformata del prodotto di convoluzione, trovare lantitrasformata di
F (s) =
1
,
(s 1)2
F (s) =
1
.
+ 4)
s(s2
Esercizio C.61 Risolvere i seguenti problemi ai valori iniziali, utilizzando la trasformata di Laplace:
a)
6x00 5x0 + x = 0,
x(0) = x0 (0) = 1
b)
x(0) = 0, x0 (0) = 1
c)
x(0) = 1, x0 (0) = 0
d)
x(0) = x0 (0) = 0.
x(0) = 0, x0 (0) = 1 .
Esercizio C.64 Si consideri lequazione scalare di ordine 2
x00 + 5x0 + 4x = t .
Utilizzando il metodo della trasformata di Laplace, calcolare la soluzione tale che x(0) = 0 e
= 2.
x0 (0)