You are on page 1of 190

Andrea Bacciotti

TEORIA MATEMATICA DEI


CONTROLLI:
SISTEMI LINEARI

Dispense di Teoria matematica dei controlli


insegnamento tenuto presso il corso di Laurea in Matematica per lIngegneria
Politecnico di Torino
A.A. 2014-2015

Indice
Notazioni

1 Considerazioni generali sui sistemi


1.1 La nozione astratta di sistema . . . . . . . . . . . . . .
1.1.1 Loperatore ingresso-uscita . . . . . . . . . . .
1.1.2 Tempo discreto e tempo continuo . . . . . . . .
1.1.3 Spazio degli ingressi e spazio delle uscite . . . .
1.1.4 Spazio degli stati . . . . . . . . . . . . . . . . .
1.1.5 Sistemi finito-dimensionali . . . . . . . . . . . .
1.1.6 Connessione di sistemi . . . . . . . . . . . . . .
1.1.7 Analisi dei sistemi . . . . . . . . . . . . . . . .
1.1.8 Controllo dei sistemi . . . . . . . . . . . . . . .
1.1.9 Propriet`a dei sistemi . . . . . . . . . . . . . . .
1.2 Sistemi a risposta impulsiva . . . . . . . . . . . . . . .
1.3 Sistemi inizializzati . . . . . . . . . . . . . . . . . . . .
1.3.1 Sistemi deterministici . . . . . . . . . . . . . .
1.3.2 Sistemi invarianti nel tempo . . . . . . . . . . .
1.3.3 Sistemi lineari . . . . . . . . . . . . . . . . . .
1.3.4 Stabilit`a esterna . . . . . . . . . . . . . . . . .
1.3.5 Sistemi inizializzati a zero e sistemi non forzati
1.4 Sistemi differenziali . . . . . . . . . . . . . . . . . . . .
1.4.1 Ingressi ammissibili . . . . . . . . . . . . . . . .
1.4.2 Equazioni di stato . . . . . . . . . . . . . . . .
1.4.3 Sistemi differenziali lineari . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

9
9
9
10
11
11
11
11
13
14
14
15
18
18
19
19
20
20
21
21
21
23

2 Sistemi di equazioni differenziali in generale


25
2.1 La mappa di flusso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2 Punti dequilibrio e stabilit`a nel senso di Liapunov . . . . . . . . . . . . . . . . . . . 27
3 Sistemi di equazioni differenziali
3.1 Richiami . . . . . . . . . . . . .
3.2 La matrice esponenziale . . . .
3.3 A diagonale . . . . . . . . . . .
3.4 A nilpotente . . . . . . . . . . .
3.5 A diagonale a blocchi . . . . . .
3.6 Equivalenza lineare . . . . . . .

lineari omogenei
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
3

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

29
29
31
32
33
34
34

4
3.7
3.8
3.9
3.10
3.11

A diagonalizzabile . . . . . . . .
Forma di Jordan . . . . . . . . .
Stima asintotica delle soluzioni .
Equazioni scalari di ordine n > 1
Matrice compagna . . . . . . . .

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

4 Stabilit`
a dei sistemi lineari non forzati
4.1 Posizioni dequilibrio . . . . . . . . . .
4.2 Criteri di stabilit`a . . . . . . . . . . .
4.3 Lequazione di Liapunov . . . . . . . .
4.4 Il criterio di Routh-Hurwitz . . . . . .

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.

5 Sistemi di equazioni differenziali lineari non omogenei


5.1 Sistemi non omogenei . . . . . . . . . . . . . . . . . . .
5.1.1 Metodo di variazione delle costanti . . . . . . . .
5.1.2 Metodo di somiglianza . . . . . . . . . . . . . . .
5.2 Transitorio e soluzione di regime . . . . . . . . . . . . .
5.3 Lequazione scalare di ordine n non omogenea . . . . . .
6 Sistemi definiti da equazioni differenziali lineari
6.1 Funzione di trasferimento . . . . . . . . . . . . .
6.2 Analisi della risposta in frequenza . . . . . . . . .
6.3 Analisi della stabilit`a esterna . . . . . . . . . . .

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.

.
.
.
.
.

.
.
.
.
.

35
37
39
40
44

.
.
.
.

47
47
48
50
52

.
.
.
.
.

55
55
56
57
58
59

di ordine arbitrario
63
. . . . . . . . . . . . . . . . . . . . 63
. . . . . . . . . . . . . . . . . . . . 67
. . . . . . . . . . . . . . . . . . . . 68

7 Sistemi lineari con ingressi e uscite


7.1 Insiemi raggiungibili . . . . . . . . . . . . . . . . .
7.1.1 Struttura degli insiemi raggiungibili . . . .
7.1.2 Linearit`a delloperatore ingresso-uscita . . .
7.1.3 Soluzione del problema della raggiungibilit`a
7.1.4 Matrice di controllabilit`a . . . . . . . . . .
7.1.5 Il criterio di Hautus . . . . . . . . . . . . .
7.2 Osservabilit`a . . . . . . . . . . . . . . . . . . . . .
7.2.1 Lo spazio di non osservabilit`a . . . . . . . .
7.2.2 Matrice di osservabilit`a . . . . . . . . . . .
7.2.3 Ricostruzione dello stato iniziale . . . . . .
7.2.4 Dualit`a . . . . . . . . . . . . . . . . . . . .
7.3 Scomposizioni canoniche . . . . . . . . . . . . . . .
7.3.1 Equivalenza lineare . . . . . . . . . . . . . .
7.3.2 Invarianza controllata . . . . . . . . . . . .
7.3.3 Parte controllabile . . . . . . . . . . . . . .
7.3.4 Parte osservabile . . . . . . . . . . . . . . .
7.3.5 Scomposizione di Kalman . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

71
71
73
74
74
76
78
80
80
82
83
84
84
84
84
85
86
87

5
8 Stabilit`
a interna e stabilit`
a esterna dei
8.1 Stabilit`a esterna . . . . . . . . . . . .
8.2 Stabilit`a interna . . . . . . . . . . . .
8.3 Il caso C = I . . . . . . . . . . . . . .
8.4 Il caso generale . . . . . . . . . . . . .

sistemi
. . . . .
. . . . .
. . . . .
. . . . .

lineari
. . . . .
. . . . .
. . . . .
. . . . .

9 Stabilizzabilit`
a
9.1 Retroazioni statiche dello stato . . . . . . . . . .
9.1.1 Controllabilit`a . . . . . . . . . . . . . . .
9.1.2 Stabilit`a . . . . . . . . . . . . . . . . . . .
9.1.3 Stabilizzabilit`a . . . . . . . . . . . . . . .
9.1.4 Controllabilit`a asintotica . . . . . . . . .
9.2 Retroazioni statiche delluscita . . . . . . . . . .
9.2.1 Riduzione della dimensione . . . . . . . .
9.2.2 Sistemi con dinamica zero stabile . . . . .
9.2.3 Sistemi in dimensione 2 . . . . . . . . . .
9.2.4 Assegnabilit`a dei poli . . . . . . . . . . .
9.3 Retroazioni dinamiche delluscita . . . . . . . . .
9.3.1 Costruzione di un osservatore asintotico .
9.3.2 Costruzione di un compensatore dinamico
10 Analisi e sintesi nel dominio della frequenza
10.1 La matrice di trasferimento . . . . . . . . . .
10.2 Propriet`a della matrice di trasferimento . . .
10.3 Il problema della realizzazione . . . . . . . . .
10.4 Sistemi SISO . . . . . . . . . . . . . . . . . .
10.4.1 Il problema della realizzazione nel caso
10.4.2 Diagramma di Nyquist . . . . . . . . .
10.4.3 Stabilizzabilit`a BIBO . . . . . . . . .
11 Controllo ottimo
11.1 Raggiungibilit`a in presenza di vincoli .
11.2 Controllo ottimo sullorizzonte finito .
11.3 Problema del tempo minimo . . . . . .
11.4 Controllo ottimo sullorizzonte infinito
11.5 Regolatore quadratico . . . . . . . . .

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

. . . .
. . . .
. . . .
. . . .
SISO
. . . .
. . . .
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

89
90
93
93
96

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

101
101
102
103
108
109
110
111
112
113
114
114
115
116

.
.
.
.
.
.
.

119
. 119
. 121
. 124
. 127
. 127
. 129
. 132

.
.
.
.
.

135
. 136
. 138
. 139
. 145
. 146

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

Appendici
A. Richiami di algebra lineare
A.1 Spazi vettoriali . . . . . . . . . . . . . .
A.2 Applicazioni lineari . . . . . . . . . . . .
A.3 Matrici . . . . . . . . . . . . . . . . . . .
A.4 Autovalori, autovettori, forma di Jordan
A.5 Procedure per la costruzione di una base
A.6 Prodotto cartesiano di spazi vettoriali .
A.7 Sottospazi e ortogonalit`a . . . . . . . . .

151
. . . . .
. . . . .
. . . . .
. . . . .
propria
. . . . .
. . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

153
. 153
. 154
. 156
. 156
. 160
. 164
. 165

6
B. Trasformata di Laplace
B.1 Definizione e propriet`a . . . . . .
B.2 Trasformate notevoli . . . . . . .
B.2.1 Funzioni elementari . . .
B.2.2 Funzioni discontinue . . .
B.2.3 Delta di Dirac . . . . . .
B.3 Teorema del valore finale . . . . .
B.4 Trasformata inversa . . . . . . .
B.5 Trasformata di funzioni vettoriali

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

C. Raccolta di esercizi
C.1 Esercizi sui sistemi di equazioni differenziali lineari . . . . . . . . . . . . . . . . . .
C.1.1 Integrale generale e soluzioni particolari di sistemi omogenei di due equazioni
in due incognite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
C.1.2 Integrale generale e soluzioni particolari di sistemi omogenei di tre equazioni
in tre incognite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
C.1.3 Sistemi non omogenei ed equazioni lineari di ordine superiore . . . . . . . .
C.2 Esercizi sulla stabilit`a dei sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . .
C.2.1 Stabilit`a dei sistemi piani e funzioni di Liapunov . . . . . . . . . . . . . . .
C.2.2 Stabilit`a dei sistemi piani ed equazione matriciale di Liapunov . . . . . . .
C.2.3 Stabilit`a dei sistemi in dimensione maggiore di 2 . . . . . . . . . . . . . . .
C.3 Esercizi sulle propriet`a strutturali dei sistemi con ingressi . . . . . . . . . . . . . .
C.3.1 Insieme raggiungibile, controllabilit`
a, osservabilit`
a . . . . . . . . . . . . . .
C.3.2 Forma di Kalman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
C.3.3 Stabili`a BIBS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
C.3.4 Stabilizzabilit`a, assegnabilit`a dei poli . . . . . . . . . . . . . . . . . . . . . .
C.4 Esercizi su trasformata di Laplace e applicazioni alle equazioni differenziali . . . .

167
. 167
. 172
. 172
. 174
. 175
. 176
. 177
. 177
179
. 179
. 179
.
.
.
.
.
.
.
.
.
.
.
.

179
181
182
182
183
184
185
185
186
186
187
189

Notazioni

Se A `e un sottoinsieme di Rn , indicheremo con A, A, A rispettivamente, linsieme dei punti


interni ad A, la chiusura di A, la frontiera di A rispetto alla topologia di Rn .
Se v `e un elemento di uno spazio vettoriale normato di dimensione finita, la norma di v
si indica genericamente con ||v||. In particolare, se v `e un vettore o una matrice, e se non
diversamente specificato, ||v|| indica la norma euclidea.
Se A e B sono due insiemi qualunque, F(A, B) indica linsieme di tutte le funzioni da A a B.
In particolare:
C(I, U ), dove I `e un intervallo (aperto o chiuso, limitato o illimitato) di numeri reali e
U Rn , indica linsieme di tutte le funzioni continue definite in I e a valori in U (n `e
un qualunque intero positivo);
PC([a, b], U ), dove a e b sono numeri reali (a < b) e U Rn , indica linsieme di tutte le
funzioni continue a tratti1 e continue a destra, definite nellintervallo [a, b] e a valori in
U;
PC([a, +), U ), dove a R e U Rn , indica linsieme di tutte le funzioni continue a
tratti2 e continue a destra, definite nellintervallo [a, +) e a valori in U (analogamente
si definiscono gli insiemi PC((, +), U ) e C((, b], U ));
B(I, Rn ) indica linsieme di tutte le funzioni limitate definite nellintervallo I e a valori
in Rn ;
useremo anche le notazioni CB([a, +), Rn ) e PCB([a, +), Rn ) per indicare gli insiemi
di tutte le funzioni che appartengono rispettivamente a C([a, +), Rn ) e PC([a, +), Rn )
e che inoltre sono limitate.
Se f () `e una funzione appartenente ad uno spazio vettoriale normato V, la sua norma sar`a
indicata con ||f ()||V . In particolare, e f () B(I, Rn ), scriveremo ||f ()|| = suptI ||f (t)||
(norma della convergenza uniforme).

Si ricorda che una funzione si dice continua a tratti sullintervallo compatto [a, b] se in tale intervallo la funzione
ha al pi`
u un numero finito di punti di discontinuit`
a, e ciascuna eventuale discontinuit`
a `e di prima specie.
2
Si ricorda che una funzione si dice continua a tratti su un intervallo illimitato I se `e continua a tratti in ogni
intervallo compatto [c, b] I.

Capitolo 1

Considerazioni generali sui sistemi


Qualunque sia la loro natura, i fenomeni osservabili nel mondo reale coinvolgono di regola diverse
grandezze, e risultano dallinterazione di varie componenti: per questo si usa il termine generico
sistema.
Le conoscenze acquisite sperimentalmente a proposito di un determinato sistema fisico vengono
spesso sintetizzate attraverso la messa a punto di un modello matematico: in questo modo possono essere facilmente comunicate ed elaborate in termini qualitativi o numerici, ed eventualmente
utilizzate per controllare levoluzione del sistema stesso.
In queste lezioni il termine sistema sar`a quasi sempre riferito al modello matematico, piuttosto
che al fenomeno reale che questo vuole rappresentare. Senza nessuna pretesa di imbarcarci in una
definizione assiomatica, cercheremo di introdurre il concetto di sistema descrivendone gli aspetti
principali e le modalit`a di utilizzo.

1.1

La nozione astratta di sistema

Caratteristica principale di ogni sistema fisico `e quella di evolversi nel tempo, cio`e di modificare il
proprio stato col trascorrere del tempo. Responsabili di tale evoluzione sono in generale le forze e
i vincoli interni al sistema, e le sollecitazioni eventualmente imposte dallesterno.

1.1.1

Loperatore ingresso-uscita

Per descrivere matematicamente un sistema fisico, `e necessario che lo stato del sistema, le eventuali
sollecitazioni esterne e le informazioni che il sistema ci fornisce sul proprio stato possano essere rappresentate per mezzo di grandezze numeriche variabili (nel tempo). In definitiva, per rappresentare
un sistema `e necessario assegnare:
1) un insieme T di tempi
2) un insieme U di ingressi
3) un insieme X di stati
4) un insieme Y di uscite.
9

10
Le sollecitazioni imposte dallesterno (dette anche ingressi o input) sono quindi descritte da
funzioni u() F(T , U). Le informazioni fornite dal sistema sul proprio stato (dette anche uscite
o output) sono rappresentate da funzioni y() F(T , Y), mentre lo stato `e rappresentato da una
funzione x() F(T , X ).
Luscita dipende naturalmente dallingresso. Il sistema agisce quindi come un operatore (univoco) R che trasforma ogni funzione di ingresso u() F(T , U) in una funzione di uscita y()
F(T , Y). Scriveremo pertanto
y() = R(u()) ,

con R : F(T , U) F(T , Y) .

Loperatore R si chiama anche operatore ingresso-uscita. Nella teoria dei sistemi si fa talvolta
uso di diagrammi a blocchi; a tal fine, un operatore R si rappresenta graficamente mediante la
figura

u -

-y

Un operatore ingresso-uscita R non `e necessariamente definito per ogni u() F(T , U). Per
esempio, in talune applicazioni, le funzioni di ingresso devono sottostare a vincoli che la natura
del problema impone sia sui valori che esse possono assumere, sia sul loro carattere funzionale. Il
sottoinsieme di F(T , U) formato da tutte le funzioni che soddisfano le condizioni richieste costituisce
il domino di R e si chiama insieme degli ingressi ammissibili.
Osservazione 1.1 Nel rappresentare un sistema come un operatore R univoco, si suppone implicitamente di avere una conoscenza completa del funzionamento del sistema stesso. Questo, nella
realt`a, non `e quasi mai vero. Di regola, luscita di un sistema `e infatti influenzata da fattori dei
quali non si `e tenuto conto nella modellizzazione, o da incertezze e imprecisioni nellidentificazione
dei parametri, o da eventi di natura aleatoria. Situazioni di questo genere, tuttavia, non saranno
trattate in questo corso.

Seguono alcuni commenti sulla natura degli insiemi T , U, X , Y.

1.1.2

Tempo discreto e tempo continuo

Linsieme dei tempi T pu`o essere un qualunque insieme totalmente ordinato dotato di una struttura
di gruppo. In pratica vi sono due possibili scelte: T = Z oppure T = R. Nel primo caso si parla di
sistemi in tempo discreto, e le funzioni che descrivono lingresso, luscita e lo stato sono in realt`a
delle successioni. Nel secondo caso si parla di sistemi in tempo continuo. Molto spesso, uno stesso
sistema fisico pu`o essere rappresentato sia da un modello in tempo discreto che da uno in tempo
continuo (ci`o dipende dagli scopi e dai mezzi impiegati per la modellizzazione).

11

1.1.3

Spazio degli ingressi e spazio delle uscite

Tra le variabili di ingresso, `e opportuno fare delle distinzioni. Alcune di queste sono infatti identificabili come segnali che sfuggono al controllo delloperatore (disturbi), altre come segnali di riferimento (cio`e funzioni di uscita ideali alle quali luscita effettiva del sistema si deve adeguare),
altre infine come controlli veri e propri, cio`e segnali mediante i quali loperatore pu`o influenzare il
comportamento del sistema e quindi la funzione duscita.
In generale, `e conveniente ordinare le variabili di ingresso in modo da poterle rappresentare
come componenti di un vettore. Analogamente, anche le variabili di uscita saranno ordinate e
` quindi abbastanza naturale supporre che linsieme degli ingressi
rappresentate come un vettore. E
U e linsieme delle uscite Y possiedano una struttura di spazio vettoriale reale, di dimensione finita.

1.1.4

Spazio degli stati

Di regola, anche nelle applicazioni pi`


u comuni, le variabili di stato sono molto pi`
u numerose delle
variabili di ingresso e di uscita, e sono difficile da identificare in quanto la funzione x() che ne
rappresenta levoluzione non `e direttamente disponibile allosservatore, il quale pu`o monitorare e
misurare solo gli ingressi e le uscite. A volte conviene pensarle come unidealizzazione matematica
inerente al modello.
` comunque naturale assumere che anche linsieme degli stati X abbia una struttura di spazio
E
vettoriale. Per molte applicazioni `e sufficiente limitarsi al caso in cui la dimensione di X `e finita,
ma talvolta `e necessario far ricorso anche a spazi di dimensione infinita: ci`o accade tipicamente
quando le variabili di stato dipendono, oltre che dal tempo, da altre variabili, per esempio variabili
spaziali.

1.1.5

Sistemi finito-dimensionali

Si dice che un sistema `e finito-dimensionale quando le variabili di ingresso, di uscita, e anche quelle
di stato possono essere rappresentate come vettori con un numero finito di componenti reali, ovvero
X = Rn , U = Rm , Y = Rp , essendo n, m, p numeri interi assegnati, maggiori o uguali ad 1. In
particolare, il sistema si dice di tipo SISO (single-input-single-output) quando m = p = 1; altrimenti
si dice di tipo MIMO (multi-input-multi-output).
Da questo momento in poi, col termine sistema intenderemo sempre un sistema
finito-dimensionale e a tempo continuo.
Conseguentemente, gli insiemi di funzioni che rappresentano lingresso, luscita e lo stato saranno
indicati, rispettivamente, come F(R, Rm ), F(R, Rp ), F(R, Rn ).

1.1.6

Connessione di sistemi

` importante saper operare con e sui sistemi, stabilendo delle connessioni oppure decomponendoli
E
in sottosistemi. I tipi fondamentali di connessione sono tre.
1) Cascata (o serie): lingresso coincide con luscita di un altro sistema.

12

u -

R1

R2

-y

Indicando con R1 , R2 , R gli operatori che rappresentano, rispettivamente, il primo sistema,


il secondo sistema e il sistema risultante dalla connessione, si ha R = R2 R1 , dove indica
il prodotto di composizione.
2) Parallelo: due sistemi hanno lo stesso ingresso e contribuiscono entrambi a determinare luscita.
-

R1

u- d

d y-

R2

Indicando come prima con R1 , R2 , R gli operatori che rappresentano, rispettivamente, il


primo sistema, il secondo sistema e il sistema risultante dalla connessione, questa volta si
possono avere varie possibilit`a. Per esempio R potrebbe essere uguale alla somma R1 + R2 ,
oppure al prodotto cartesiano R1 R2 .
3) Retroazione (o feedback): luscita del primo sistema viene letta dal secondo sistema, elaborata,
addizionata ad eventuali altri input esterni e quindi re-immessa nel canale di ingresso del
primo sistema.
u- d 6

R1

- d y-

R2

Adesso, loperatore R che rappresenta la connessione di R1 e R2 `e definito implicitamente


dalla relazione y() = R1 (R2 (y()) + u()).
Combinando questi tipi di connessioni, si possono ottenere schemi molto generali.

13

1.1.7

Analisi dei sistemi

Scopo dellanalisi dei sistemi `e quello di studiare le propriet`a delloperatore ingresso-uscita. In


particolare ha interesse dare delle stime dellenergia trasportata dal segnale di uscita, in funzione
dellenergia trasportata dal segnale in ingresso. Per poter fare ci`o, bisogna che le funzioni che
descrivono gli ingressi e le funzioni che descrivono le uscite vengano prese in spazi dotati di norma
la cui scelta dipender`a dalla natura dellapplicazione e che, per il momento, non occorre precisare.
Continuiamo a indicare rispettivamente, come prima, con i simboli F(R, Rm ) e F(R, Rp ) lo
spazio delle funzioni di ingresso e lo spazio delle funzioni di uscita, ma teniamo presente che da
questo momento in poi, essi devono essere definiti in modo da risultare spazi vettoriali normati. Le
loro norme saranno indicate rispettivamente con i simboli || ||F(R,Rm ) e || ||F(R,Rp ) .
Informalmente, si dice che un sistema `e esternamente stabile quando ad ogni ingresso limitato
corrisponde unuscita limitata. Cerchiamo di rendere pi`
u preciso questo concetto.
Definizione 1.1 Un sistema, o loperatore R che lo rappresenta, si dice BIBO-stabile rispetto alle
norme || ||F(R,Rm ) e || ||F(R,Rp ) se per ogni numero reale R > 0 esiste un numero reale S > 0 tale
che per ogni ingresso u() F(R, Rm ) si ha
||u()||F(R,Rm ) R = ||y()||F (R,Rm ) S
dove y() `e la risposta del sistema corrispondente allingresso u().
Lacronimo BIBO deriva dallinglese bounded-input-bounded-output. Si noti che la Definizione
1.1 consente la possibilit`a che luscita sia diversa da zero anche quando lingresso `e costantemente
nullo.
La proposizione seguente, di cui tralasciamo la dimostrazione, propone un modo diverso di
definire lo stesso concetto.
Proposizione 1.1 Un sistema, o loperatore R che lo rappresenta, `e BIBO-stabile se e solo se
esiste una funzione
(r) : [0, +) [0, +)
continua e non-decrescente tale che per ogni ingresso u() F(R, Rm ) si ha:
||y()||F(R,Rp ) (||u()||F(R,Rm ) ) .

(1.1)

Il significato della (1.1) `e che se lenergia trasportata dal segnale in ingresso `e limitata, il
sistema risponde con un segnale in uscita la cui energia pu`o essere stimata in funzione della stima
dellenergia del segnale in ingresso. Il valore (0) prende il nome di costante di distorsione, mentre
la funzione (r) (0) si chiama funzione-guadagno.
Nellanalisi dei sistemi `e di fondamentale importanza conoscere le condizioni sotto le quali
un sistema `e BIBO-stabile e, nel caso affermativo, ricavare informazioni sulle caratteristiche della
funzione .

14

1.1.8

Controllo dei sistemi

Il progetto (design) del sistema (o sintesi) consiste nel determinare una strategia di controllo, da
esercitare utilizzando il canale di ingresso, in modo che luscita del sistema sia il pi`
u vicina possibile
a quella desiderata.
Genericamente, esistono due possibili tipi di strategie di controllo.
1) Controllo a circuito aperto: il controllo viene implementato costruendolo direttamente come
funzione del tempo u() F(R, Rm ).
2) Controllo a circuito chiuso: il controllo viene implementato costruendo un secondo sistema e
realizzando una connessione in retroazione.
Il secondo tipo `e in generale preferibile (si parla anche di controllo automatico) in quanto
mette il sistema in grado di autoregolarsi, in caso di perturbazioni impreviste, anche senza la
presenza costante di un operatore umano. Nel controllo a circuito chiuso infatti, luscita del sistema
principale, denominato impianto e rappresentato da un operatore RI : F(R, Rm ) F(R, Rp ),
viene confrontata col segnale di riferimento. Quando la differenza tra le due funzioni diventa troppo
sensibile, il secondo sistema, denominato compensatore o controllore e rappresentato da un operatore
RC : F(R, Rp ) F(R, Rm ), comunica allimpianto le correzioni necessarie.
Talvolta `e possibile accedere direttamente allo stato del sistema, e quindi realizzare il compensatore come un operatore RC : F(R, Rn ) F(R, Rm ). Per distinguere tra le due situazioni, si
parla di retroazione delluscita nel primo caso e di retroazione dello stato nel secondo.

1.1.9

Propriet`
a dei sistemi

In questa sezione, facendo per il momento ancora riferimento al caso generale, ci proponiamo di
discutere le propriet`a che `e ragionevole aspettarsi, affinche un operatore R : F(R, Rm ) F(R, Rp )
sia effettivamente rappresentativo di un sistema fisico.
Sistemi causali
Di regola, i sistemi che si incontrano nelle applicazioni pratiche sono causali (o non-anticipativi).
Ci`o significa che se per un qualunque t R e per una qualunque coppia di ingressi u1 (), u2 ()
F(R, Rm ) si ha
u1 ( ) = u2 ( ) per ogni t ,
allora
y1 (t) = y2 (t)
dove y1 () = R(u1 ()) e y2 () = R(u2 ()). In altre parole, il valore delluscita a un istante arbitrario
t `e determinato esclusivamente dai valori assunti dalla funzione di ingresso negli istanti precedenti
a t.

15
Sistemi invarianti nel tempo
Diremo che un sistema, o loperatore che lo rappresenta, `e invariante nel tempo (o stazionario, o
anche autonomo) se t, R e per ogni ingresso u() F(R, Rm ), posto
v(t) = u(t ),

y() = R(u()),

z() = R(v())

si ha
z(t) = y(t ) .
In altre parole, se si ritarda (o si anticipa) il segnale di ingresso di una certa quantit`
a di tempo,
anche il segnale in uscita viene ritardato (o anticipato) della stessa quantit`
a di tempo, ma resta
qualitativamente invariato.
Sistemi lineari
Un sistema si dice lineare se tale `e loperatore che lo rappresenta, ovvero se
a1 R(u1 ()) + a2 R(u2 ()) = R(a1 u1 () + a2 u2 ())
per ogni coppia di ingressi u1 (), u2 () F(R, Rm ) e ogni coppia di scalari a1 , a2 . Si noti che questa
definizione ha senso in quanto lo spazio degli ingressi e lo spazio delle uscite sono spazi vettoriali.

1.2

Sistemi a risposta impulsiva

Un modo per rendere pi`


u concreta la descrizione di un sistema finito-dimensionale in tempo continuo `e quello di ipotizzare lesistenza di una matrice h(t) con p righe e m colonne, i cui elementi
siano funzioni continue del tempo definite per ogni t R, tale che la risposta y() = R(u())
corrispondente a un ingresso u() F(R, Rm ) ammetta la rappresentazione
y(t) =

Z +

h(t )u( ) d

(1.2)

assumendo naturalmente che lintegrale improprio risulti assolutamente convergente1 . Un sistema


per cui una tale matrice esiste si dir`a a risposta impulsiva, e la matrice h(t) si chiamer`
a matrice
della risposta impulsiva. La ragione di questa denominazione `e la seguente. Sia e1 , . . . , em una base
di Rm , e sia u(t) = (t)ei (per un certo indice i = 1, . . . , m) dove (t) rappresenta limpulso unitario
concentrato nellorigine (delta di Dirac). Si ha:
Z +

h(t )u( ) d =

Z +

h(t )( )ei d = h(t)ei .

La risposta del sistema allimpulso unitario impresso nella direzione del vettore ei coincide cio`e
con la colonna i-esima della matrice h(t). Si noti che se p = m = 1 (sistema SISO), h(t) si riduce a
una funzione reale di variabile reale.
La dimostrazione della proposizione seguente `e immediata.
1
Lipotesi di convergenza assoluta dellintegrale (1.2) non `e per altro scontata e richiede, in generale, restrizioni
sulla natura del sistema o sullinsieme degli ingressi ammissibili.

16
Proposizione 1.2 Se un sistema `e a risposta impulsiva, allora loperatore ingresso-uscita R associato `e lineare.
Segue in particolare dalla Proposizione 1.2 che per un sistema a risposta impulsiva luscita
corrispondente a un ingresso costantemente uguale a zero `e nulla.
Proposizione 1.3 Ogni sistema a risposta impulsiva `e invariante nel tempo.
Dimostrazione Sia u(t) una funzione di ingresso, e sia y(t) la relativa risposta. Siano inoltre
T R, v(t) = u(t T ) e z(t) la risposta relativa allingresso v(t). Si ha:
z(t) =

Z +

h(t )v( ) d =

Z +

h(t )u( T ) d .

Effettuiamo la sostituzione T = . Si ha:


z(t) =

Z +

h(t T )u() d = y(t T ) ,

come dovevasi dimostrare.

Osservazione 1.2 In realt`a, le due proposizioni precedenti caratterizzano completamente la classe


` infatti possibile dimostrare che ogni sistema lineare e invariante
dei sistemi a risposta impulsiva. E
nel tempo `e a risposta impulsiva. Intuitivamente, la matrice h(t) pu`o essere costruita a partire dalla
risposta agli impulsi unitari concentrati nellorigine dei tempi, e dalle risposte agli impulsi traslati,
concentrati in istanti arbitrari. Combinando linearmente queste risposte si pu`o approssimare la
risposta ad un ingresso generico.

Un sistema a risposta impulsiva non `e invece necessariamente causale.


Proposizione 1.4 Sia dato un sistema a risposta impulsiva h(t). Le seguenti propriet`
a sono
equivalenti.
(1) Il sistema `e causale;
(2) h(t) = 0 per ogni t < 0;
(3) per ogni ingresso u() F(R, Rm ) e per ogni t R
y(t) =

Z t

h(t )u( ) d .

Dimostrazione Dimostriamo che (1) = (2), supponendo per semplicit`a che m = p = 1. Sia t
fissato e consideriamo due ingressi

u1 ( ) = 0

e u2 ( ) =

0
se < t
sgn (h(t )) se t .

17
Poiche u1 ( ) = u2 ( ) per < t la propriet`a di causalit`a implica luguaglianza delle rispettive
uscite al tempo t: y1 (t) = y2 (t). Ma evidentemente y1 (t) = 0, mentre
y2 (t) =

Z +

h(t )u2 ( ) d 6=

Z +
t

|h(t )| d 6= 0

a meno che non sia h(t ) = 0 per ogni > t, ovvero h(r) = 0 per r < 0.
Se m o p (o entrambi) non sono uguali a 1, la dimostrazione diventa pi`
u complicata dal punto
di vista tecnico, ma riposa essenzialmente sulle stesse idee.
La dimostrazione che (2) = (3) `e immediata. Resta da dimostrare che (3) = (1). Fissiamo
t R. Se u1 , u2 sono funzioni di ingresso tali che u1 ( ) = u2 ( ) per ogni t, allora le uscite
corrispondenti y1 , y2 saranno tali che
y1 (t) =

Z t

h(t )u1 ( ) d =

Z t

h(t )u2 ( ) d = y2 (t) .

Dunque il sistema `e causale.


Nella rappresentazione dei sistemi causali a risposta impulsiva, unulteriore semplificazione `e
possibile se ci si limita a ingressi u() F(R, Rm ) che godono della seguente propriet`a: esiste
t0 R tale che u( ) = 0 per ogni < t0 . In tal caso si avr`
a infatti y(t0 ) = 0 e, per ogni t > t0 ,
y(t) =

Z t
t0

h(t )u( ) d .

Per i sistemi causali a risposta impulsiva, vi `e anche una semplice caratterizzazione della stabilit`a
esterna.
Proposizione 1.5 Sia dato un sistema causale a risposta impulsiva h(t). Assumiamo come spazi
degli ingressi e delle uscite B(R, Rm ) e B(R, Rp ), dotati entrambi della norma della convergenza
uniforme. Il sistema `e BIBO-stabile se e solo se lintegrale
Z +
0

converge, ovvero se e solo se la funzione t 7

||h(r)|| dr

Rt
0

||h(r)|| dr `e limitata nellintervallo [0, +).

Dimostrazione Poiche il sistema `e causale, per ogni t R si ha:


Z
||y(t)|| =

h(t )u( ) d ||

||

||h(t )u( )|| d

||h(t )|| ||u( )|| d

Z t

||h(t )|| d ||u()|| .

Ma, applicando la sostituzione t = r,


Z t
Z
||h(t )|| d =

||h(r)|| dr .

18
Quindi, se

R +
0

||h(r)|| dr = ` < +, ritornando al calcolo precedente si ottiene


||y(t)|| `||u()||

per ogni t R e in definitiva ||y()|| `||u()|| .


Per quanto riguarda il viceversa, cominciamo dal caso m = p = 1. Supponiamo il sistema BIBO-stabile,
fissiamo t R e consideriamo lingresso (dipendente da t) u( ) = sgn h(t ). Ricorrendo ancora allipotesi
di causalit`a, si ha
Z t
Z t
Z
y(t) =
h(t )u( ) d =
|h(t )| d =
|h(r)| dr .
(1.3)

Poiche |u( )| 1 qualunque siano t e , per lipotesi di BIBO stabilit`a esiste una costante S > 0 tale
che
|y(t)| ||y()|| S

(1.4)
R +

per ogni t R. La (1.3) e la (1.4) assieme implicano la convergenza dellintegrale 0 |h(r)| dr.
A parte alcune complicazioni tecniche, la dimostrazione si estende al caso generale in cui m o p (o
entrambi) siano maggiori di 1.

1.3

Sistemi inizializzati

Lidea di interpretare un sistema come un operatore R : F(R, Rm ) F(R, Rp ) `e attrattiva, ed ha il


vantaggio di permettere una presentazione semplificata di alcuni concetti fondamentali. Tuttavia, `e
meno naturale e soddisfacente di quello che sembri. Nelle pi`
u comuni applicazioni infatti, gli ingressi
non sono noti su tutto lasse dei tempi, ma solo a partire da un certo istante t0 R, fissato una
volta per tutte e chiamato istante iniziale. In generale, ha interesse studiare il comportamento del
sistema nel futuro, cio`e per t t0 . A tal fine, oltre ad assumere la conoscenza degli ingressi per
t t0 , sar`a anche necessario compensare la perdita di informazione relativa agli ingressi per t < t0 ,
con lassegnazione di un dato di altra natura.
Usualmente, si assume di conoscere lo stato x0 Rn a cui si trova il sistema allistante iniziale
t0 , e a cui si d`a il nome di stato iniziale.
In questa ottica, conviene interpretare loperatore ingresso-uscita come un operatore inizializzato R(t0 , x0 )(u()) che trasforma funzioni2 u() F([t0 , +), Rm ) in funzioni y() F([t0 , +), Rp ),
e scrivere y() = R(t0 , x0 )(u()).

1.3.1

Sistemi deterministici

Possiamo immaginare che nelle condizioni iniziali, cio`e nel dato della coppia (t0 , x0 ) R Rn ,
venga riassunta tutta la storia passata del sistema, e che la conoscenza dello stato iniziale (in
aggiunta ovviamente alla conoscenza degli ingressi che il sistema riceve dallistante iniziale in poi)
siano sufficienti per determinare tutta levoluzione futura. Questa idea riposa su unipotesi che `e
analoga a quella di causalit`a, ma pi`
u appropriata al nuovo punto di vista, e comunque diversa
perche fa intervenire esplicitamente lo stato del sistema.
2

Alternativamente,si pu`
o anche convenire che gli ingressi ammissibili si limitino alle funzioni u() F (R, Rm ) che
sono nulle per t < t0 . A differenza di quanto accade per i sistemi a risposta impulsiva, ci`
o non implica in generale
che luscita al tempo t0 sia uguale a zero.

19
Definizione 1.2 Si dice che un sistema, o loperatore inizializzato che lo rappresenta, `e deterministico se t0 R,
u1 (t) = u2 (t) t t0 e x1 = x2 = y1 (t) = y2 (t) t t0
dove y1 () = R(t0 , x1 )(u1 ()) e y2 () = R(t0 , x2 )(u2 ()).
In accordo con la Definizione 1.2, vanno considerati non deterministici i cosiddetti sistemi con
ritardo (nei quali il comportamento per t t0 dipende non solo dallo stato in cui il sistema si trova
al tempo t0 , ma anche da tutti quegli stati che il sistema ha attraversato al trascorrere del tempo
da un certo istante t0 ( > 0) fino a t0 ) e pi`
u in generale i sistemi con memoria (tipicamente
quelli che presentano cicli di isteresi).
Vediamo adesso come vanno modificate le definizioni di sistema invariante nel tempo e di sistema
lineare, nel caso in cui si sia scelto di rappresentare il sistema stesso per mezzo di un operatore
inizializzato.
Da questo momento in poi, in aggiunta a quanto stabilito in precedenza e salvo avviso
contrario, col termine sistema intenderemo sempre sistema rappresentato da un operatore
inizializzato deterministico.

1.3.2

Sistemi invarianti nel tempo

Un sistema, rappresentato per mezzo di un operatore inizializzato, `e invariante nel tempo se t0 ,


R, x0 Rn , e per ogni ingresso u(), posto
v(t) = u(t ),

y() = R(t0 , x0 )(u()),

z() = R(t0 + , x0 )(v())

si ha
z(t) = y(t ) .
Proposizione 1.6 Sia R un operatore inizializzato invariante nel tempo, e sia y() = R(t0 , x0 )(u()).
Allora,
y(t) = z(t t0 )
dove z() = R(0, x0 )(v()), e v(t) = u(t + t0 ).
In altre parole, quando si ha a che fare con operatori invarianti nel tempo non `e restrittivo
assumere che listante iniziale coincida con lorigine dellinsieme dei tempi.

1.3.3

Sistemi lineari

Un sistema rappresentato per mezzo di un operatore inizializzato R, si dice lineare se per ogni
t0 R, R `e lineare come applicazione da Rn F([t0 , +), Rm ) in F([t0 , +), Rp ), e cio`e se
t0 R, x1 , x2 Rn , u1 (), u2 () F([t0 , +), Rm ), a1 , a2 R si ha
R(t0 , a1 x1 + a2 x2 )(a1 u1 () + a2 u2 ()) = a1 R(t0 , x1 )(u1 ()) + a2 R(t0 , x2 )(u2 ()) .

20
Proposizione 1.7 Sia R un operatore inizializzato invariante nel tempo e lineare. Per ogni t0 R,
ogni x0 Rn e ogni u() F([t0 , +), Rm ) si ha:
y() = R(t0 , x0 )(0) + R(t0 , 0)(u()) .
Dimostrazione Applicando la definizione di sistema inizializzato lineare con x1 = x0 , x2 = 0, u1 () = 0,
u2 () = u(), a1 = a2 = 1, si ha subito
y() = R(t0 , x0 )(u()) = R(t0 , x0 )(0) + R(t0 , 0)(u()) ,
come desiderato.

1.3.4

Stabilit`
a esterna

Anche la Definizione 1.1, quando la si applica ai sistemi inizializzati, richiede un aggiornamento.


Definizione 1.3 Un sistema, rappresentato per mezzo di un operatore inizializzato R, `e BIBOstabile (uniformemente rispetto allistante iniziale) se per ogni numero reale R > 0 esiste un numero
reale S > 0 tale che per ogni t0 R e ogni ingresso u() B([t0 , +), Rm ) si abbia
||x0 || R, ||u()|| R = ||y()|| S
dove y() = R(t0 , x0 )(u()).

1.3.5

Sistemi inizializzati a zero e sistemi non forzati

La Proposizione 1.7 pu`o essere interpretata dicendo che la risposta di un sistema lineare relativa a
un certo stato iniziale x0 e ad un certo ingresso u() si pu`o sempre ottenere mediante unoperazione
semplice (somma) conoscendo:
la risposta relativa allo stato iniziale x0 con lingresso posto uguale a zero;
la risposta relativa allingresso u() con lo stato iniziale posto uguale a zero.
In altre parole, nellanalisi del comportamento di un sistema lineare, e specificatamente nello
studio della stabilit`a esterna, linfluenza sulla risposta dei dati iniziali e linfluenza, sempre sulla
risposta, degli ingressi possono essere analizzate separatamente. Conviene quindi procedere per
tappe successive, supponendo in una prima fase che lingresso sia nullo, e in una seconda fase che
sia nullo lo stato iniziale. Come vedremo, in questo modo sar`a anche pi`
u facile ritrovare analogie
con i risultati della teoria dei sistemi a risposta impulsiva.
Un sistema rappresentato da un operatore inizializzato invariante nel tempo si dice inizializzato
a zero se lo stato iniziale x0 al tempo t0 = 0 `e posto uguale a zero. Un sistema rappresentato da un
operatore inizializzato si dice non forzato quando lingresso `e posto costantemente uguale a zero
per t 0.
Un sistema non forzato pu`o comunque presentare unevoluzione nel tempo: infatti, per effetto
dellenergia accumulata nel sistema nelle fasi che precedono listante iniziale, lo stato iniziale non
corrisponder`a, in generale, ad uno stato di riposo.

21
In tali circostanze, `e naturale attendersi che il sistema si evolva dissipando lenergia iniziale,
e in modo da portarsi asintoticamente verso una posizione di equilibrio. Se questo accade, si dir`a
genericamente che il sistema `e internamente stabile. Il concetto di stabilit`a interna sar`a ripreso e
precisato pi`
u avanti.
Nellanalisi delle propriet`a di un sistema, lo studio del comportamento in assenza di termini
forzanti costituisce, di regola, una delle fasi preliminari. Come vedremo infatti, esiste una stretta
correlazione tra le propriet`a di stabilit`a interna e quelle di stabilit`a esterna.

1.4

Sistemi differenziali

In questa sezione circoscriveremo loggetto dei nostri studi ai sistemi modellizzati per mezzo di
equazioni differenziali ordinarie; essi si chiamano anche sistemi differenziali. Si tratta di una classe
molto particolare di sistemi, per i quali `e disponibile una teoria molto sviluppata e completa, e
della quale sono note numerose e importanti applicazioni. Lintroduzione di questo tipo di sistemi
richiede alcune restrizioni.

1.4.1

Ingressi ammissibili

Trattandosi di sistemi differenziali, per funzione di ingresso ammissibile si intender`


a sempre una
funzione u() PC([t0 , +), Rm ), per un qualche t0 R. Tuttavia, per certe applicazioni, `e
necessario limitare ulteriormente gli ingressi ammissibili a funzioni u() PC([t0 , +), U ), dove
U `e un sottoinsieme limitato non vuoto di Rm dato una volta per tutte. Il ruolo di U `e quello di
` appena il
rappresentare eventuali limitazioni sullenergia disponibile per esercitare il controllo. E
caso di osservare che in generale PC([t0 , +), U ) non `e uno spazio vettoriale.

1.4.2

Equazioni di stato

Si suppongano date due funzioni


f (t, x, u) : R Rn Rm Rn
e
h(t, x) : R Rn Rp .
Un sistema differenziale `e definito dal sistema di equazioni (dette anche equazioni di stato)
x =

dx
= f (t, x, u)
dt

(1.5)

e dalla funzione dosservazione


y = h(t, x) .

(1.6)

Per ogni funzione di ingresso ammissibile u(t), la (1.5) diventa un sistema di equazioni differenziali ordinarie del primo ordine in forma normale
x = f (t, x, u(t)) = g(t, x) .
A proposito delle funzioni f e h, assumeremo sempre che:

(1.7)

22
(A1) f sia continua e dotata di derivate parziali prime continue rispetto ad x, continua rispetto
a u, e continua a tratti rispetto a t;
(A2) h sia continua rispetto a x, e continua a tratti rispetto a t;
(A3) esistano funzioni continue e positive a(t), b(t) tali che
||f (t, x, u)|| a(t)||x|| + b(t)
per ogni (t, x, u) R Rn Rm .
Sotto tali ipotesi, per ogni coppia di valori iniziali (t0 , x0 ) R Rn e per ogni ogni funzione
di ingresso ammissibile esiste ununica soluzione del problema di Cauchy

x = g(t, x)
x(t0 ) = x0

(1.8)

definita sullintero intervallo [t0 , +). Volendo esplicitare la dipendenza della soluzione del problema (1.8) dalle condizioni iniziali e dallingresso, useremo la notazione
x = x(t; t0 , x0 , u()) .

(1.9)

Loperatore ingresso-uscita inizializzato associato al sistema differenziale (1.5), (1.6)


y() = R(t0 , x0 )(u())

(1.10)

`e quello che definisce luscita come y(t) = h(t, x(t; t0 , x0 , u())) per ogni t t0 . In analogia con (1.9)
useremo talvolta la notazione
y = y(t; t0 , x0 , u()) .

(1.11)

Possiamo riassumere quanto detto fino a questo momento nella proposizione seguente.
Proposizione 1.8 Nelle ipotesi (A1), (A2), (A3), il sistema differenziale (1.5), (1.6) definisce
un operatore ingresso-uscita (1.10) deterministico sullinsieme degli ingressi ammissibili. Inoltre,
luscita y(t) `e una funzione continua.
La seguente Proposizione caratterizza invece i sistemi differenziali invarianti nel tempo.
Proposizione 1.9 Nelle ipotesi (A1), (A2), (A3), loperatore ingresso-uscita (1.10) definito dal
sistema differenziale (1.5), (1.6) risulta invariante nel tempo se le funzioni f e h non dipendono
esplicitamente da t, ossia se f (t, x, u) = f (x, u) e h(t, x) = h(x).
Dimostrazione Sia t0 R e sia u(t) PC([t0 , +), Rm ). Dato uno stato iniziale x0 , sia x(t) la corrispondente soluzione dellequazione (1.5) e sia y(t) = h(x(t)). Sia infine un numero reale dato.
Posto v(t) = u(t ) e (t) = x(t ), si ha
d
d
(t) = x(t ) = f (x(t ), u(t )) = f ((t), v(t)) .
dt
dt
In altre parole, (t) coincide con la soluzione relativa allingresso traslato v(t) e alle condizioni iniziali
(t0 + , x0 ). Posto infine z(t) = h((t)), `e chiaro che z(t) = y(t ).

23
In virt`
u delle Proposizioni 1.6 e 1.9, se le funzioni f e h non dipendono esplicitamente da t
non `e restrittivo supporre t0 = 0. In tal caso, le notazioni (1.9) e (1.11) possono essere semplificate
evitando di indicare esplicitamente listante iniziale.

1.4.3

Sistemi differenziali lineari

Nella teoria matematica dei sistemi differenziali, un ruolo di rilievo spetta, sia dal punto di vista
storico che dal punto di vista delle applicazioni, ai sistemi definiti da equazioni lineari.
Definizione 1.4 Un sistema differenziale invariante nel tempo si dice lineare quando si presenta
nella forma
f (x, u) = Ax + Bu

h(x) = Cx

dove A, B, C sono matrici a elementi reali di dimensioni, rispettivamente, n n, n m, p n.


Proposizione 1.10 Dato un sistema differenziale

x = Ax + Bu
y = Cx ,

(1.12)

lineare nel senso della Definizione 1.4, loperatore ingresso-uscita inizializzato associato (1.10) `e
lineare.
La dimostrazione della Proposizione 1.10 sar`a data pi`
u avanti.
A partire dal Capitolo 3 di queste lezioni, concentreremo principalmente la nostra attenzione
allo studio dei sistemi differenziali invarianti nel tempo e lineari.

24

Capitolo 2

Sistemi di equazioni differenziali in


generale
Scopo di questo Capitolo `e lintroduzione di alcune propriet`a rilevanti nella caratterizzazione del
comportamento qualitativo a lungo termine delle variabili di stato dei sistemi differenziali invarianti nel tempo non forzati. Un sistema di questo tipo si riduce ad un sistema di equazioni
differenziali (in generale, non lineari)1
x = f (x) .

(2.1)

A proposito della (2.1), supporremo che f sia definita, continua e dotata di derivate parziali prime
continue per ogni x Rn , e che inoltre soddisfi una disuguaglianza del tipo
||f (x)|| a||x|| + b
per certe costanti positive a, b. Sappiamo che sotto queste condizioni `e garantita, per ogni condizione
iniziale (t0 , x0 ), esistenza, unicit`a e prolungabilit`a allinfinito della soluzione al problema di Cauchy.
Inoltre, poiche il sistema (2.1) `e definito da una funzione f che non dipende esplicitamente da
t, per la Proposizione 1.9 esso `e invariante nel tempo; non `e quindi restrittivo supporre che t0 = 0.

2.1

La mappa di flusso

Ogni soluzione della (2.1) pu`o essere interpretata come la parametrizzazione di una curva x = (t)
di Rn . Per ogni t R, il vettore tangente a tale curva in x coincide con f (x). Per questa ragione
la funzione f : Rn Rn che definisce la (2.1) si chiama anche un campo vettoriale.
Il sostegno di una soluzione x = (t) della (2.1) prende anche il nome di orbita o traiettoria.
Bisogna fare attenzione a non confondere il grafico di una soluzione (t), che `e un sottoinsieme di
RRn , con lorbita di (t), che coincide con limmagine (R) e che `e un sottoinsieme di Rn . Per
chiarire ulteriormente, osserviamo che lorbita di non `e altro che la proiezione del grafico di su
Rn , effettuata secondo linee parallele allasse dei tempi (si veda la Figura 2.1).
1

Le nozioni che andiamo ad introdurre in questo capitolo saranno nel seguito applicate essenzialmente nel caso
dei sistemi lineari; tuttavia, esse si comprendono meglio in tutta la loro generalit`
a enunciandole in riferimento a un
sistema del tipo (2.1).

25

26

10
y
5

0
t

10
10

x
5
20

15
10

5
5
10

Figura 2.1: Due soluzioni e loro proiezione


Come abbiamo gi`a osservato, nelle nostre ipotesi la (2.1) ha ununica soluzione per ogni condizione iniziale assegnata. Possiamo formulare tale propriet`a, tenendo conto della sua validit`
a globale,
scrivendo che date due soluzioni x = (t) e x = (t) della (2.1),
t :

(t) = (t)

(t) = (t) t R .

(2.2)

Da un punto di vista geometrico, la (2.2) ci dice che se i grafici di due soluzioni hanno un punto
in comune, allora coincidono.
Sempre da un punto di vista geometrico, linvarianza nel tempo si interpreta dicendo che traslando nel tempo grafici di soluzioni si ottengono ancora grafici di soluzioni. Tutte le soluzioni
ottenute in questo modo sono ovviamente parametrizzazioni equivalenti della stessa curva: ad esse
corrisponde dunque una stessa orbita (si veda ancora la Figura 2.1). Vale una sorta di viceversa.
Lemma 2.1 Siano (t) e (t) due soluzioni qualunque della (2.1) definite per ogni t R. Allora,
t1 , t2 : (t1 ) = (t2 ) = (t) = (t + T ) t R ,

(2.3)

dove si `e posto T = t1 t2 .
Dimostrazione Si ponga T = t1 t2 e (t) = (t + T ). Chiaramente, (t) `e una soluzione. Essa soddisfa
alla condizione iniziale
(t2 ) = (t2 + t1 t2 ) = (t1 ) .
Ma anche (t) `e la soluzione e, per ipotesi, soddisfa alla stessa condizione. In conseguenza dellunicit`a
delle soluzioni, si ha allora
(t) = (t + T ) = (t)

t R .

Laffermazione del Lemma 2.1 pu`o essere interpretata dicendo che se due orbite hanno un punto
in comune, esse devono coincidere (a questo proposito, si faccia ben attenzione alla differenza tra
la (2.2) e la (2.3)). Dunque, per ogni punto di Rn passa una e una sola orbita. Le orbite di un

27
sistema del tipo (2.1) si dispongono nel piano in modo da costituirne una partizione. Esse formano
un disegno che prende il nome di configurazione degli stati.
Per indicare la soluzione del problema di Cauchy

x = f (x)
x(0) = x0

(2.4)

x = x(t, x0 )

(2.5)

si adotta spesso la notazione2

che ha il vantaggio di evidenziare, oltre alla variabile temporale t, anche lo stato iniziale x0 . La
(2.5) definisce una funzione da R Rn Rn , a cui si d`a il nome di mappa di flusso generato dal
campo vettoriale f . Essa pu`o essere interpretata come una funzione di t per ogni dato x0 , oppure
come una funzione da Rn in Rn parametrizzata da t.
Osservazione 2.1 Nella (2.5), la variabile t va pensata non tanto come lindicazione di un preciso istante di tempo, ma piuttosto come lindicazione della durata del processo, cio`e come la
lunghezza dellintervallo di tempo necessario per operare il trasferimento di stato da x0 in x(t, x0 ).

Proposizione 2.1 La mappa di flusso del campo vettoriale f soddisfa le propriet`


a
x(0, x0 ) = x0

(2.6)

x(t, x(, x0 )) = x(t + , x0 )

(2.7)

qualunque siano t, R e x0 Rn .

2.2

Punti dequilibrio e stabilit`


a nel senso di Liapunov

In questa sezione cercheremo di rendere preciso il significato dellespressione stabilit`a interna.


Con ci`o si intende che un sistema, in assenza di sollecitazioni esterne, o resta nelle vicinanze di uno
stato di riposo oppure si evolve in modo da approssimarsi ad uno stato di riposo.
Dato un sistema differenziale invariante nel tempo e non forzato (2.1), si dice che x Rn `e un
punto dequilibrio se la funzione costante (t) x
`e una soluzione. Tali punti si dicono anche punti
critici o punti singolari. Se x
`e un punto dequilibrio, allora lorbita passante per x si riduce a {
x}.
Proposizione 2.2 Un punto x
`e dequilibrio se e solo se f (
x) = 0.
Un punto dequilibrio x
si dice isolato se esiste un intorno O di x
tale che f (x) 6= 0 per ogni
x O, x 6= x
.
2

La (2.5) non `e altro che quello a cui si riduce la (1.9) nel caso della (2.1).

28
Definizione 2.1 Si dice che x
`e un punto dequilibrio stabile (nel senso di Liapunov) per il sistema
(2.1) se per ogni > 0 esiste un > 0 tale che
kx0 x
k <

kx(t; x0 ) x
k < ,

t 0

.
Definizione 2.2 Si dice che x
`e un punto dequilibrio attrattivo se esiste un 0 > 0 tale che, per
ogni stato iniziale x0 per cui kx0 x
k < 0 , si ha
lim x(t; x0 ) = x
.

t+

(2.8)

Definizione 2.3 Se x
`e allo stesso tempo un punto dequilibrio stabile e attrattivo, si dice che `e
asintoticamente stabile. Se inoltre la (2.8) vale per ogni x Rn , x
si dir`
a globalmente asintoticamente stabile. Infine, se la convergenza delle soluzioni verso x
ha carattere esponenziale, e cio`e se
esistono M > 0, > 0 tali che
x0 con kx0 x
k < 0 si ha kx(t; x0 ) x
k M et ,

(2.9)

si parla di stabilit`a esponenziale.


Lestremo superiore dei numeri per cui vale la (2.9) (con un M opportuno) si chiama tasso
di decadimento.
Nello studio del comportamento qualitativo delle soluzioni di un sistema non forzato (2.1) `e
infine utile la seguente nozione.
Definizione 2.4 Sia K un sottoinsieme chiuso di Rn . Si dice che K `e invariante per il sistema
(2.1) se per ogni x0 K si ha x(t; x0 ) K per ogni t R.

Capitolo 3

Sistemi di equazioni differenziali


lineari omogenei
Concentriamo la nostra attenzione sui sistemi differenziali lineari. Per avviarne lo studio in maniera
sistematica, in questo capitolo ci limiteremo ai sistemi lineari finito-dimensionali, invarianti nel
tempo, e non forzati. Questi sono definiti da un sistema di equazioni del tipo
x Rn .

x = Ax ,

(3.1)

Nella tradizione matematica, (3.1) si chiama un sistema di equazioni differenziali lineari omogeneo a coefficienti costanti. In forma esplicita, (3.1) si scrive

x 1 = a11 x1 + . . . + a1n xn

3.1

... ... ...


x n = an1 x1 + . . . + ann xn .

Richiami

Cominciamo col ricordare alcuni fatti importanti a proposito dei sistemi di equazioni del tipo (3.1).
Fatto 1. Per ogni stato iniziale x0 assegnato esiste una e una sola soluzione x = (t) della (3.1)
tale che (0) = x0 ; inoltre, (t) `e definita per ogni t R.
Fatto 2. Se v Rn (v 6= 0) `e un autovettore di A relativo allautovalore R, allora (t) = et v
`e la soluzione corrispondente allo stato iniziale v.
Fatto 3. Se 1 (), 2 () sono soluzioni di (3.1) e 1 , 2 R, allora anche 1 1 () + 2 2 () `e
soluzione di (3.1).
Fatto 4. Date k soluzioni 1 (), . . . , k () di (3.1), queste costituiscono un sottoinsieme linearmente indipendente in C(, +, Rn ) se e solo se i vettori 1 (t), . . . , k (t) costituiscono,
per ogni t R, un sottoinsieme linearmente indipendente in Rn .
Fatto 5. Linsieme di tutte le soluzioni di (3.1) forma un sottospazio S di C(, +, Rn ): la
dimensione di S `e finita e, pi`
u precisamente, uguale ad n. Ad S si d`
a il nome di integrale
generale del sistema (3.1).
29

30
Il sistema di equazioni (3.1) ha senso anche se si ammette che x possa prendere valori nello
spazio n-dimensionale complesso Cn , e che gli elementi di A siano complessi: a parte le ovvie
modifiche, rimane vero tutto quanto abbiamo detto fino a questo momento1 . Valgono le seguenti
ulteriori propriet`a.
Fatto 6. Se gli elementi di A sono reali, e se z() `e una soluzione non reale di (3.1), allora anche
la sua coniugata z() `e una soluzione di (3.1).
Fatto 7. Se gli elementi di A sono reali, e se z() `e una soluzione non reale di (3.1), allora z()
e z() sono linearmente indipendenti; inoltre,
z() + z()
z() z()
e 2 () =
2
2i
sono due soluzioni della (3.1) reali e linearmente indipendenti.
1 () =

(3.2)

Se A `e una matrice a elementi reali con un autovalore non reale = + i ( 6= 0) associato ad


un autovettore v = u + i w, a partire dalla soluzione complessa z(t) = et v si ottengono pertanto,
con semplici calcoli, le due soluzioni reali
1 (t) = et [(cos t)u (sin t)w]

e 2 (t) = et [(cos t)w + (sin t)u] .

Osservazione 3.1 Ad autovalori non reali, corrispondono dunque soluzioni reali a carattere oscillatorio. In particolare se = 0, gli autovalori sono immaginari, e si hanno soluzioni periodiche di
periodo minimo uguale a 2/.

A questo punto risulta chiaro che lintegrale generale della (3.1) pu`o essere scritto come combinazione lineare
(t) = c1 1 (t) + . . . + cn n (t)

(3.3)

dove le c1 , . . . , cn sono delle costanti arbitrarie, e 1 , . . . , n sono n soluzioni qualunque, purche


linearmente indipendenti. Se A `e reale, non `e restrittivo assumere che 1 , . . . , n siano a valori reali:
pertanto, la formula (3.3) descriver`a linsieme di tutte le soluzioni reali se le costanti si scelgono
in campo reale, oppure linsieme di tutte le soluzioni complesse se le costanti si scelgono in campo
complesso.
Un insieme costituito da n soluzioni linearmente indipendenti del sistema (3.1) si chiama anche
un sistema fondamentale di soluzioni. Ad ogni sistema fondamentale di soluzioni 1 , ..., n , si associa
una matrice fondamentale
(t) = (1 (t), . . . , n (t))
le cui colonne sono costituite dalle componenti dei vettori 1 (t), ..., n (t). Osserviamo che se (t)
`e una matrice fondamentale e Q una matrice costante non singolare, allora anche (t)Q `e una
1

Lopportunit`
a di estendere la ricerca delle soluzioni al campo complesso anche nel caso in cui gli elementi di A
siano reali, `e suggerita dal Fatto 2: eventuali autovalori non reali di A danno infatti luogo a soluzioni che sarebbe
difficile individuare rimanendo nel campo reale.

31
matrice fondamentale. In particolare, vi `e ununica matrice fondamentale tale che (0) = I. Essa
viene detta anche matrice fondamentale principale.
Introduciamo il vettore costante c = (c1 , . . . , cn )t . Se (t) `e una qualunque matrice fondamentale, la (3.3) si scrive anche
(t) = (t)c

(3.4)

La soluzione particolare che soddisfa alle condizioni iniziali (t0 ) = x0 si ricava risolvendo il
sistema algebrico
(t0 )c = x0
rispetto allincognita vettoriale c. Se t0 = 0 e (t) `e la matrice fondamentale principale, allora si
ha semplicemente c = x0 .

3.2

La matrice esponenziale

Sia M(C) lo spazio vettoriale di dimensione finita formato da tutte le matrici quadrate di ordine
n n a elementi complessi. Se M = (mi,j )i,j=1,...,n M(C), definiamo
||M || =

sX

|mi,j |2 .

i,j

In questo modo, M(C) diventa uno spazio normato. Si pu`o dimostrare che la serie

X
Mk
k=0

k!

converge qualunque sia M M(C); la sua somma si indica col simbolo eM e si chiama matrice
esponenziale.
Riportiamo una lista delle principali propriet`a della matrice esponenziale:
se gli elementi di M sono reali, allora anche gli elementi di eM sono reali;
e0 = I, ove 0 indica la matrice i cui elementi sono tutti nulli;
eN +M = eM eN , a condizione che M N = N M ;
gli autovalori di eM sono tutti e solo i numeri complessi della forma e , dove `e un autovalore
di M ;
eM M = M eM ;
det eM = etr M , ed `e quindi diverso da zero (tr M indica la traccia di M );
se P `e una matrice non singolare, eP

1 M P

= P 1 eM P .

Torniamo adesso al sistema (3.1). Per ogni t R, gli elementi della matrice esponenziale etA
sono funzioni derivabili. Inoltre, vale la proposizione seguente.

32
Proposizione 3.1 Qualunque sia A M(C) si ha, per ogni t R,
d tA
e = AetA .
dt
La matrice esponenziale fornisce dunque un formalismo utile a rappresentare le soluzioni del
sistema (3.1). Infatti, se x = (t) `e la soluzione di (3.1) tale che (t0 ) = x0 , allora, per lunicit`a
delle soluzioni e le propriet`a dellesponenziale, si avr`
a
(t) = e(tt0 )A x0
e, se t0 = 0, ancor pi`
u semplicemente
(t) = etA x0

(3.5)

qualunque sia t R. In altre parole, determinare la matrice esponenziale equivale a determinare


una matrice fondamentale del sistema (anzi, la matrice fondamentale principale).
Vediamo adesso come si pu`o calcolare esplicitamente la matrice esponenziale2 . Cominciamo da
alcuni casi particolari.

3.3

A diagonale

Sia

1
0
A=
0
0

0 ... 0
2 . . . 0
= diag (1 , . . . , n )
... ... 0
0 . . . n

dove 1 , . . . , n sono numeri reali o complessi non necessariamente distinti.


Osservazione 3.2 Per una matrice siffatta, `e un autovalore se e solo se = i per qualche
i = 1, . . . , n, e la molteplicit`a algebrica di `e uguale al numero di volte che compare ripetuto
nella n-pla 1 , . . . , n . Gli autovettori corrispondenti a 1 , . . . , n si possono prendere coincidenti,
ordinatamente, con i vettori della base canonica

1
0
0
0

v1 =
. . . , . . . , vn = . . . .
0
1

(3.6)

Un sistema fondamentale di soluzioni del sistema (3.1) potr`a essere quindi scritto della forma
1 (t) = e1 t v1 , . . . , n (t) = en t vn .
Il sistema (3.1) definito da una tale A si dice disaccoppiato, in quanto levoluzione di ciascuna
componente xi del vettore x dipende da xi ma non dipende da nessuna xj con j 6= i. Un sistema di
2
Alcuni concetti e risultati di algebra lineare, di cui faremo uso a questo scopo, sono riportati nellAppendice B
per comodit`
a dello studente

33
questo tipo pu`o anche essere risolto direttamente, integrando separatamente le singole equazioni. Il
sistema fondamentale di soluzioni a cui si perviene per questa via `e ovviamente lo stesso di prima.
Sempre al medesimo risultato si pu`o infine arrivare costruendo la matrice esponenziale. Infatti, `e
immediato verificare che
Ak = diag (k1 , . . . , kn )
per ogni k intero positivo, per cui
etA = diag (e1 t , . . . , en t ) .

3.4

A nilpotente

Se A `e nilpotente, vuol dire che esiste un intero q positivo tale che Ak = 0 per ogni k q. Dunque
la serie che definisce la matrice esponenziale si riduce ad un polinomio e pu`o essere calcolata
elementarmente. Una tipica matrice nilpotente (per cui q = n) `e

0
0

A = ...

0
0

1
0
...
0
0

0
1
...
0
0

...
...
...
...
...

0
0

... .

1
0

(3.7)

Il sistema corrispondente

x 1 = x2

x 2 = x3

...

x n = 0

pu`o anche essere risolto procedendo in cascata (dal basso verso lalto). I due approcci portano,
ovviamente, allo stesso risultato. Un sistema fondamentale di soluzioni pu`o essere scritto nella forma
1 (t) = v1 , 2 (t) = tv1 + v2 , . . . , n (t) =

tn1
v1 + . . . + tvn1 + vn
(n 1)!

(3.8)

dove i vettori v1 , . . . , vn sono, come in (3.6), quelli della base canonica. Daltra parte, il calcolo
diretto della matrice esponenziale, supponendo sempre A nella forma (3.7), mostra che

t2
2!

...

1
..
.
0
0 0

t
..
.
0
0

...

etA = ..
.

...
...

tn1
(n1)!
tn2
(n2)!

..
.
t
1

Osservazione 3.3 Si noti che zero `e lunico autovalore della matrice (3.7); lo spazio proprio corrispondente ha dimensione uno. Inoltre, Av1 = 0 (vale a dire che v1 `e un autovettore di A), Av2 = v1 ,
Av3 = v2 e via di seguito.

34
La formula dellintegrale generale del sistema definito da una matrice del tipo (3.7) si pu`o
scrivere come
(t) = c1 1 (t) + . . . + cn n (t) = d1 + td2 + . . . +

tn1
dn
(n 1)!

dove

c2
cn
0
c3

.
.

d1 =
, d2 = .. , . . . , dn = .. .

0
cn
cn1
0
0
cn
c1
c2
..
.

Si osservi che Ad1 = d2 , Ad2 = d3 , . . . , Adn = 0.


Osservazione 3.4 Combinando i due casi particolari considerati fino a questo momento, siamo
in grado di calcolare la matrice esponenziale per ogni matrice A della forma In + T dove `e
un qualunque numero reale, In `e la matrice identica di dimensioni n n, e T `e nilpotente. In
particolare, se T ha la forma (3.7), allora

t2
2!

...

1
..
.
0
0 0

t
..
.
0
0

...

t(In +T )
t .
e
=e .
.

3.5

tn1
(n1)!
tn2
(n2)!

...
...

..
.
t
1

(3.9)

A diagonale a blocchi

Se M `e diagonale a blocchi, cio`e

M1
0

M = ..
.
0

0
M2
..
.

...
...

0
0
..
.

...

Mk

= diag (M1 , . . . , Mk ) ,

allora anche la sua matrice esponenziale `e diagonale a blocchi


eM = diag (eM1 , . . . , eMk ) .

3.6

Equivalenza lineare

Per procedere al calcolo della matrice esponenziale nel caso pi`


u generale, conviene introdurre il
concetto di equivalenza lineare.

35
Immaginiamo il sistema (3.1) come il modello matematico di un processo che si svolge in uno spazio vettoriale reale V di dimensione n nel quale sia stata fissata una base. Ln-pla x = (x1 , . . . , xn )t
di numeri reali rappresenta, in tale base, le componenti dello stato del sistema.
Supponiamo adesso di prendere unaltra base di V , e di indicare con y = (y1 , . . . , yn )t le
componenti dello stato in questa seconda base.
` noto che esiste una matrice non singolare P tale che, per ogni elemento di V ,
E
x = P y.
Vediamo come cambia lequazione (3.1), quando si rappresentano gli stati del sistema rispetto
alla seconda base. Si ha
y = P 1 x = P 1 AP y = By .

(3.10)

Si ottiene dunque ancora un sistema lineare, definito da una matrice simile alla data.
Viceversa, due sistemi del tipo (3.1) definiti da matrici simili possono sempre essere pensati
come uno stesso sistema fisico rappresentato in diversi sistemi di coordinate.
Definizione 3.1 Due sistemi
x = Ax

y = By ,

x Rn , y Rn

si dicono linearmente equivalenti se A e B sono simili, cio`e se B = P 1 AP per qualche P non


singolare.
` chiaro che ogni soluzione x(t) del primo sistema
Quella definita `e una relazione di equivalenza. E
`e della forma x(t) = P y(t) dove y(t) `e una soluzione del secondo e viceversa. Si vede facilmente del
resto che
etB = P 1 etA P

(o, equivalentemente, etA = P etB P 1 ) .

(3.11)

Dal punto di vista della rappresentazione delle soluzioni, possiamo quindi lavorare su un qualunque sistema linearmente equivalente al dato, tenendo poi conto della (3.11) per ricondursi alle
coordinate originali.
La nozione di equivalenza lineare, cos` come quella di similitudine tra matrici, si generalizza
immediatamente al caso in cui x Cn . Se A e B sono matrici simili, A `e reale e B contiene elementi
complessi, allora la matrice P che opera il cambiamento di base conterr`
a necessariamente elementi
complessi.

3.7

A diagonalizzabile

` noto che una matrice A di dimensioni n n `e diagonalizzabile (cio`e simile a una matrice diaE
gonale) se e solo se esistono n vettori v1 , . . . , vn linearmente indipendenti ciascuno dei quali `e un
autovettore di A. Si dice che i vettori v1 , . . . , vn costituiscono una base propria di A. In particolare,
A `e diagonalizzabile se ci sono n autovalori distinti.
Indicata con P la matrice le cui colonne sono, ordinatamente, v1 , . . . , vn , si ha
P 1 AP = diag (1 , . . . , n ) = D

36
dove 1 `e lautovalore di A relativo a v1 , 2 `e lautovalore di A relativo a v2 e cos` via (non `e
richiesto che i numeri 1 , . . . , n siano distinti).
Per calcolare etA possiamo prima diagonalizzare A mediante il cambiamento di coordinate
determinato da P , quindi calcolare etD , e infine ritornare alle coordinate originali, facendo uso
della (3.11).
Osservazione 3.5 Se A `e reale ma possiede autovalori complessi, allora P e D avranno elementi
complessi cos` come etD ; tuttavia, si ricordi che, per costruzione, gli elementi di etA devono essere
reali.
Si noti che (t) = P etD `e una matrice fondamentale, per calcolare la quale non `e richiesta
linversione di P ; tuttavia, in generale gli elementi di P etD non sono reali, neanche se A `e reale.
In definitiva, per determinare esplicitamente gli elementi che formano la matrice etA e quindi
lintegrale generale della (3.1) nel caso diagonalizzabile `e sufficiente conoscere gli autovalori di A e
i relativi autovettori.
Esempio 3.1 Consideriamo il sistema

x 1 = x2
x 2 = x1

definito dalla matrice

A=

0 1
1 0

i
, e i , con autovettore
1

Gli autovalori di A sono +i , con autovettore

i
1

. Due soluzioni

(complesse) linearmente indipendenti sono


1 (t) = e

it

i
1

sin t
cos t

+i

cos t
sin t

e 2 (t) = e

i t

i
1

sin t
cos t

cos t
sin t

Come si vede, esse sono coniugate. Prendendo parte reale e parte complessa si ottengono due
soluzioni reali linearmente indipendenti

1 (t) =

sin t
cos t

2 (t) =

cos t
sin t

Alternativamente, possiamo applicare il procedimento di diagonalizzazione sopra descritto. A


tal fine, dobbiamo calcolare linversa della matrice

P =
che `e data da
P

1
=
2i

i
1

i
1

1 i
1 i

Si calcola facilmente

D = P 1 AP =

i
0
0 i

37
e
tD

it
e

ei t

Infine,

etA = P etD P 1 =

cos t sin t
sin t cos t

In questo caso, la matrice esponenziale si sarebbe potuta calcolare anche direttamente sulla
base della definizione stessa: si verifica infatti senza difficolt`a che A4 = I2 .

3.8

Forma di Jordan

In questa sezione, se A `e una qualunque matrice n n, indicheremo con 1 , . . . , k (1 k n)


i suoi autovalori distinti. Per ogni autovalore i di A, con i e i indicheremo rispettivamente la
molteplicit`a algebrica e quella geometrica di i (1 i i ). Scriveremo inoltre i = i + i i .
Se A possiede autovalori con molteplicit`a algebrica maggiore di uno e con molteplicit`a geometrica diversa dalla molteplicit`a algebrica, allora A non `e diagonalizzabile. In altre parole, il numero
di autovettori linearmente indipendenti `e insufficiente a formare una base dello spazio. Per aggirare
lostacolo, bisogna ricorrere agli autovettori generalizzati. Vale il seguente teorema.
Teorema 3.1 Ogni matrice A di dimensioni n n `e simile ad una matrice diagonale a blocchi
della forma

C1,1
0

J = .
..
0

0
C1,2
..
.

...
...

0
0
..
.

...

Ck,k

dove i blocchi Ci,j sono a loro volta matrici quadrate della forma

Ci,j

i
0

.
.
=
.
..
.

1
i
..
.
..
.

0
1
..
.
..
.

...
...
...
...

0
0
..
.

In ogni blocco compare solo un autovalore, ma lo stesso autovalore pu`


o comparire in pi`
u blocchi.
Pi`
u precisamente, per ogni autovalore i vi sono esattamente i blocchi, ciascuno dei quali associato
ad un autovettore in senso stretto. La dimensione del blocco generico Ci,j `e uguale alla lunghezza
della catena degli autovettori generalizzati originata dal j-esimo autovettore associato allautovalore
i . Il numero di volte che i compare sulla diagonale principale di J `e uguale a i .
La matrice J si chiama forma di Jordan di A. Dal nostro punto di vista, `e importante osservare
che ogni blocco di J `e della forma i I + T , dove I `e la matrice identica (di dimensione appropriata),
e T `e nilpotente del tipo (3.7). Questo significa, tenendo anche conto di quanto osservato nella

38
Sezione 3.5, che la strategia illustrata nel caso di una matrice diagonalizzabile pu`o essere estesa
alla situazione presente: si trasforma il sistema dato (3.1) nel sistema
y = Jy

(3.12)

mediante un opportuno cambiamento di coordinate, si trovano le soluzioni di (3.12) direttamente,


oppure calcolando etJ , e quindi si torna alle coordinate originali. Resta solo il problema di identificare la matrice P che determina la similitudine tra A e J. A tal fine, come gi`a accennato, si
deve determinare per ogni autovalore i , un numero di autovettori e di autovettori generalizzati
linearmente indipendenti pari a i . Tali vettori devono essere ordinati in modo da rispettare sia lordine di indicizzazione degli autovalori sia, per ogni autovalore e ogni autovettore a questo relativo,
lordine con cui gli autovettori generalizzati appartenenti alla stessa catena vengono generati.

v1,1,0

v1,1,1 . . .

| {z }
autovettore

{z

prima catena

}|

v1,2,0

v1,2,1 . . .

| {z }
autovettore

}|

v1,3,0

v1,3,1 . . . . . .

| {z }
autovettore

{z

}|

seconda catena

{z

terza catena

}|

v2,1,0

autovettore

v2,1,1 . . . . . . . . .

| {z }
{z

prima catena

Linsieme di tutti questi vettori costituisce una base dello spazio, che prende sempre il nome di
base propria. La colonne della matrice P si costruiscono mettendo uno accanto allaltro i vettori
della base propria; con riferimento allo schema precedente,
P = [v1,1,0 v1,1,1 . . . v1,2,0 v1,2,1 . . . v1,3,0 v1,3,1 . . . v2,1,0 v2,1,1 . . .] .
Se si permutano gli indici degli autovalori oppure, per ogni autovalore, lordine degli autovettori
(fermo restando, per ogni autovettore, lordine di generazione di eventuali autovettori generalizzati),
si ottiene unaltra base propria e unaltra forma di Jordan. In questo senso la forma di Jordan non
`e unica.
Una volta costruita una base propria, a condizione di rispettare gli ordini dei vari tipi di indice
come sopra indicato, la forma di Jordan `e automaticamente determinata, e quindi non c`e in realt`a
nessun bisogno di effetture materialmente il cambiamento di coordinate. Per risalire a etA (nelle
coordinate originali), `e tuttavia indispensabile calcolare P 1 . Anche in questo caso, il calcolo di
P 1 pu`o essere risparmiato se ci si accontenta della matrice fondamentale (in generale complessa)
P etJ .
Ricordando in particolare la (3.9), e la procedura illustrata nella Sezione 3.1(Fatto 7), possiamo
riassumere le conclusioni a cui siamo giunti nella proposizione seguente.
Proposizione 3.2 Lelemento generico r,s (t) della matrice etA (r, s = 1, . . . , n) si presenta nella
forma
r,s (t) =

k
X

(r,s )i (t)ei t

i=1

dove ogni termine (r,s )i (t) `e un polinomio (a coefficienti complessi, in generale) di grado inferiore
alla molteplicit`
a algebrica di i , e i `e un autovalore di A (i = 1, . . . , k).
Se A `e una matrice reale, lelemento generico r,s (t) della matrice etA pu`
o essere messo nella
forma

39

r,s (t) =

k
X

ei t [(pr,s )i (t) cos i t + (qr,s )i (t) sin i t]

(3.13)

i=1

dove (pr,s )i e (qr,s )i sono polinomi a coefficienti reali di grado inferiore alla molteplicit`
a algebrica
di i (nella formula precedente sono naturalmente compresi gli autovalori reali, per i quali i = 0).

3.9

Stima asintotica delle soluzioni

Come applicazione delle conclusioni a cui siamo giunti sulla struttura di etA , vogliamo ora dare una
stima asintotica delle soluzioni della (3.1) (per t +), che ci sar`a molto utile nel seguito.
Lemma 3.1 Per ogni > 0 e ogni intero m N esiste una costante k > 0 tale che tm < ket , per
ogni t 0.
Dimostrazione Per induzione. Se m = 1 si prende k = 1 . Infatti posto
f (t) =
si ha, f (0) =
funzione

et
t

La
e f 0 (t) = et 1 > 0 per t > 0. Supponiamo che il risultato valga per m 1, con k = k.
f (t) = ket tm

`e tale che

f (0) = k

per t > 0, a patto di scegliere k =

m1

f (t) = ke mt

=m

k t
e tm1
m

>0

mk
.

Sia 0 il massimo delle parti reali i degli autovalori i della matrice A (i = 1, . . . , k) e sia
un numero reale pi`
u grande di 0 :
> 0 i

per ogni

(i = 1, . . . , k) .

Poich`e | sin i t| 1 e | cos i t| 1 per ogni i = 1, . . . , k, partendo dalla (3.13) e facendo


ripetutamente uso della disuguaglianza triangolare si ha, per t 0,
|r,s (t)|

k
X

ei t (|(pr,s )i (t)| + |(qr,s )i (t)|)

i=1

k
X

(Qr,s )i (t)ei t

i=1

dove (Qr,s )i `e un polinomio i cui coefficienti sono numeri positivi (o nulli), che si ottengono maggiorando i valori assoluti dei coefficienti dei polinomi (pr,s )i (t) e (qr,s )i (t). Anche se non `e essenziale
per quanto segue, osserviamo che il grado di (Qr,s )i `e inferiore alla molteplicit`a algebrica di i .
Sia 0 < < 0 . Per il Lemma
3.1, vi sono costanti
k tali che |r,s (t)| kr,s e(0 +)t kr,s et
qP
qP r,s
2
2 t e, in definitiva,
per tutti i t 0. Dunque ketA k =
r,s r,s (t)
r,s kr,s e
ketA k k0 et

t 0

40
dove k0 `e una nuova costante. Si noti che se tutti gli autovalori con parte reale esattamente uguale
a 0 hanno la molteplicit`a algebrica coincidente con quella geometrica, allora la precedente disuguaglianza vale con 0 al posto di . Infatti, se i `e un autovalore tale che i = Re i = 0 , i
corrispondenti polinomi (pr,s )i (t) e (qr,s )i (t) si riducono a costanti. Dunque il termine (Qr,s )i (t)ei t
pu`o essere maggiorato direttamente, a meno di unopportuna costante, con e0 t , senza bisogno di
utilizzare il Lemma 1. Per quegli autovalori i per cui i = Re i < 0 , si pu`o ricorrere al Lemma 1 con = 0 i . I corrispondenti termini (Qr,s )i (t)ei t potranno quindi essere maggiorati,
sempre a meno di una costante, con ei t et = e0 t . Riassumiamo queste conclusioni nella seguente
proposizione.
Proposizione 3.3 Sia A una matrice a coefficienti reali. Per ogni > 0 , esiste k0 > 0 tale che
ketA k k0 et

t 0 .

(3.14)

Se tutti gli autovalori di A con parte reale uguale ad 0 hanno la molteplicit`


a algebrica coincidente con la molteplicit`
a geometrica, allora nella (3.14) si pu`
o prendere = 0 .
Dalla (3.14) segue
ketA ck k0 kcket ,

t0

(3.15)

per ogni vettore c di costanti arbitrarie.

3.10

Equazioni scalari di ordine n > 1

Lequazione differenziale scalare


y (n) + a1 y (n1) + . . . + an1 y 0 + an y = 0

(3.16)

pu`o essere trattata come caso particolare della (3.1). Posto infatti
y = x1 , y 0 = x2 , . . . , y (n1) = xn
si ha
x01 = y 0 = x2
x02 = y 00 = x3
............
x0n

= y (n) = a1 xn . . . an x1

e, in forma vettoriale,
x = Cx
dove si `e posto x = (x1 , . . . , xn )t , e

(3.17)

41

0
0

.
C = ..

0
an

1
0
..
.
0
an1

0 ...
0
1 ...
0
..
..

.
.
.

0 ...
1
. . . . . . a1

(3.18)

Per soluzione della (3.16) si intende, naturalmente, una funzione y(t) : R R dotata di almeno
n derivate continue e soddisfacente la (3.16) identicamene per t R. Non `e difficile rendersi conto
come il problema di determinare lintegrale generale (cio`e linsieme di tutte le soluzioni) della
(3.16) sia equivalente a quello di trovare lintegrale generale del sistema (3.17), e si riduca alla
determinazione di n soluzioni linearmente indipendenti della (3.16).
Matrici che si presentano con la struttura (3.18) si chiamano matrici compagne (companion).
Cos` come la forma di Jordan, anchesse consentono di visualizzare immediatamente un importante
oggetto invariante. Si verifica infatti facilmente per induzione che se C `e una matrice compagna
come in (3.18) allora il suo polinomio caratteristico `e
h

pc () = (1)n n + a1 n1 + . . . + an .
Data una qualunque matrice A, e individuati i coefficienti a1 , . . . , an del suo polinomio caratteristico, possiamo associare ad A una matrice C in forma compagna, in modo che A e C abbiano lo
stesso polinomio caratteristico, e quindi gli stessi autovalori con le stesse molteplicit`a algebriche.
In generale, non `e per`o detto che Ae !C siano simili. Per esempio, la matrice identit`
a ha
n
X
n i
polinomio caratteristico pc () =
(1)i
ma non `e simile alla matrice compagna associata:
i
i=0
la matrice identit`a `e simile solo a se stessa.
La forma compagna dunque non `e una forma canonica rispetto alla relazione di similitudine. In
altre parole, non tutti i sistemi di equazioni in Rn equivalgono ad una equazione scalare di ordine
n.
Ha interesse in se, ma anche in vista di applicazioni future, dare delle condizioni affinche una
data matrice A e la matrice C in forma compagna associata ad A siano simili.
a seguenti sono equivalenti:
Teorema 3.2 Sia A una matrice quadrata n n. Le propriet`
(i) A `e simile ad una matrice compagna;
(ii) rank (A I) = n 1 per ogni autovalore di A;
(iii) la molteplicit`
a geometrica di ogni autovalore di A `e uguale a 1;
(iv) il polinomio caratteristico di A coincide col suo polinomio minimo;
(v) esiste un vettore v 6= 0 tale che gli n vettori
v, Av, A2 v, . . . , An1 v
sono linearmente indipendenti.

42
La dimostrazione completa del Teorema 3.2 si trova per esempio in LaSalle J.,The stability and
control of discrete process, Spinger Verlag, 1986. Si presti principalmente attenzione allequivalenza
tra (i) e (v), di cui avremo bisogno nel seguito e di cui presentiamo una dimostrazione nella prossima
sezione. Un vettore v con la propriet`a enunciata al punto (v) viene detto un vettore ciclico per A.
La propriet`a (iii) del Teorema 3.2 implica in particolare che per ogni autovalore di M vi `e un
unico autovettore in senso proprio e quindi ununica catena di eventuali autovettori generalizzati.
Ne segue allora che lintegrale generale dellequazione (3.16) si ottiene come combinazione lineare
delle n funzioni
e1 t , te1 t , . . . , ti 1 e1 t
......................
ek t , tek t , . . . , tk 1 ek t
essendo 1 , . . . , k le radici distinte dellequazione
n + a1 n1 + . . . + an = 0

(3.19)

e 1 , . . . , k le loro molteplicit`a algebriche. Si noti che il primo membro della (3.19) coincide, a meno
del segno, col polinomio caratteristico pc () della matrice in forma compagna associata alla (3.16).
Per questa ragione, la (3.19) `e chiamata lequazione caratteristica della (3.16). Essa si pu`o scrivere
direttamente, senza bisogno di trasformare lequazione (3.16) nel sistema equivalente, sostituendo
formalmente a y ed interpretando gli ordini di derivazione come potenze.
u in dettaglio il caso dellequazione lineare di ordine 2
Esempio 3.2 Consideriamo un po pi`
y + ay + by = 0 .

(3.20)

Distinguiamo le varie forme che pu`o prendere lintegrale generale y(t), a seconda che lequazione
caratteristica
2 + a + b = 0

(3.21)

abbia soluzioni reali distinte o coincidenti, ovvero soluzioni complesse non reali. Si ha:
y(t) = c1 e1 t + c2 e2 t

(3.22)

se la (3.21) ha due soluzioni reali distinte 1 , 2 ;


y(t) = (c1 + tc2 )et

(3.23)

se la (3.21) ha due soluzioni reali coincidenti 1 = 2 = ;


y(t) = (c1 cos t + c2 sin t)et

(3.24)

se la (3.21) ha radici complesse coniugate3 i .


3

La (3.24) si pu`
o ottenere applicando le formule (3.2). In alternativa, un modo semplice e diretto per ottenere la
(3.24) consiste nel partire dalla forma
k1 et + k2 et

43
2

1.5

0.5

0.5

1.5

10

12

14

16

18

20

Figura 3.1: Smorzamento nel caso di autovalori reali.


2

1.5

0.5

0.5

1.5

10

12

14

16

18

20

Figura 3.2: Smorzamento nel caso di autovalori complessi.


Il comportamento delle soluzioni per t 0 dipende dal segno di 1 e 2 [rispettivamente, e
] nel caso (3.22) [rispettivamente, nei casi (3.23) e (3.24)].
Per esempio, se 1 , 2 < 0 [rispettivamente, < 0, < 0] lenergia iniziale posseduta dal
sistema (e quantificata per mezzo delle condizioni iniziali) viene dissipata:
con andamento monotono nei casi (3.22) e (3.23), dopo eventuali picchi iniziali la cui
presenza dipende dalla scelta di c1 e c2 (Figura 3.1);
con andamento oscillatorio nel caso (3.24) (Figura 3.2).

Se a = 0 e b > 0 siamo nel caso (3.24) con = 0 e = b: le soluzioni sono periodiche di


periodo minimo 2/, e la formula dellintegrale generale si pu`o riscrivere come
y(t) = c1 cos t + c2 sin t = cos(t + )

(3.25)

dove q
e [0, 2) sono univocamente definiti dalle relazioni c1 = cos , c2 = sin . Le quantit`
a

= c21 + c22 e si chiamano rispettivamente ampiezza e fase della funzione periodica (3.25). Il
reciproco del periodo minimo si chiama frequenza. Si noti che nella (3.25), la frequenza dipende da
che `e analoga alla (3.22), ricordare che ei = et (cos t i sin t) e porre
c1 = k1 + k2
in particolare, c1 e c2 risultano reali se si sceglie k2 = k1 .

c2 = i (k1 k2 ) ;

44
b mentre lampiezza dipende invece dalle condizioni iniziali e rimane costante. In questo caso si ha
cio`e conservazione dellenergia.

Osservazione 3.6 Con un procedimento formale, indicato con D loperatore di derivazione, la


(3.16) si pu`o anche scrivere come
L(D)y = (Dn + a1 Dn1 + . . . + an )y = 0
ove (1)n L(D) = pc (D) si interpreta come un operatore differenziale lineare. Questa notazione offre
talvolta dei vantaggi, anche perche operatori differenziali di tale forma si compongono facilmente
tra loro.

3.11

Matrice compagna

In questa sezione dimostreremo che una matrice A `e simile alla matrice in forma compagna associata
se e solo se esiste un vettore ciclico per A, ossia un vettore v 6= 0 tale che i vettori v, Av, . . . , An1 v
costituiscono una base di Rn (equivalenza delle affermazioni (i) e (v) del Teorema 3.2). Cominciamo
col dimostrare un lemma.
Lemma 3.2 Sia C una matrice in forma compagna, e siano 1 , . . . , n i suoi autovalori (eventualmente non distinti). Allora C `e simile ad una matrice della forma

1
0

.
M = ..

0
0

1
2
..
.

0
1
..
.

...
...

0
0

0
0

...
...

0
0
..
.
n1
...

0
0
..
.

(3.26)

Dimostrazione Partiamo dallequazione


y (n) + a1 y (n1) + . . . + an y = 0

(3.27)

e facciamo vedere che con opportune sostituzioni lineari si arriva ad un sistema definito dalla matrice (3.26).
Lenunciato poi segue facilmente. Poniamo
1 = y, 2 = p2,1 y + y 0 , . . . , n = pn,1 y + . . . + pn,n1 y (n2) + y (n1)
dove i coefficienti pi,j sono definiti dalle relazioni
p2,1 y + y 0 = (1 + D)y
p3,1 y + p3,2 y 0 + y 00 = (1 + D)(2 + D)y
.............
pn,1 y + . . . + pn,n1 y (n2) + y (n1) = (1 + D) . . . (n1 + D)y
e D `e loperatore di derivazione. Si ha

45

10
20

n0

= y 0 = y 0 + p2,1 y p2,1 x = (1 + D)y + 1 y = 1 1 + 2


= (p2,1 y + y 0 )0 =
= D(1 + D)y + 2 (1 + D)y 2 (1 + D)y =
= (2 + D)(1 + D)y + 2 2 = 2 2 + 3
...............
= (pn,1 y + . . . + pn,n1 y (n2) + y (n1) )=
= D(n1 + D) . . . (1 + D)y =
= (n + D) . . . (1 + D)y + n (n1 + D) . . . (1 + D)y

dove si `e aggiunto e tolto n (n1 + D) . . . (1 + D)y. Ma (n + D) . . . (1 + D)y = 0 in quanto


coincide con la (3.27). Si ha dunque
n0 = n n
e il lemma `e provato.

Si faccia attenzione a non confondere la (3.26) con la forma di Jordan di C, con la quale
coincide solo nel caso in cui 1 = 2 = . . . = n . In presenza di autovalori distinti infatti, nella
forma di Jordan, sulla diagonale immediatamente superiore a quella principale, devono comparire
necessariamente degli elementi nulli.
Sia P la matrice per cui C = P 1 M P . Allora P ha la forma

p2,1

.
..

0
1
..
.

0
0
..
.

...
...

0
0
..
.

0
0

..
.

pn,1 pn,2 pn,3 . . . pn,n1 1


dove gli elementi pij sono identificati nella dimostrazione del Lemma 3.2.
Osserviamo che il passaggio alla forma compagna non `e lunico modo di scrivere la (3.16) sotto
forma di sistema. Si ponga per esempio

z1 = an1 y + an2 y 0 + . . . + a1 y (n2) + y (n1)

z2 = an2 y + an3 y 0 + . . . + a1 y (n3) + y (n2)

.............

z
= a1 y + y 0

n1

zn = y .

Si ha

z10

z0

0
z

= an1 y 0 + an2 y 00 + . . . + a1 y (n1) + y (n) =


= an y + b(t) = an zn + b(t)
= an2 y 0 + . . . + a1 y (n2) + y (n1) =
= an2 y 0 + . . . + a1 y (n2) + z1
(an1 y + an2 y 0 + . . . + a1 y (n2) ) =
= z1 an1 y = z1 an1 zn
............
= y 0 = zn1 a1 y = zn1 a1 zn ,

46
sistema che corrisponde alla matrice

0 0 . . . 0 an
1 0 . . . 0 an1

C t = .. ..
.
..
...
. .
.
0 0 ... 1
a1
Poiche tutte le sostituzioni eseguite sono lineari e invertibili, abbiamo anche provato che C e
C t sono simili (il che per altro `e vero per qualunque matrice).
Siamo ora pronti per la dimostrazione. Sia dunque A simile alla sua forma compagna C.
Sappiamo dal Lemma 3.2 che A `e anche simile alla matrice (3.26).
Sia w = (0, . . . , 0, 1)t . Il risultato della moltiplicazione M w `e un vettore coincidente con lultima colonna di M . Calcoliamo successivamente M 2 w = M (M w), M 3 = M (M 2 w), . . . e quindi
formiamo una matrice le cui colonne sono costituite dai vettori w, M w, . . . , M n1 w, ordinatamente:

0 0
0 0
.
..
.
.
.

0 0

0 1
1 n

0
0
..
.
1
n + n1
2n

... 1
...
..

...

...
...

dove al posto degli asterischi vi sono certe funzioni di 1 . . . n che non importa specificare. Questa
matrice `e chiaramente non singolare, per cui w, M w, . . . , M n1 w sono linearmente independenti.
Sia ora P la matrice che trasforma A in M , e sia v = P w. Si ha
(w, M w, . . . , M n1 w) = (P 1 P w, P 1 AP w, . . . , P 1 An1 P w) =
= P 1 (v, Av, . . . , An1 v)
da cui segue lasserto. Viceversa, supponiamo vera la condizione (v) del Teorema 3.2, e verifichiamo
che A `e simile a C t (trasposta della forma compagna di A). Sia Q = (v, Av, . . . , An1 v). La verifica
consiste nel far vedere che Q1 AQ = C t o, equivalentemente,
AQ = (Av, A2 v, . . . , An v) = QC t =

0 0 ...
1 0 ...

= (v, Av, . . . , An1 v) 0 1 . . .


. .
.. ..
0 0 ...

0 an
0 an1

0 an2
.
..
..
.
.
1
a1

Il calcolo non `e difficile (per lultima colonna utilizzare il Teorema di Cayley-Hamilton). Che
la forma compagna e la sua trasposta sono simili lo sappiamo gi`a, ma possiamo anche procedere
direttamente. Basta infatti osservare che la forma compagna soddisfa la (v) con v = (0, . . . , 0, 1)t .
Ripetendo il calcolo di cui sopra, si ritrova la similitudine asserita. Si conclude, essendo la
similitudine unequivalenza.

Capitolo 4

Stabilit`
a dei sistemi lineari non forzati
In questo capitolo ci occuperemo di sistemi dinamici lineari non forzati
x = Ax

(4.1)

ove A `e una matrice quadrata di ordine n a elementi reali e x Rn . Ci concentreremo in particolare


sul problema della stabilit`a, e faremo largo uso di concetti e risultati che, per comodit`a del lettore,
sono riportati nellAppendice B.

4.1

Posizioni dequilibrio

Le posizioni dequilibrio del sistema (4.1) sono tutte e sole le soluzioni dellequazione Ax = 0.
Quindi il sistema (4.1) ha sempre una posizione dequilibrio per x = 0. Tale posizione dequilibrio
`e unica (quindi isolata) se e solo se det A 6= 0. Altrimenti si ha uninfinit`a di posizioni dequilibrio
(nessuna delle quali isolata), il cui insieme forma un sottospazio di Rn .
Osservazione 4.1 Supponiamo che esista un punto x
6= 0 tale che A
x = 0. Con riferimento al
sistema (4.1), x
`e una posizione dequilibrio stabile se e solo se lorigine `e una posizione dequilibrio
stabile.
Infatti, posto y = x x
, si ha
y = x = Ax = Ax A
x = Ay .
Le deviazioni di x rispetto a x
, ovvero le deviazioni di y rispetto alla posizione y = 0, vengono
quindi determinate dallo stesso sistema di equazioni che determina le deviazioni di x rispetto alla
posizione x = 0.

Osservazione 4.2 Se un punto dequilibrio `e attrattivo per il sistema (4.1), allora deve essere
isolato. Dunque se A `e singolare, non ci sono posizioni dequilibrio attrattive. Pertanto, se il sistema
(4.1) possiede una posizione dequilibrio attrattiva x, allora x
= 0.

Le due osservazioni precedenti portano a concludere che, nello studio della stabilit`a e della
stabilit`a asintotica dei sistemi lineari, non `e restrittivo limitarsi allorigine.
47

48
Osservazione 4.3 Se lorigine `e stabile [rispettivamente, asintoticamente stabile] per il sistema (4.1) allora lorigine `e stabile [rispettivamente, asintoticamente stabile] per tutti i sistemi
linearmente equivalenti a (4.1).
Dimostrazione Sia B = P 1 AP e sia (t) una generica soluzione del sistema y = By. Fissiamo > 0, e
sia 0 = /kP 1 k. Poiche (4.1) `e stabile nellorigine, esiste un 0 > 0 tale che k(0)k < 0 = k(t)k < 0
per ogni t 0 e ogni soluzione (t) di (4.1). Poniamo = 0 /kP k e (t) = P (t). Allora
k(0)k < = k(0)k = kP (0)k kP k k(0)k < 0
da cui
k(t)k = ||P 1 (t)|| kP 1 k k(t)k < .
Infine, supponiamo che limt+ (t) = 0 per una data soluzione di (4.1). Preso > 0 e posto 0 =
/kP 1 k, esiste allora T > 0 tale che
t > T = k(t)k < 0
e di qui segue k(t)k kP 1 k k(t)k < . A questo punto non `e difficile completare il ragionamento.

4.2

Criteri di stabilit`
a

Per i sistemi lineari invarianti nel tempo, lo studio della stabilit`a pu`o essere ricondotto ad un
problema puramente algebrico.
Teorema 4.1 Se tutti gli autovalori di A hanno parte reale negativa allora lorigine `e un punto
dequilibrio globalmente e esponenzialmente stabile per il sistema (4.1).
Viceversa, se lorigine `e un punto dequilibrio (localmente) attrattivo per il sistema (4.1), allora
tutti gli autovalori di A hanno parte reale negativa.
Dimostrazione Supponiamo che gli autovalori di A siano tutti con parte reale negativa. Allora nella (3.15)
si pu`o scegliere e k0 in modo che 0 < < 0. Che lorigine sia globalmente e esponenzialmente attrattiva,
`e una conseguenza immediata. Per quanto riguarda la stabilit`a, facciamo ancora ricorso alla (3.15). Come gi`a
osservato, si pu`o prendere negativo; per t 0, si ha allora et 1. Dunque, per ogni > 0, `e sufficiente
prendere = /k0 .
Supponiamo ora che lorigine sia localmente attrattiva. Esiste dunque un intorno dellorigine con la
propriet`a che tutte le soluzioni corrispondenti ad uno stato iniziale appartenente a tale intorno, devono
tendere a zero per t +. Procediamo per esclusione.
Cominciamo a supporre che vi sia un autovalore con parte reale strettamente positiva.
Se `e reale e se v `e un autovettore corrispondente (ovviamente anchesso reale) allora si ha una soluzione
della forma et v. Si noti che v pu`o essere preso di norma arbitrariamente piccola.
Se invece = + i `e complesso, allora si ha una soluzione della forma
et [(cos t)u + (sin t)w] ,
dove u, w sono certi vettori reali, che possono essere presi di norma arbitrariamente piccola, e > 0. In
entrambi i casi, queste soluzioni sono non limitate per t 0. Ci`o contraddice lipotesi.

49
In modo analogo si esclude la possibilit`a di autovalori con parte reale nulla. In tal caso infatti o = 0,
e allora vi sarebbe una soluzione costante non nulla, oppure `e un numero puramente immaginario, e allora
vi sarebbe una soluzione periodica del tipo (cos t)u + (sin t)w che `e limitata ma non tende a zero.

Dal Teorema 4.1 e dalla sua dimostrazione si deducono altre informazioni, che possono essere
riassunte nel modo seguente.
La condizione che la matrice A abbia tutti i suoi autovalori con parte reale strettamente
negativa `e necessaria e sufficiente affinche lorigine sia un punto dequilibrio asintoticamente
stabile per il sistema lineare (4.1).
Lorigine, se `e localmente attrattiva per il sistema lineare (4.1), allora lo `e anche globalmente
e esponenzialmente.
Per un sistema lineare, se lorigine `e un punto dequilibrio localmente attrattivo, allora `e
anche stabile.
Pu`o invece darsi il caso di un sistema lineare con un punto dequilibrio stabile non attrattivo;
per esempio, x = 0 con x R, le cui soluzioni sono tutte costanti, oppure il sistema dellEsempio
B.1, le cui soluzioni sono tutte periodiche.
Unaltro fatto che si desume dalla dimostrazione del Teorema 4.1 `e che se c`e anche un solo
autovalore di A con parte reale positiva allora lorigine `e instabile. A questo punto, resta solo da
prendere in considerazione il caso in cui tutti gli autovalori di A hanno parte reale non positiva, e
ce n`e almeno uno con parte reale esattamente uguale a zero.
Teorema 4.2 Le seguenti affermazioni sono equivalenti:
(i) Gli autovalori di A hanno tutti parte reale non positiva, e gli eventuali autovalori con parte
reale nulla hanno la molteplicit`
a algebrica coincidente con quella geometrica;
(ii) la matrice esponenziale etA `e limitata in norma per t 0;
(iii) Lorigine `e stabile per il sistema (4.1).
Dimostrazione (i) = (ii) Se gli autovalori di A hanno tutti parte reale non positiva, e se gli eventuali
autovalori con parte reale nulla hanno la molteplicit`a algebrica uguale a quella geometrica, allora possiamo
applicare la (3.14) con = 0 = 0. La conclusione `e immediata.
(ii) = (iii) Se esiste una costante k0 > 0 tale che ||etA || k0 t 0, allora x0 Rn si ha
ketA x0 k k0 kx0 k .

(4.2)

La definizione di stabilit`a `e soddisfatta prendendo = /k0 .


Proviamo infine, per assurdo, che (iii) = (i). Sappiamo gi`a che se lorigine `e stabile non possono
esistere autovalori con parte reale strettamente positiva. Supponiamo che vi sia un autovalore con parte
reale nulla, la cui molteplicit`a geometrica sia minore di quella algebrica. Se = i con 6= 0, vi sar`a almeno
una soluzione complessa della forma (cos t + i sin t)(tu + v), dove v `e un autovettore associato a , e u
`e un autovettore generalizzato; sia v che u possono essere presi arbitrariamente piccoli. Ma allora, vi sar`a
anche una soluzione reale uguale a
(cos t)[tu1 + v1 ] (sin t)[tu2 + v2 ]

50
dove v1 , v2 , u1 , u2 sono certi vettori reali. Tale soluzione corrisponde alla condizione iniziale = v1 , come
`e facile verificare. Poiche u1 e u2 non possono essere entrambi nulli, la soluzione presenta un andamento
oscillatorio, e lampiezza delle oscillazioni cresce al crescere di t. Abbiamo cio`e identificato una soluzione non
limitata per t 0. Ci`o contraddice lipotesi di stabilit`a.
Il caso = 0 si tratta in modo analogo ed `e lasciato al lettore.

Con ragionamenti del tutto analoghi, si pu`o anche provare la proposizione seguente.
Proposizione 4.1 Le seguenti affermazioni sono equivalenti:
(i) Gli autovalori di A hanno tutti parte reale non positiva, e gli eventuali autovalori con parte
reale nulla hanno la molteplicit`
a algebrica coincidente con quella geometrica;
(ii) tutte le soluzioni del sistema sono limitate per t 0.

4.3

Lequazione di Liapunov

In questa sezione studieremo una diversa caratterizzazione dei sistemi lineari stabili. Ricordiamo
che una matrice P simmetrica e a coefficienti reali si dice:
definita positiva se per ogni 0 6= x Rn si ha xt P x > 0;
semidefinta positiva se xt P x 0 per ogni x Rn .
Se le condizioni richieste si applicano alla matrice P , allora si dice, rispettivamente, che P `e
definita negativa, semidefinita negativa. Si dice infine che P `e indefinita se xt P x assume sia valori
positivi che negativi.
Teorema 4.3 Le seguenti propriet`
a sono equivalenti:
1. gli autovalori della matrice A hanno tutti parte reale strettamente negativa;
2. esiste una matrice reale simmetrica definita positiva P tale che per ogni soluzione non nulla
(t) della (4.1), posto V (x) = xt P x e g(t) = V ((t)), si ha

d
g(t)
= ||(0)||2 ;
dt
t=0

(4.3)

3. esiste una matrice reale simmetrica definita positiva P tale che


At P + P A = I .

(4.4)

Dimostrazione Supponiamo valida la prima affermazione e dimostriamo la seconda. Indichiamo con pij gli
elementi della matrice P da costruire, e siano
1 (t), . . . , n (t)
tA

le colonne della matrice esponenziale e . Poniamo

51
Z

pij =
0

it (s)j (s)ds .

Ogni pij `e ben definito: infatti, se gli autovalori di A hanno parte reale negativa, tutti gli elementi di etA
tendono a zero esponenzialmente e quindi lintegrale improprio converge.
` chiaro che P `e simmetrica. Se (t)
Dimostriamo che la matrice P cos` costruita ha le propriet`a richieste. E
indica la soluzione corrispondente ad uno stato iniziale x = (x1 , . . . , xn ) Rn , abbiamo la rappresentazione
(t) = etA x =

n
X

i (t)xi .

i=1

Dunque,

V (x) = x P x =

n
X

pij xi xj =

i,j=1

=
0

Z
=
0

i,j=1

n
X

it (s)j (s)ds

xi xj =

!t n
X
i (s)xi
j (s)xj ds =

i=1
+

n
X

t
i (s)j (s) xi xj ds =
i,j=1

n Z
X

j=1

k(s)k2 ds .

Da qui segue subito che V (0) = 0 e V (x) > 0 per ogni x 6= 0. Resta da far vedere la (4.3). Premesso che
Z

V ((t)) =

k(t + s)k2 ds =

k()k2 d

si ha, qualunque sia x Rn ,

d
V ((t))t=0
dt

=
=

d +
k()k2 d t=0 =
dt t

k(t)k2 t=0 = kxk2 .

Supponiamo ora valida la seconda affermazione e dimostriamo la terza. Riprendiamo la funzione V ((t))
introdotta pocanzi e calcoliamone la derivata in un modo diverso. Si ha

d
d
t
V ((t))) =
((t))t P (t) = ((t))

P (t) + ((t))t P (t)

=
dt
dt
t t
t
= ((t)) A P (t) + ((t)) P A(t) .
Valutiamo questa identit`a per t = 0 e poniamo (0) = x. Tenendo conto dellipotesi, si ha
xt [At P + P A]x = xt x
da cui, per larbitrariet`a della soluzione (t) scelta, segue At P + P A = I.
Supponiamo infine valida la terza affermazione e dimostriamo la prima. Sia un autovalore di A, reale
o complesso, e sia Av = v (v 6= 0). Si ha

52

vt v

=
=

vt (At P + P A)v = (A
v )t P v + vt P Av =
t
t
v P v +
+ )

v P v = (
v t P v = 2 vt P v

dove indica la parte reale di . Ora, non `e difficile verificare che se P `e una qualunque matrice reale
simmetrica definita positiva, e se v `e un vettore (reale o complesso) diverso dallorigine, allora vt P v > 0.
Dunque, necessariamente < 0.

La (4.4) pu`o essere interpretata come unequazione nellincognita matriciale P , ed `e infatti nota
come equazione matriciale di Liapunov. Essa equivale ad un sistema lineare di n(n + 1)/2 equazioni
algebriche avente come incognite gli elementi di P ; il Teorema 4.3 stabilisce tra laltro che se gli
autovalori di A hanno tutti parte reale strettamente negativa, allora tale sistema `e risolubile. Pi`
u
precisamente, sotto tale condizione, la (4.4) ammette una e una sola soluzione definita positiva.
Il seguente corollario fornisce una versione generalizzata della (4.4).
Corollario 4.1 Se gli autovalori di A hanno tutti parte reale negativa, allora per ogni matrice reale simmetrica definita positiva Q, esiste una soluzione (reale, simmetrica, definita positiva)
dellequazione
At P + P A = Q .

(4.5)

Se per una data matrice reale simmetrica definita positiva Q, esiste una soluzione (reale,
simmetrica, definita positiva) della (4.5), allora gli autovalori di A hanno tutti parte reale negativa.
Il seguente teorema caratterizza invece la stabilit`a.
Teorema 4.4 Le seguenti propriet`
a sono equivalenti:
1. gli autovalori di A hanno tutti parte reale non positiva, e gli eventuali autovalori con parte
reale nulla hanno la molteplicit`
a algebrica coincidente con quella geometrica;
2. esiste una matrice reale simmetrica definita positiva P tale che la matrice At P + P A `e
semidefinita negativa.

4.4

Il criterio di Routh-Hurwitz

I risultati che abbiamo esaminato in questo capitolo mettono in evidenza limportanza di criteri
che permettono di prevedere il segno delle radici di un polinomio. Gli autovalori di una matrice A
altro non sono infatti che le soluzioni dellequazione algebrica che si ottiene annullando il polinomio
caratteristico. Sia dunque
P () = n + a1 n1 + . . . + an1 + an
un polinomio a coefficienti reali di grado n, monico1 .
1
Monico significa che il coefficiente di grado massimo `e uguale ad 1. Poiche siano interessati alle radici dellequazione
P () = 0, non `e restrittivo assumere che P () sia monico.

53
Proposizione 4.2 Condizione necessaria affinch`e P () abbia tutte le radici con parte reale negativa `e che i coefficienti ai siano tutti maggiori di zero.
Dimostrazione Siano 1 , . . . , k le radici reali (negative) di P () e siano
1 i 1 , . . . , h i h
quelle complesse coniugate, con 1 < 0, . . . , h < 0. Allora deve aversi
P () =

( 1 )1 . . . ( k )k
( (1 + i 1 ))1 ( (1 i 1 ))1 . . . ( (h + i h ))h ( (h i h ))h .

Le coppie di binomi dove compaiono le soluzioni complesse possono essere sostituite da trinomi
2 + p1 + q1 , . . . , 2 + ph + qh
dove, essendo 1 < 0, . . . , h < 0, tutti i coefficienti p1 , . . . , ph , q1 , . . . , qh sono positivi.
Eseguendo la moltiplicazione, di trova che i coefficienti di P () devono essere tutti positivi.

La condizione della Proposizione 4.2 `e certamente anche sufficiente se il grado del polinomio `e
minore o uguale a 2, ma non lo `e in generale. Per esempio, si ha
"
# "
#
1 + i 11
1 i 11


[ + 2] = 3 + 2 + + 6 .
2
2
Esistono vari criteri che permettono di stabilire quando un polinomio ha tutte le radici nel
semipiano {z C : Rez < 0}. Questi vanno genericamente sotto il nome di criteri di Routh e
Hurwitz. Presentiamo, senza dimostrazione, uno di questi criteri, che si basa sul calcolo del segno
dei determinanti di n matrici 1 , 2 , ..., n di ordine rispettivamente uguale a 1, 2, ..., n. Tali matrici
sono costruite a partire dai coefficienti di P (), secondo la seguente procedura. Innanzitutto, per
comodit`a di notazione, poniamo aj = 0 per ogni valore dellindice j > n. Definiamo quindi
1 = a1 ,

2 =

a1
1

a1

3 = 1
0

a1
1
4 =
0
0

a1
1

5 = 0

0
0

a3
a2

a3
a2
a1
1
0

a3
a2
a1
a3
a2
a1
1

a5
a4 ,
a3

a5
a4
a3
a2
a5
a4
a3
a2
a1

a7
a6
,
a5
a4
a7
a6
a5
a4
a3

a9
a8

a7 ,

a6
a5

54
e cos` via, fino allordine n. Osserviamo che nelle righe di posto dispari (la prima, la terza, ecc.)
si dispongono i coefficienti di indice dispari in ordine crescente, mentre nelle righe di posto pari si
dispongono i coefficienti di indice pari, sempre in ordine crescente, incluso il primo che `e uguale ad
1. Gli elementi che compongono le prime due righe si ripetono nelle righe successive ma spostati
ogni volta di una posizione a destra. Le posizioni che si liberano allinizio vengono occupate da zeri
mentre, ad ogni nuova ripetizione, viene eliminato lultimo elemento sulla destra della riga.
Teorema 4.5 Il polinomio P () ha tutte le radici nel semipiano {z C : Rez < 0} se e solo se
tutti i determinanti delle matrici 1 , ..., n costruite come sopra indicato, sono positivi.
Per esempio, nel caso n = 3 la condizione si riduce a
a1 > 0, a3 > 0, a1 a2 a3 > 0 .

Il Criterio di Routh-Hurwitz si trova enunciato in questa forma o su Pontrjagin L., Equations


differentielles ordinaires, MIR 1975, oppure su Coppel W.A., Stability and Asymptotic Behaviour of Differential Equations, Heath Mathematical Monographs, 1965, cui si rimanda per la
dimostrazione.

Capitolo 5

Sistemi di equazioni differenziali


lineari non omogenei
5.1

Sistemi non omogenei

Un sistema di equazioni differenziali lineari non omogeneo ha la forma


x = Ax + b(t)

(5.1)

ove b(t) `e una funzione continua I Rn , e I `e un intervallo di R (per i nostri scopi, i casi
significativi sono I = R oppure I = [0, +)). Elenchiamo alcuni fatti che ci interessano.
Fatto 1. Per ogni istante iniziale t0 I e ogni stato iniziale x0 Rn esiste una e una sola
soluzione x = (t) della (5.1) tale che (t0 ) = x0 ; inoltre, (t) `e definita per ogni t I.
Fatto 2. Se 1 (t), 2 (t) sono soluzioni di (5.1) definite su I, allora 1 (t) 2 (t) `e soluzione del
cosiddetto sistema lineare omogeneo associato
x = Ax .

(5.2)

Fatto 3. Se (t) `e una qualunque soluzione del sistema omogeneo associato (5.2) e se 0 (t) `e una
soluzione del sistema non omogeneo (5.1), allora (t) + 0 (t) `e una soluzione del sistema non
omogeneo (5.1).
Fatto 4. (Principio di sovrapposizione) Se 1 (t) `e una soluzione del sistema (5.1) con b(t) = b1 (t)
e 2 (t) `e una soluzione del sistema (5.1) con b(t) = b2 (t), allora 1 (t) + 2 (t) `e una soluzione
del sistema (5.1) con b(t) = b1 (t) + b2 (t).
Discende dai Fatti 2 e 3 che per determinare linsieme di tutte le soluzioni di (5.1), al quale si
d`a ancora il nome di integrale generale, bisogna conoscere:
(a) una matrice fondamentale (t) della (5.2);
(b) almeno una soluzione particolare della (5.1) stessa.
55

56
Lintegrale generale sar`a allora dato dalla formula
x = (t) = (t)c + 0 (t)

(5.3)

dove c `e un vettore di costanti arbitrarie. La soluzione particolare corrispondente a una data


condizione iniziale (t0 , x0 ) si ottiene risolvendo il sistema algebrico
x0 0 (t0 ) = (t0 )c .
Se t0 = 0, (t) = etA e 0 (0) = 0, allora c = x0 .

5.1.1

Metodo di variazione delle costanti

Per quanto riguarda il punto (b), abbiamo il seguente risultato di carattere generale.
Proposizione 5.1 La funzione
0 (t) =

Z t
t0

e(t )A b( ) d

(5.4)

fornisce la soluzione della (5.1) tale che 0 (t0 ) = 0.


Grazie a questi risultati, possiamo riscrivere la soluzione corrispondente alla condizione iniziale
(t0 , x0 ) come
(t) = e

(tt0 )A

x0 +

Z t
t0

(t )A

b( )d = e

(tt0 )A

(x0 +

Z t
t0

e(t0 )A b( )d )

(5.5)

che prende il nome di formula di Lagrange (o formula della variazione delle costanti). Una volta
determinata etA , la difficolt`a della (5.5), sta tutta nel calcolo dellintegrale, e quindi dipende da
b(t).
Osservazione 5.1 Nel seguito, useremo spesso la (5.5) scritta per t0 = 0, e cio`e nella forma
(t) = etA x0 +

Z t
0

e(t )A b( ) d .

(5.6)

La (5.6) ha una interpretazione notevole dal punto di vista fisico. Essa infatti mostra come ogni
soluzione sia la somma di due contributi: il primo dipende dallo stato iniziale ma non dal termine
forzante, mentre il secondo dipende, al contrario, dal termine forzante ma non dallo stato iniziale.
Equazioni come la (5.1) intervengono spesso nelle applicazioni, sia quelle studiate dalla fisica
classica (in cui b(t) si presenta come un termine forzante assegnato), sia quelle considerate nella
teoria dei sistemi (in cui b(t) si interpreta come un ingresso). In ogni caso, `e ragionevole supporre che
b(t) rappresenti un segnale prodotto da un esosistema, cio`e da un sistema esterno, che alimenta il
sistema principale mediante una connessione in serie. Gli esosistemi sono spesso semplici dispositivi
` quindi ragionevole dar importanza al caso in cui
lineari privi di temini forzanti. E
b(t) =

H
X
h=1

Ph (t)eh t

57
dove ogni Ph (t) `e un polinomio a coefficienti vettoriali e h C. In questi casi, come noto, il calcolo
dellintegrale che compare nella (5.5) pu`o essere evitato grazie al principio di sovrapposizione e a
certe regole che permettono di ottenere direttamente una soluzione particolare.

5.1.2

Metodo di somiglianza

Possiamo limitarci al caso in cui b(t) = P (t)et , con P (t) polinomio a coefficienti vettoriali.
Dobbiamo distinguere due casi.
Caso 1: non coincide con alcun autovalore di A. Esiste allora una soluzione particolare di (5.1)
con la seguente struttura: 0 (t) = Q(t)et essendo Q un polinomio a coefficienti vettoriali dello
stesso grado di P .
Caso 2: `e un autovalore di A, di molteplicit`a algebrica 1. Esiste allora una soluzione
particolare di (5.1) con la seguente struttura: 0 (t) = Q(t)et essendo Q un polinomio a coefficienti
vettoriali, di grado deg Q = deg P + : in questo caso si dice che il sistema `e in risonanza.
In entrambi i casi, i coefficienti di Q vanno determinati di volta in volta, imponendo lidentit`
a
0 (t) = A0 (t) + P (t)et . Si noti che, in generale, con questo metodo si ottiene una soluzione
particolare che non coincide con quella suggerita dalla Proposizione 5.1 e della quale non `e possibile
predeterminare il valore iniziale.
Insistiamo sul fatto che le regole esposte valgono anche se `e complesso. Grazie a questa
osservazione e in virt`
u delle formule
ei t ei t
ei t + ei t
,
sin t =
2
2i
il procedimento descritto si estende a termini forzanti del tipo b(t) = P (t) cos t oppure b(t) =
P (t) sin t (essendo sempre P un polinomio a coefficienti vettoriali). Consideriamo per esempio il
caso
cos t =

b(t) = (cos t)u

(5.7)

con u Rn vettore costante. Applichiamo il metodo di somiglianza separatamente ai due sistemi


ei t
ei t
u e x = Ax +
u.
2
2
Supponendo per semplicit`a che non si verifichi risonanza e tenendo conto che gli elementi di A
e di u sono reali, si troveranno rispettivamente soluzioni particolari del tipo
x = Ax +

1 (t) = cei t

e 2 (t) = cei t

per un certo vettore di costanti c Cn . Per il principio di sovrapposizione, una soluzione particolare
del sistema con b(t) dato dalla (5.7) si potr`a allora prendere della forma
0 (t) = cei t + cei t .
Tale soluzione di fatto `e reale, in quanto i due addendi sono coniugati, e si pu`o riscrivere nella
forma
0 = a cos t + b sin t

(5.8)

58
per certe costanti vettoriali a, b Rn .
` importante osservare che la (5.8) `e una soluzione periodica, con la stessa
Osservazione 5.2 E
frequenza del termine forzante (5.7).
Osserviamo anche che nella soluzione (5.8) sono presenti sia la funzione seno che la funzione
coseno, nonostante che nel termine forzante (5.7) compaia solo la funzione coseno.

5.2

Transitorio e soluzione di regime

Facendo uso della (3.14), possiamo dare una stima asintotica delle soluzioni anche per i sistemi non
omogenei del tipo (5.1).
Proposizione 5.2 Se tutti gli autovalori della matrice A hanno parte reale negativa e se b(t) `e
una funzione limitata sullintervallo [0, +), allora vale la formula
k(t)k k0 kx0 ket + b0 ,

t0,

dove k0 e sono costanti positive, < 0, b0 = sup0 kb()k, e x0 = (0).


Dimostrazione In virt`
u dellipotesi, esiste una costante < 0 e una costante k0 > 0 tali che per ogni t e
ogni s [0, t] si ha
ke(ts)A b(s)k k0 kb(s)ke(ts) .
Poiche lo stato iniziale x0 `e assegnato al tempo t0 = 0, utilizziamo la (5.6). Si ha:
Z
k(t)k

k0 kx0 ke

+ b0 k0

e(t ) d

=
=

b0 k0

b
k0
0
k0 kx0 ket +

k0 kx0 ket

e(t )

it
0

e 1 .

Essendo < 0, si ha et 1 per t > 0 e inoltre lim et = 0. Posto =


t+

si riduce a quella desiderata.

k0
||

la disuguaglianza precedente

Continuiamo a supporre che tutti gli autovalori della matrice A abbiano parte reale negativa.
Ricorrendo ancora alla (3.14) con negativo, si deduce che
lim ketA x0 k = 0

t+

qualunque sia x0 . Ci`o significa che nella (5.6), per t sufficientemente grande, il termine etA x0 si
pu`o trascurare e la soluzione diventa indipendente dallo stato iniziale. Levoluzione temporale
del sistema si usa pertanto dividere in due stadi: il transitorio (transient) in cui levoluzione risente
visibilmente dellinfluenza dello stato iniziale, e il regime (steady-state) in cui linfluenza dello stato
iniziale `e esaurita, e levoluzione dipende essenzialmente dal termine forzante.

59
Ovviamente questa distinzione non `e rigorosa, in quanto etA x0 non sar`a mai esattamente zero
per quanto grande si prenda t. Essa dipende dai margini di errore consentiti dagli strumenti di
misura e dallaccuratezza richiesta, ma `e tuttavia molto comoda ed espressiva, almeno sul piano
euristico.
Osservazione 5.3 La soluzione a regime deve essere pi`
u precisamente pensata come una soluzione
limite, verso la quale tendono asintoticamente tutte le soluzioni del sistema (5.1) (sempre a
condizione che tutti gli autovalori della matrice A abbiano parte reale strettamente negativa). Tale
soluzione limite `e essa stessa una soluzione del sistema (5.1), ma non `e necessariamente quella che
assume il valore zero al tempo zero, cio`e quella che compare come secondo addendo nella (5.6). In
generale infatti, il secondo addendo della (5.6) potrebbe nascondere ulteriori termini che tendono
a zero per t + e che servono per compensare la differenza tra gli stati iniziali. La soluzione a
regime si trova in maniera naturale quando si procede col metodo di somiglianza.

Esempio 5.1 Consideriamo lequazione differenziale scalare


x + x = 2

(5.9)

con la condizione iniziale x(0) = 1. Lintegrale generale dellequazione omogenea associata `e dato
da x = et c, con c costante arbitraria. Ponendo c = 1, si ottiene in particolare la soluzione
dellequazione omogenea associata corrispondente alla stessa condizione iniziale x(0) = 1 richiesta
per la (5.9). La soluzione dellequazione
completa (5.9) si pu`o trovare facendo uso della Proposizione
R
5.1: nella fattispecie si ottiene x = 2 0t e(t ) d = 2 2et . La soluzione cercata si scrive allora,
in accordo con la (5.6),
x = et 2et + 2 .

(5.10)

In alternativa, si pu`o procedere col metodo di somiglianza: in questo modo si trova direttamente
la soluzione di regime x = 2, che risulta costante. Si scrive quindi lintegrale generale della (5.9)
nella forma
x = et c + 2
e imponendo la condizione x(0) = 1, questa volta si ricava c = 1. Come naturale, il risultato cos`
ottenuto coincide con quello fornito dalla (5.10). La Figura 5.1 mostra i grafici dei vari addendi che
compongono la (5.10).

5.3

Lequazione scalare di ordine n non omogenea

Unequazione scalare non omogenea di ordine n


y (n) + a1 y (n1) + . . . + an1 y 0 + an y = g(t)
si pu`o riscrivere come un sistema del tipo (5.1) con A in forma compagna, e

(5.11)

60
3

2.5
R
2

1.5
N
1

0.5
A
0

0.5

1
1

Figura 5.1: La curva a tratto pi`u marcato rappresenta il grafico della soluzione della (5.9) tale che x(0) = 1;
la curva indicata da A rappresenta il grafico della soluzione dellomogenea associata tale che x(0) = 1; la
curva indicata da R rappresenta il grafico della soluzione di regime; la curva indicata da N rappresenta il
grafico della soluzione della (5.9) tale che x(0) = 0.

0
..
.
b(t) =
.
0
g(t)
Tuttavia, ai fini della determinazione dellintegrale generale, se g(t) = p(t)et , dove C
e p(t) `e un polinomio a coefficienti reali o complessi, conviene operare direttamente sulla (5.11).
Lintegrale generale si presenter`a infatti nella forma
y(t) = y1 (t) + . . . + yn (t) + 0 (t)
dove y1 (t), . . . , yn (t) sono soluzioni linearmente indipendenti dellequazione omogenea associata e
0 (t) `e una soluzione particolare. In conformit`a col metodo di somiglianza, 0 (t) pu`o essere ricercata
della forma:
1. 0 (t) = q(t)et se non `e soluzione dellequazione caratteristica della (5.11);
2. 0 (t) = t q(t)et se `e soluzione con molteplicit`a algebrica dellequazione caratteristica
della (5.11).
In entrambi i casi, q(t) rappresenta un polinomio dello stesso grado di p(t).
Ricordiamo che la soluzione 0 (t) fornita dal metodo di somiglianza non coincide, in generale,
con la soluzione della (5.11) che si annulla per t = 0. La soluzione particolare della (5.11) che si
annulla per t = 0 potrebbe essere trovata trasformando la (5.11) in un sistema (5.1) e applicando
a questultimo la formula di Lagrange. Questa procedura `e per`o artificiosa e complicata dal punto
di vista dei calcoli. Vedremo in seguito un metodo pi`
u diretto.
Se tutte le radici dellequazione caratteristica della (5.11) hanno parte reale strettamente negativa, la soluzione particolare 0 (t) pu`o ancora essere interpretata come soluzione di regime.

61
3

2.5

1.5

0.5

0.5

1.5

10

12

14

16

18

20

Figura 5.2: Esempio 5.2: soluzione a regime e fase di transitorio.


Esempio 5.2 Consideriamo lequazione differenziale
y + y + 6y = t 2 .
Le radici caratteristiche dellomogenea associata sono complesse coniugate, con parte reale negativa. Una soluzione particolare pu`o essere presa della forma 0 (t) = 6t 13
36 ; essa rapprenta la
soluzione di regime, e il suo grafico `e tracciato nella Figura 5.2. Nella stessa figura appare anche il
grafico di una soluzione corrispondente a condizioni iniziali diverse. La fase di transitorio `e quella
in cui la differenza tra le due soluzioni `e apprezzabile.

Esempio 5.3 Consideriamo lequazione lineare di ordine 2 nella sua forma pi`
u generale
y + ay + by = g(t) .

(5.12)

Essa costituisce un modello per una grande variet`


a di problemi di natura applicata. Concentriamoci
in particolare sul caso in cui lequazione caratteristica abbia radici complesse coniugate i con
= a/2 < 0 e 6= 0. Sia
g(t) = p1 cos t + p2 sin t .
Evidentemente, in queste circostanze i non `e soluzione dellequazione caratteristica. Pertanto
la (5.12) avr`a una soluzione del tipo
0 (t) = q1 cos t + q2 sin t

(5.13)

y(t) = (c1 cos t + c2 sin t)et + q1 cos t + q2 sin t.

(5.14)

e un integrale generale del tipo

I coefficienti q1 e q2 nella (5.13) dipendono da p1 , p2 e (oltre che da a e b) e possono essere


trovati per sostituzione diretta1 . Conviene riscrivere la (5.13) in modo da evidenziarne lampiezza
e la fase:
1

Attenzione che pi = 0 (i = 1, 2) non implica in generale qi = 0 (si ricordi in proposito lOsservazione 5.2).

62

0 (t) = cos(t + )

(5.15)

dove q1 = cos , q2 = sin . Si noti che le condizioni iniziali contribuiscono a determinare le


costanti c1 e c2 nella (5.14), ma non le grandezze q1 , q2 (equivalentemente, , ) caratteristiche
della (5.13).
In virt`
u dellipotesi < 0, dopo un certo lasso di tempo il primo termine della (29) diventa
trascurabile rispetto al secondo. Si evidenziano cio`e quelle che abbiamo chiamato fase transitoria
e fase di regime. Si noti che a regime, in conformit`a con quanto gi`a affermato nellOsservazione
5.2, la soluzione (5.15) ha la stessa frequenza del segnale in ingresso. Nel passaggio attraverso
il sistema, possono invece venire modificate la fase e lampiezza. Il passaggio alla fase di regime
risulter`a tanto pi`
u rapido quanto pi`
u grande risulta .

Esempio 5.4 Si consideri ancora lequazione (5.12), con lo stesso termine forzante ma questa volta
con a = 0. Se 2 = b allora i `e soluzione dellequazione caratteristica. Si presenta quindi il caso
della risonanza. Lintegrale generale prende la forma
0 (t) = (c1 + tq1 ) cos t + (c2 + tq2 ) sin t .

(5.16)

Le costanti q1 , q2 che caratterizzano la soluzione particolare si determinano facilmente per


sostituzione diretta. Le soluzioni presentano oscillazioni di ampiezza tendente a +.

Capitolo 6

Sistemi definiti da equazioni


differenziali lineari di ordine arbitrario
Cominciamo da questo capitolo lo studio dei sistemi differenziali con ingressi e uscite. Studieremo
in particolare sistemi SISO (quindi con m = p = 1) definiti da equazioni differenziali lineari a
coefficienti costanti di ordine arbitrario
y (n) + a1 y (n1) + . . . + an1 y 0 + an y = u(t)

(6.1)

dove u(t) rappresenta lingresso e y(t) luscita. Equazioni del tipo (6.1) modellizzano sistemi fisici di
notevole interesse per le applicazioni: esse hanno giocato un ruolo importante nello sviluppo storico
della teoria dei sistemi, soprattutto ai suoi inizi.
La (6.1) si presenta come unequazione lineare non omogenea. Ne discende in particolare che
per ogni ingresso u() PC([0, +), R) e per ogni assegnazione di condizioni iniziali
y(0) = y0 , y 0 (0) = y1 , . . . , y (n1) (0) = yn1

(6.2)

` dunque naturale assumere come stato del sistema al


si ha ununica soluzione definita per t 0. E
tempo t 0 il vettore di componenti
(y(t), y 0 (t), . . . , y (n1) (t)) Rn .
La (6.1) pu`o essere interpretata come un sistema di n equazioni in n incognite, definito da una
matrice in forma compagna, e pu`o essere risolta, fissato un ingresso ammissibile u(t), con i metodi
illustrati nei capitoli precedenti. Alternativamente, possiamo procedere applicando a entrambi i
membri della (6.1) la trasformata di Laplace.

6.1

Funzione di trasferimento

Con le convenzioni e le notazioni introdotte nellAppendice B, tenendo conto delle (6.2) e facendo
uso della (B.10) si ha:
L[y (n) + a1 y (n1) + . . . + an1 y 0 + an y] = L[u(t)]
cio`e
63

64

(sn + a1 sn1 + . . . + an )Y (s)


{sn1 y0 + sn2 y1 + sn3 y2 + . . . + yn1 +
h

+ sn2 y0 + sn3 y1 + . . . + yn2 (0) a1 +


h

+ sn3 y0 + . . . + yn3 (0) a2 +


+ .................................

+y0 an1 } = U (s)


e quindi
pc (s)Y (s) P0 (s) = U (s)

(6.3)

dove pc (s) = sn + a1 sn1 + . . . + an coincide (eventualmente a meno del segno) col polinomio
caratteristico della matrice in forma compagna che definisce il sistema differenziale associato alla
(6.1); inoltre
P0 (s) = A0 sn1 + A1 sn2 + . . . + An1

(6.4)

dove
A0 = y0 , A1 = y1 + a1 y0 , . . . , An1 = yn1 + a1 yn2 + . . . + an1 y0 .
Si nota che:
(i) pc (s) non dipende ne dal termine forzante ne dalle condizioni iniziali;
(ii) deg P0 (s) < deg pc (s);
(iii) P0 (s) `e identicamente nullo se e solo se y0 = . . . = yn1 = 0.
Dalla (6.3) si ottiene formalmente
Y (s) =

P0 (s) U (s)
+
pc (s)
pc (s)

(6.5)

che `e ben definita ogni volta che s non `e soluzione dellequazione caratteristica. Poiche le soluzioni
dellequazione caratteristica sono in numero finito, esiste un numero reale 0 tale che la (6.5) vale
nel semipiano {s C : Re s > 0 }.
La (6.5) fornisce in modo puramente algebrico la trasformata di Laplace della soluzione y(t)
cercata. Questultima potr`a essere ora determinata per t 0 applicando la trasformata di Laplace
inversa L1 .
Le seguenti considerazioni mettono in luce la stretta analogia tra la struttura della (6.5) e quella
della (5.6). Il primo addendo contiene infatti le informazioni relative ai dati iniziali ed `e quello che
si avrebbe se si dovesse risolvere lomogenea associata alla (6.1) con gli stessi dati iniziali. Esso si
presenta come una funzione razionale propria: una volta effettuato lo sviluppo in fratti semplici,
lapplicazione di L1 non presta difficolt`a.

65
Osservazione 6.1 Si ritrovano naturalmente, per questa via, le conclusioni gi`a note sulla forma
dellintegrale generale dellequazione differenziale lineare omogenea a coefficienti costanti
y (n) + a1 y (n1) + . . . + an1 y 0 + an y = 0 .

(6.6)

Lantitrasformata della funzioni razionale P0 (s)/pc (s) `e infatti costituita dalla somma di funzioni
del tipo q1 (t)et cos t e q2 (t)et sin t dove q1 (t), q2 (t) sono polinomi di grado inferiore ad n i cui
coefficienti dipendono dalle condizioni iniziali. In particolare, nel caso in cui le radici dellequazione
caratteristica della (6.6) abbiano tutte parte reale strettamente negativa, tutte le soluzioni (e le
loro derivate) tenderanno a zero per t + e il sistema definito dalla (6.1) risulter`a internamente
stabile.
Il secondo addendo della (6.5) dipende dal termine forzante ed `e quello che si avrebbe se si
dovesse risolvere la (6.1) con condizioni iniziali nulle (invece che con le condizioni (6.2)). Esso si
presenta sotto la forma di un prodotto H(s)U (s), dove la funzione H(s) = 1/pc (s) (definita nel
semipiano {s C : Re s > 0 }) prende il nome di funzione di trasferimento. Se indichiamo con h(t)
la funzione che vale identicamente zero per t < 0 e coincide con la trasformata di Laplace inversa di
H(s) per t 0, la soluzione della (6.1) corrispondente alle condizioni iniziali y0 = . . . = yn1 = 0
verr`a allora rappresentata (si ricordi la (B.12) dellAppendice B) mediante la formula
y(t) =

Z t
0

h(t )u( ) d

per t 0 .

(6.7)

Se si accetta inoltre la convenzione che gli ingressi siano nulli per t < 0, si riconosce allora nella
h(t) la funzione della risposta impulsiva relativa al sistema definito dalla (6.1).
Osservazione 6.2 La (6.7) estende il metodo della variazione delle costanti alle equazioni differenziali lineari di ordine arbitrario.
Esempio 6.1 Si voglia risolvere lequazione differenziale lineare del secondo ordine
y 00 + 3y 0 + 2y = 1

(6.8)

con le condizioni iniziali y(0) = 1, y 0 (0) = 0. Applichiamo ad entrambi i membri di (6.8) loperatore
L. Si ha

L y 00 + 3L y 0 + 2L [y] = y 0 (0) + sL y 0 + 3L y 0 + 2L [y] =


= y 0 (0) + (s + 3)(y(0) + sY (s)) + 2Y (s) =
1
= (s2 + 3s + 2)Y (s) y(0)(s + 3) y 0 (0) = .
s
La trasformata del termine forzante richiede la restrizione Re s > 0. In tale regione del piano
complesso lequazione s2 + 3s + 2 = 0 (che non `e altro che lequazione caratteristica della (6.8))
non ha soluzioni. Possiamo quindi dividere trovando:

Y (s) =

s+3
1
s2 + 3s + 1
1
+
=
=
2
2
s + 3s + 2 s(s + 3s + 2)
s(s + 2)(s + 1)
2

1
1
2

+
s s+2 s+1

66
Possiamo ora applicare L1 , in quanto siamo pervenuti ad una somma di trasformate di funzioni
elementari note. Si ottiene
y(t) =

1
1 e2t + 2et
2

per t 0. Si riconosce in questultima espressione la somma di una soluzione particolare della (6.8)
e di una soluzione particolare dellomogenea associata.
Conviene soffermarsi un momento a riflettere sulle varie fasi dei calcoli svolti. In particolare,
osserviamo che Y (s) si era ottenuto prima come somma di due addendi: si `e quindi passati ad
ununica espressione razionale e si `e infine eseguita la decomposizione in fratti semplici. Questo
modo di procedere `e in generale il pi`
u conveniente dal punto di vista della rapidit`a di esecuzione
dei calcoli. Pu`o essere tuttavia istruttivo eseguire i calcoli in modo diverso, e cio`e mantenendo
separati il termine che contiene le informazioni sulle condizioni iniziali da quello che contiene le
informazioni sul termine forzante. Si ha:

Y (s) =

1
2
+
s+2 s+1

1
2

1
1
2
+

s s+2 s+1

da cui

y(t) = e

2t

+ 2e

2t

2e

1
+
2

Risulta ora facilmente leggibile la composizione di y(t). La prima parentesi corrisponde alla
soluzione che si sarebbe avuta in assenza del termine forzante (cio`e, la soluzione dellequazione
omogenea associata) con le stesse condizioni iniziali. Poiche le radici dellequazione caratteristica
sono negative, questa parte si esaurisce nel transitorio.
La parentesi quadra rappresenta la soluzione che si sarebbe avuta imponendo condizioni iniziali
nulle. Questa si compone di una parte costante, che coincide con la soluzione di regime, e di alcuni
termini che sono destinati anchessi ad esaurirsi nel transitorio. Come gi`a sappiamo, la presenza di
questi termini `e dovuta alla necessit`a di compensare i valori iniziali della soluzione di regime che
in questo caso, come in generale, non sono nulli.
Quando il termine forzante non `e una semplice costante, entrano in gioco polinomi di grado
superiore da fattorizzare. Per esempio se il termine forzante fosse uguale a sin t, allora si perviene
a:

Y (s) =
=

s+3
1
+
=
(s + 2)(s + 1) (s + 2)(s + 1)(s2 + 1)

s2 + 3s2 + s + 4
1
12
25
1 3s
=
+
+
(s + 2)(s + 1)(s2 + 1)
10 s + 2 s + 1 s2 + 1

e quindi
y(t) =

1
12e2t + 25et + sin t 3 cos t .
10

67

6.2

Analisi della risposta in frequenza

Consideriamo ancora il sistema definito dallequazione differenziale ordinaria lineare di ordine n a


coefficienti costanti (6.1). Uno dei problemi classici tra quelli che possiamo collocare alle origini
della Teoria dei Sistemi, consiste nello studio del comportamento del sistema in risposta ad un
ingresso periodico della forma
u(t) = p1 cos t + p2 sin t

(6.9)

sotto lipotesi che lequazione caratteristica pc (s) = 0 abbia tutte le radici con parte reale negativa.
Come noto, sotto queste condizioni la soluzione di regime `e periodica, con la stessa frequenza del
termine forzante (6.9). Nel Capitolo 5 (Esempio 5.3) abbiamo gi`a svolto alcune considerazioni relativamente al caso di unequazioni del secondo ordine. Il metodo illustrato in questo capitolo basato
sulluso della trasformata di Laplace consente di ottenere ancora altre informazioni. In particolare, esso fornisce uno strumento di rapida e semplice applicazione per determinare i parametri del
sistema e del segnale in ingresso in modo che il segnale in uscita abbia ampiezza e fase prescritte.
Questo tipo di problema va sotto il nome di analisi della risposta in frequenza. La (6.5) diventa
Y (s) =

P0 (s)
1 p1 s + p2
.
+
pc (s)
pc (s) s2 + 2

Poiche, come abbiamo supposto, tutte le radici dellequazione pc (s) = 0 si trovano nel semipiano
negativo del piano complesso, si avr`a pc (i ) 6= 0; di conseguenza pc (s) non `e divisibile per s2 + 2 .
Possiamo riscrivere il secondo membro come
Y (s) =

P0 (s) P (s) q1 s + q2
+
+ 2
pc (s)
pc (s)
s + 2

dove P (s) `e un polinomio, e q1 , q2 costanti tali che


P (s)s2 + q1 spc (s) + P (s) 2 + q2 pc (s) = p1 s + p2 .

(6.10)

Questultima mostra in particolare che deg P < deg pc . Poiche < 0, possiamo ripetere a
proposito del termine P (s)/pc (s) il ragionamento dellOsservazione 6.1. In definitiva, i contributi
dei termini P0 (s)/pc (s) e P (s)/pc (s) sono destinati ad esaurirsi nel transitorio, e la risposta a regime
dipende essenzialmente dal terzo addendo (q1 s + q2 )/(s2 + 2 ), la cui antitrasformata `e data da

q1 s + q2
q2
= q1 cos t + sin t = k sin(t + )
2
2
s +

dove si `e posto q1 = k sin e q2 = k cos .


Ricordiamo che il termine P0 (s)/pc (s) rappresenta la soluzione del sistema non forzato corrispondente alle stesse condizioni iniziali assegnate per il sistema completo. Il termine P (s)/pc (s) ha
quindi la funzione di compensare la differenza tra le condizioni iniziali effettivamente assegnate,
e le condizioni iniziali (in generale, diverse) cui corrisponde la soluzione a regime. Si confrontino
queste considerazioni con quelle riportate nellOsservazione 5.3.
Vediamo infine come si possono calcolare q1 e q2 , e quindi k e . Mediante la sostituzione s = i ,
dalla (6.10) si ricava
q2 + i q1 =

(p2 + i p1 ) ,
pc (i )

68
da cui q2 = Re [ pc (i ) (p2 + i p1 )] e q1 = Im [ pc (i1 ) (p2 + i p1 )]. Alternativamente, si possono ricavare
p1 e p2 in funzione dei valori desiderati per q1 e q2 .

6.3

Analisi della stabilit`


a esterna

Analizziamo adesso il comportamento del sistema definito dalla (6.1) dal punto di vista della
stabilit`a esterna, nel senso della Definizione 1.3.
Teorema 6.1 Il sistema descritto dallequazione (6.1) `e BIBO-stabile se e solo se le soluzioni
dellequazione caratteristica del sistema non forzato (6.6) hanno tutte parte reale strettamente
negativa.
Dimostrazione Per semplicit`a, limitiamo la dimostrazione alla parte sufficiente, per il caso di un sistema
definito da unequazione differenziale di ordine 2, la cui equazione caratteristica abbia radici reali distinte.
In tal caso, posto pc (s) = s2 + a1 s + a2 = (s s2 )(s s1 ), la (6.5) si riscrive
Y (s) =

P0 (s)
U (s)
1
1
+
=

(P0 (s) + U (s)) .


(s s2 )(s s1 ) (s s2 )(s s1 )
s s1 s s2

(6.11)

Come abbiamo gi`a detto (Osservazione 6.1) se s1 e s2 sono entrambe strettamente negative il sistema `e
internamente stabile: il contributo del primo addendo della (6.11) `e allora sicuramente limitato per t 0.
Possiamo quindi concentrarci sul secondo addendo. Esso si pu`o riscrivere nella forma

1
U (s)
U (s)

.
s2 s1 s s2
s s1
La sua antitrasformata `e uguale a
Z t
Z t
Z t
1
s2 (t )
s1 (t )
e
u( ) d
e
u( ) d =
h(t )u( ) d
s2 s1
0
0
0
avendo posto
h() =

Z
1
es2 (t ) es1 (t ) =
es2 (r) es1 r dr .
s2 s1
0

A questo punto `e facile concludere che anche il contributo del secondo addendo rimane limitato per t 0,
se lingresso u(t) `e limitato.

Osservazione 6.3 Se si assume che il sistema sia inizializzato a zero, la (6.11) si riduce a
1
1

(P0 (s) + U (s)) .


s s1 s s2
Questultima pu`o essere interpretata dicendo che il sistema agisce come la composizione in serie
di due sistemi del primo ordine
Y (s) =

y = s2 y + v

v = s1 v + u .

Risolti indipendentemente, i due sistemi danno


y=

Z t
0

e(t)s2 v() d

v=

Z t
0

e(t )s1 u( ) d .

69
Combinando insieme le due espressioni, si ha
y=

Z t
0

(t)s2
0

( )s1

u( ) d

d .

Invertendo lordine di integrazione, e applicando la sostituzione = r, si ottiene


y=

Z t Z t
0

((t )r)s2 rs1

dr u( ) d

che permette di riconoscere nella


h() =

Z
0

e(r)s2 ers1 dr

gi`a impiegata nella dimostrazione precedente, la funzione della risposta impulsiva del nostro sistema.
Questo ragionamento, opportunamente generalizzato, fornisce una rappresentazione della funzione della risposta impulsiva per sistemi del tipo (6.1) di ordine arbitrario.

Osservazione 6.4 Segue dallOsservazione 6.1 e dal Teorema 6.1 che per un sistema definito
dallequazione (6.1) stabilit`a interna e stabilit`a esterna sono propriet`a equivalenti.

70

Capitolo 7

Sistemi lineari con ingressi e uscite


In questo capitolo si gettano le basi della teoria dei sistemi differenziali di tipo MIMO, dotati cio`e di
ingressi e di uscite vettoriali. Ci concentreremo in particolare sulle cosiddette propriet`a strutturali
dei sistemi lineari finito-dimensionali e invarianti nel tempo, che sono definiti, come sappiamo gi`a,
da equazioni della forma

x = Ax + Bu
y = Cx

(7.1)

dove x Rn rappresenta lo stato del sistema, u Rm rapprenta lingresso e y Rp rappresenta


luscita (n, m e p interi qualunque maggiori o uguali a 1). In generale si assumono, come ingressi
+, Rm ). Le propriet`a strutturali sono infatti quelle che
ammissibili, tutte le funzioni u() C(0,
dipendono esclusivamente dal dato delle matrici A, B, C, e che quindi prescindono dalla presenza
di eventuali vincoli sulle funzioni in ingresso.
La conoscenza delle propriet`a strutturali `e utile, e comunque preliminare, anche ai fini dello
studio del caso pi`
u generale in cui gli ingressi ammissibili sono vincolati a prendere valori in un
sottoinsieme (non vuoto) U di Rm , e del quale ci occuperemo pi`
u avanti.

7.1

Insiemi raggiungibili

Il sistema di equazioni differenziali


x = Ax + Bu(t)

(7.2)

ha, per ogni ingresso ammissibile u(t) e per ogni stato iniziale x(0) = x0 , ununica soluzione, definita
per t 0, che indicheremo con x(t, x0 , u()).
Il sistema (7.2) si pu`o pensare come un sistema di equazioni lineari non omogeneo, con termine
forzante b(t) = Bu(t). Pertanto,
x(t, x0 , u()) = etA (x0 +

Z t
0

e A Bu( ) d ) .

(7.3)

Come abbiamo gi`a osservato (si veda il Capitolo 5), la (7.3) si decompone come la somma di
x(t, x0 , 0) = etA x0
71

(7.4)

72
che si dice anche la soluzione libera (o non forzata) del sistema in quanto corrisponde allingresso
u = 0, e la
x(t, 0, u()) =

Z t
0

e(t )A Bu( )d

(7.5)

che rappresenta la soluzione corrispondente allo stesso ingresso ma con stato iniziale nullo.
La Proposizione 2.1 ha un analogo in questo contesto.
Proposizione 7.1 Per ogni coppia di numeri reali t, s [0, +), per ogni ingresso ammissibile
u() : [0, +) Rm , per ogni stato iniziale x0 , si ha
x(0, x0 , u()) = x0
e
x(t + s, x0 , u()) = x(t, x(s, x0 , u()), w())
dove si `e posto w( ) = u( + s) per [0, +).

Introduciamo adesso alcuni importanti concetti di natura geometrica.


Definizione 7.1 Siano x0 , z0 Rn . Si dice che z0 `e raggiungibile da x0 al tempo T > 0 (o anche
che x0 `e trasferibile in z0 al tempo T ) se esiste un ingresso ammissibile u() : [0, T ] Rm tale che
z0 = x(T, x0 , u()) .

(7.6)

Se si fissa x0 , linsieme dei punti raggiungibili da x0 al tempo T si indica con R(T, x0 ) e si


chiama insieme raggiungibile.
Analogamente si pu`o parlare di insiemi trasferibili: per esempio, si indica talvolta con C(T, z0 )
linsieme dei punti x0 per i quali esiste un ingresso ammissibile u() : [0, T ] Rm per cui vale la
(7.6).
Intuitivamente, pi`
u grande `e linsieme R(T, x0 ), maggiore sar`a la nostra capacit`a di controllare
il sistema. Ci interessa in particolare la seguente definizione.
Definizione 7.2 Un sistema della forma (7.1) si dice:
globalmente raggiungibile da x0 al tempo T se R(T, x0 ) = Rn ;
globalmente raggiungibile al tempo T se R(T, x0 ) = Rn qualunque sia x0 .
I due concetti introdotti nella definizione precedente sono diversi solo in apparenza. Vale infatti
la seguente proposizione.
Proposizione 7.2 Se esiste uno stato x0 per cui il sistema `e globalmente raggiungibile da x0 al
tempo T , allora il sistema `e globalmente raggiungibile al tempo T anche dallorigine.
Se il sistema `e globalmente raggiungibile dallorigine al tempo T , allora `e globalmente raggiungibile al tempo T .

73
Dimostrazione Sia x1 un punto qualunque di Rn . Se il sistema `e globalmente raggiungibile al tempo T da
un certo x0 , esister`a in particolare un ingresso u(t) tale che
Z

x1 + eT A x0 = eT A x0 +

e(T )A Bu( ) d .

Semplificando, si ottiene
Z

x1 =

e(T )A Bu( ) d

e questo significa che x1 `e raggiungibile dallorigine al tempo T .


Daltra parte, se il sistema `e globalmente raggiungibile al tempo T dallorigine, qualunque sia x0 esister`a
in particolare un ingresso u(t) tale che
Z
x1 eT A x0 =

e(T )A Bu( ) d

cio`e
Z
x1 = eT A x0 +

e(T )A Bu( ) d

e questo significa che x1 `e raggiungibile da x0 al tempo T .

7.1.1

Struttura degli insiemi raggiungibili

La propriet`a di raggiungibilit`a introdotta nel paragrafo precedente fa riferimento a certe relazioni


che il sistema (7.1) induce tra le variabili di ingresso e le variabili di stato. Essa non dipende
dalla matrice C, ed `e quindi naturale pensare che essa possa essere caratterizzata in termini delle
sole matrici A e B. Inoltre, la Proposizione 7.2 suggerisce di concentrare lattenzione sullinsieme
raggiungibile dallorigine.
Teorema 7.1 Sia dato il sistema lineare (7.1). Qualunque siano a, b ( < a < b +),
b, Rm ) la funzione
lapplicazione che associa ad ogni u() C(a,
t 7 x(t, 0, u()) =

Z t
a

e(t )A Bu( ) d C(a, b, Rn )

(7.7)

`e lineare.
Dimostrazione La verifica segue immediatamente dalle ben note propriet`a di linearit`a dellintegrale. Se
b, Rm ) e , R, anche u1 + u2 C(a,
b, Rm ) e
u1 , u2 C(a,
Z t
Z t
Z t
e(t )A B(u1 ( ) + u2 ( )) d =
e(t )A Bu1 ( ) d +
e(t )A Bu2 ( ) d .
a

Fissiamo ora T 0. La (7.7) si pu`o reinterpretare come unapplicazione che associa ad ogni
T, Rm ) lelemento di Rn
funzione u() C(0,
x = (u()) = x(T, 0, u()) =

Z T
0

e(T )A Bu( ) d Rn .

(7.8)

74
T, Rm ) Rn `e lineare.
Corollario 7.1 Lapplicazione : C(0,

Corollario 7.2 Per ogni T > 0 fissato, linsieme R(T, 0) `e un sottospazio vettoriale di Rn . Per
ogni T > 0 e per ogni x0 6= 0, linsieme R(T, x0 ) `e una sottovariet`
a lineare di Rn .
Dimostrazione Per ogni fissato T > 0, linsieme R(T, 0) coincide con limmagine delloperatore e ci`o
prova che `e un sottospazio vettoriale di Rn . La seconda affermazione segue dallosservazione che R(T, x0 ) si
ottiene traslando R(T, 0) mediante il vettore v = eT A x0 .

In base a queste conclusioni, `e naturale assumere come misura della grandezza dellinsieme
R(T, x0 ) la sua dimensione, in quanto sottovariet`
a lineare di Rn .
Corollario 7.3 Il sistema (7.1) `e globalmente raggiungibile al tempo T se e solo se R(T, 0) = Rn ,
cio`e se e solo se la dimensione di R(T, 0) `e massima.

7.1.2

Linearit`
a delloperatore ingresso-uscita

Sulla base dei risultati precedenti, siamo a questo punto in grado di dimostrare la Proposizione
1.10. Dalla (7.3), per ogni ingresso ammissibile u(t) : [0, +) Rm e ogni stato iniziale x0 , si
deduce una rappresentazione per la funzione di uscita del sistema (7.1)
tA

y(t, x0 , u()) = Cx(t, x0 , u()) = Ce (x0 +

Z t
0

e A Bu( ) d ) .

(7.9)

Ovviamente, y(0, x0 , u()) = Cx0 e


y(t, x0 , u()) = y(t, x0 , 0) + y(t, 0, u()) .

(7.10)

Dimostrazione della Proposizione 1.10 Per il Teorema 7.1, lapplicazione che associa ad ogni u()
T, Rm ) la funzione x(t, 0, u()) `e lineare. Quindi anche lapplicazione che associa ad u() la funzione
C(0,
y(t, 0, u()) = Cx(t, 0, u()) `e lineare. Daltra parte pure lapplicazione che associa x0 alla funzione y(t, x0 , 0) =
CetA x0 `e lineare. Per concludere, basta tener presente la (7.10) e osservare che se f1 : V1 W , f2 : V2 W
sono applicazioni lineari, allora f1 + f2 : V1 V2 W `e unapplicazione lineare.

7.1.3

Soluzione del problema della raggiungibilit`


a

Il seguente teorema fornisce una prima condizione necessaria e sufficiente per la raggiungibilit`a
globale di un sistema lineare senza vincoli sui controlli.
Teorema 7.2 Il sistema (7.1) `e globalmente raggiungibile al tempo T > 0 se e solo se la matrice
(T ) =
`e non singolare.

Z T
0

e A BB t e A d

75
Dimostrazione Prima facciamo vedere che se (T ) `e non singolare, allora per ogni coppia di stati x0 , z0 Rn
esiste un controllo u(t) per cui vale la (7.6). Si ponga
t

u( ) = B t e A 1 (T )[x0 eT A z0 ]

(7.11)

e si calcoli
Z
eT A x0

+
0

e(T )A Bu( ) d =
"Z
T

= eT A x0 eT A

#
t

e A BB t e A d 1 (T )[x0 eT A z0 ] =

(7.12)

= eT A x0 eT A (T )1 (T )[x0 eT A z0 ] = eT A x0 eT A x0 + z0 .

In definitiva,
Z
TA

e(T )A Bu( ) d = z0 .

x0 +
0

` chiaro che (T ) `e simmetrica, e che la forma


Per quanto riguarda il viceversa, serve qualche premessa. E
quadratica
Z

(T ) =

||B t e A ||2 d

(7.13)

`e, in generale, semidefinita positiva. Supponiamo ora che (T ) sia singolare: esister`a allora un punto x0 Rn
(x0 6= 0) tale che xt0 (T )x0 = 0.
t
Tenendo conto di (7.13), si dovrebbe avere B t e A x0 = 0 identicamente per ogni s [0, T ]. Lipotesi
di raggiungibilit`a globale implica che partendo da x0 si possa raggiungere lorigine al tempo T : ovvero,
Z
e

TA

x0 =

e(T )A Bu( ) d

(7.14)

per qualche ingresso ammissibile u(t). Dalla (7.14) segue


Z

x0 =

e A Bu( ) d

e quindi
Z
||x0 ||2 = xt0 x0 = xt0

T
0

e A Bu( ) d =

ut ( )B t e A x0 d = 0

mentre x0 era stato scelto diverso da zero. Lasserto `e cos` provato per assurdo.

Osservazione 7.1 La (7.11) fornisce una risposta (teorica) al problema di determinare il controllo
che permette di trasferire il sistema dallo stato x0 allo stato z0 .

76

7.1.4

Matrice di controllabilit`
a

Il criterio offerto dal Teorema 7.2 ci sar`a utile nei successivi sviluppi teorici, ma `e chiaramente di
scarsa utilit`a pratica. Il criterio che andiamo a dimostrare in questa sezione costituisce, da questo
punto di vista, un risultato migliore, perch`e pu`o essere verificato eseguendo semplici calcoli algebrici
a partire dalle matrici A e B che definiscono il sistema.
Teorema 7.3 Per il sistema (7.1) linsieme R(T, 0) `e indipendente da T . Si ha infatti, per ogni
T > 0,
n

R(T, 0) = span b1 , . . . , bm ; Ab1 , . . . , Abm ; . . . ; An1 b1 , . . . An1 bm

(7.15)

dove b1 , . . . , bm sono le colonne di B.


Dimostrazione Poiche entrambi i membri della (7.15) sono sottospazi di Rn , `e sufficiente far vedere che i
rispettivi spazi ortogonali coincidono. Sia 6= 0 un vettore ortogonale a R(T, 0). Sia cio`e, per ogni controllo
ammissibile,
Z

0 = h,

Z
e(T )A Bu( ) d i =

Z
h, e(T )A Bu( )i d =

h, eA Bu(T )i d .

(7.16)

Tenendo conto della (7.16), dimostriamo che


h, eA Bui = 0

(0, T )

u Rm .

(7.17)

Infatti, in caso contrario, esisterebbero (0, T ) e u


Rm tali che h, e B u
i =
6 0 (per fissare le idee,

diciamo h, eA B u
i > 0). Per il principio della permanenza del segno, esisterebbe allora un > 0 tale che
( , + ) (0, T ) e la funzione
7 h, eA B u
i
potremmo dunque definire
si manterrebbe positiva per < < + . Posto = T ,
n
u
per < < +
u( ) =
0 altrimenti .
Allora,

per < < +


u(T ) = u
0 altrimenti .

(7.18)

(7.19)

Dunque,
Z

T
0

Z
h, eA Bu(T )i d =

h, eA B u
i d > 0

in contraddizione con la (7.16). Dunque la (7.17) `e vera. Passando al limite per 0+ , si ottiene
h, Bui = 0
u Rm .


1
0
0
...
1
m


Scegliendo successivamente u =
... , . . . , u = 0 , questultima mostra che `e ortogonale a b , . . . b .
0
1
Inoltre, derivando la (7.17) rispetto a , si ha

77

h, eA ABui = 0

(0, T )

u Rm

da cui, per 0+ , segue


h, ABui = 0 .
Ragionando come prima, si vede allora che `e ortogonale ai vettori Ab1 , . . . , Abm . Non resta adesso che
iterare il procedimento, finche non si giunge alla conclusione.
Viceversa, sia ortogonale a
b1 , . . . , bm , Ab1 , . . . , Abm , . . . , An1 b1 , . . . , An1 bm .
Per ogni u Rm , risulta allora
h, Bui = . . . = h, An1 Bui = 0 .
Inoltre,
h, eA Bui = h,

n1
X
i=0

n1

X
X i
X
i Ai
i Ai
i
Bui + h,
Bui =
h, Ai Bui +
h, Ai Bui .
i!
i!
i!
i!
i=n
i=0
i=n

I termini della prima sommatoria sono tutti nulli, ma anche quelli della seconda lo sono in quanto, per il
Teorema di Cayley-Hamilton, per ogni i n, il vettore Ai Bu `e combinazione lineare degli Ai Bu con i < n.
In conclusione, h, eA Bui = 0, [0, T ] e u Rm . Ma allora anche
Z

h,

e(T )A Bu( )d i = 0

qualunque sia u C([0,


T ], Rm ) e il teorema `e provato.

Definizione 7.3 Si dice che il sistema (7.1) `e completamente controllabile quando


rank [B|AB| . . . |An1 B] = n

(7.20)

dove [B|AB| . . . |An1 B] indica la matrice con n righe e n m colonne che si ottiene scrivendo una
accanto allaltra, nellordine, le colonne delle matrici B, AB, ... , An1 B.
La matrice [B|AB| . . . |An1 B] prende anche il nome di matrice di controllabilit`
a o matrice di
Kalman del sistema (7.1). Il seguente Corollario `e conseguenza immediata del Teorema 7.3.
Corollario 7.4 Il sistema (7.1) `e completamente controllabile se e solo se `e globalmente raggiungibile per qualche (e quindi per ogni) T > 0.
Osservazione 7.2 Affermare che certi vettori v1 , . . . , vn di Rn sono linearmente indipendenti equivale ad affermare che det [v1 | . . . |vn ] 6= 0. Poiche il determinate dipende in maniera continua dai
coefficienti, se si sostituisce v1 , . . . , vn con altri vettori v1 , . . . , vn tali che vk sia sufficientemene
vicino a vk (k = 1, . . . , n), allora anche i vettori v1 , . . . , vn sono linearmente indipendenti.
Da questa osservazione, segue facilmente che se il sistema (7.1) `e completamente controllabile
B
sono matrici tali che A sia sufficientemente vicina ad A e B
sia sufficientemente vicina
e se A,
B
`e completamente controllabile.
ad B, allora anche il sistema definito dalle matrici A,

78
Si pu`o anche dimostrare che se il sistema (7.1) non `e completamente controllabile, allora esiste
B
arbitrariamente vicine ad A, B e tali che il sistema definito da A,
B
`e
una coppia di matrici A,
completamente controllabile.
In altre parole, possiamo affermare che genericamente i sistemi del tipo (7.1) sono completamente controllabili, nel senso che:
1. perturbazioni arbitrarie ma piccole dei coefficienti non fanno perdere la propriet`a di completa
controllabilit`a;
2. la propriet`a di completa controllabilit`a pu`o essere acquisita mendiante perturbazioni piccole
ma opportune dei coefficienti.

Osservazione 7.3 Se il sistema (7.1) `e a ingresso scalare, cio`e se m = 1, la matrice B si riduce


a un vettore colonna b e la matrice di controllabilit`
a diventa quadrata. Per verificare la condizione
di controllabilit`a completa, `e quindi sufficiente calcolarne il determinante. Inoltre, il sistema sar`a
completamente controllabile se e solo se b `e ciclico per A.
Si consideri in particolare lequazione differenziale lineare non omogenea di ordine n
y (n) + a1 y (n1) + . . . + an1 y 0 + an y = u(t) .

(7.21)

Interpretando u come ingresso e y come uscita, questa equazione definisce un sistema SISO che pu`o
equivalentemente essere riscritto come un sistema (7.1) con A in forma compagna,

..
.
b=
0

1
e C ridotta alla riga (1 0 . . . 0). La variabile di stato di questo sistema coincide col vettore x =
(y, y 0 , . . . , y (n1) ).
Si verifica facilmente che il sistema definito dalla (7.21) `e completamente controllabile, qualunque siano i coefficienti a1 , . . . , an .

7.1.5

Il criterio di Hautus

Soffermiamoci ancora sulla questione della completa controllabilit`


a del sistema (7.1) per presentare
un criterio alternativo a quello fornito dal Corollario 7.4.
Teorema 7.4 (criterio di Hautus) Il sistema (7.1) `e completamente controllabile se e solo se
C ,

rank [A I|B] = n .

(7.22)

Prima di procedere alla dimostrazione, osserviamo che la (7.22) `e certamente verificata se non
`e un autovalore di A. Ricordiamo inoltre che un sottospazio V di Rn si dice invariante per A se
AV V .

79
Lemma 7.1 Se V `e un sottospazio invariante per A, allora esiste un autovettore v 6= 0 di A
contenuto in V .
Dimostrazione Sia q = dim V e sia v1 , . . . , vn una base di Rn , tale che i suoi primi q vettori v1 , . . . , vq
costituiscano una base di V . Con riferimento a questa base, la matrice A deve assumere la forma

A11 A12
0
A22
in forza dellipotesi di invarianza. Loperatore da V in V definito dalla matrice A11 avr`a un autovettore della
forma 1 v1 + . . . + k vk = w V corrispondente a qualche autovalore . Non `e difficile verificare che w `e
anche un autovettore di A corrispondente a .
Dimostrazione del Teorema 7.4 Dimostriamo ora che la (7.20) implica la (7.22). Supponiamo, per assurdo, che per qualche C, le righe della matrice [A I|B] (che sono in numero di n) possano essere
linearmente dipendenti. Esisterebbe un vettore Cn ( 6= 0) tale che
t A = t

t B = 0 .

In particolare, la funzione
(t) = et t B = (et )t B = t B + t t B +

2 t2 t
B + ...
2

sarebbe identicamente nulla. Si avrebbe cio`e


(0) = 0 (0) = 00 (0) = . . . = 0 .
Applicando il teorema di derivazione per serie e tenendo conto che
t A = t = t A2 = t A = 2 t

ecc.

si ottiene, in definitiva,
t B = t AB = t A2 B = . . . = 0 .
Ci`o implica che le n righe della matrice [B|AB| . . . |An1 B] sono linearmente dipendenti, e dunque il suo
rango non `e uguale ad n.
Facciamo infine vedere che la (7.22) implica la (7.20). Per il Teorema di Cayley-Hamilton, se la (7.20)
non valesse, allora le righe di tutte le matrici della forma Aj B (j = 0, 1, . . .) apparterrebbero ad uno stesso
sottospazio proprio di Cn . Esisterebbe cio`e un vettore v 6= 0 tale che
v t B = v t AB = v t A2 B = . . . = 0 .

(7.23)

Posto w = A v, si ha
wt B = (At v)t B = v t AB = 0 ,

wt AB = (At v)t AB = v t A2 B = 0 ,

ecc.

Indicato con V il sottospazio di C costituito da tutti i vettori v per cui vale la (7.23), abbiamo cos`
provato che se v V , anche w = At v V , e cio`e che V `e invariante rispetto alloperatore lineare associato
alla matrice At . Per il Lemma 7.1, deve allora esistere un vettore non nullo V ed un numero complesso
C tale che
At =

ovvero

t A = t .

Per la definizione di V , si ha in particolare che t B = 0. In conclusione, le righe di [A I|B] sono


linearmente dipendenti e la (7.22) non vale.

80

7.2

Osservabilit`
a

Lo studio delle propriet`a di osservabilit`a interessa i sistemi dinamici, nella cui modellizzazione si
vuole distinguere tra variabili di stato e variabili di uscita. Il ruolo della funzione di osservazione
diventa cruciale, e si pongono nuovi problemi.
Definizione 7.4 Due punti x
, z Rn si dicono indistinguibili al tempo T se per ogni ingresso
ammissibile u() : [0, T ] U si ha
y(t, x
, u()) = y(t, z, u())

t [0, T ] .

La precedente definizione si interpreta nel modo seguente: che lo stato iniziale sia x o z, la
risposta del sistema `e sempre la stessa, qualunque sia la sollecitazione u() applicata in ingresso. In
altre parole, non `e possibile ricostruire lo stato iniziale sulla base di esperimenti che si limitino a
registrare luscita in corrispondenza di un ingresso arbitrario.
Esempio 7.1 Si consideri il sistema

x 1 = x1 + u
x 2 = x2

con y = x1 x2 . In corrispondenza di una condizione iniziale del tipo (a, a) si ha


x1 = et (a +
R

Z t
0

es u(s)ds) ,

x2 = aet .

Dunque y(t) = et 0t es u(s)ds `e indipendente da a. Ne segue che la retta x1 = x2 `e tutta fatta


di punti indistinguibili.

7.2.1

Lo spazio di non osservabilit`


a

Ci interessano in maniera particolare i processi lineari che sono privi di stati indistinguibili. Osserviamo prima di tutto che nella Definizione 7.4 la funzione di ingresso gioca un ruolo del tutto
marginale.
Proposizione 7.3 Due punti x
e z sono indistinguibili per il sistema (7.1) se e solo sono indistinguibili per il sistema

x = Ax
y = Cx .

(7.24)

Dimostrazione Se x
e z sono indistinguibili al tempo T per il sistema (7.1), allora, per ogni u()
T, Rm ) e ogni t [0, T ] si ha
C(0,
y(t, x
, u()) = y(t, z, u())
cio`e
Z
C[etA (
x+
0

Z
e A Bu( ) d )] = C[etA (
z+
0

e A Bu( ) d )] .

81
Semplificando, rimane lidentit`a
CetA x
= CetA z
per ogni t [0, T ]. Ci`o significa appunto che x
e z sono indistinguibili rispetto al sistema (7.24).
Il viceversa si prova eseguendo i passaggi al contrario.

Inoltre, per caratterizzare gli stati indistinguibili da un generico x Rn , `e sufficiente caratterizzare gli stati indistinguibili dallorigine.
Proposizione 7.4 Se x
, z sono indistinguibili al tempo T > 0, allora = x
z `e indistinguibile
dallorigine. Viceversa, se `e indistinguibile dallorigine al tempo T e se x `e un generico vettore
di Rn , allora x e x + sono tra loro indistinguibili.
Dimostrazione Grazie alla Proposizione 7.3, possiamo riferire la definizione di indistinguibilit`a al sistema
(7.24). Dire che x
e z sono indistinguibili al tempo T , significa allora che
CetA x
= CetA z
per ogni t [0, T ]. Questultima si pu`o riscrivere come
CetA (
zx
) = 0 = CetA 0
per ogni t [0, T ]. Lasserto segue ponendo = x
z.
Viceversa, se `e indistinguibile dallorigine (e quindi CetA = 0 per ogni t [0, T ]), qualunque sia
x Rn possiamo scrivere
CetA ( + x) = CetA + CetA x = CetA x
per ogni t [0, T ]. Ci`o significa che + x e x sono indistinguibili al tempo T per il sistema (7.24), e quindi
anche per il sistema (7.1).

Un primo passo verso la caratterizzazione degli stati indistinguibili dallorigine `e costituito dal
seguente teorema.
Teorema 7.5 Le seguenti affermazioni sono equivalenti:
(i) `e indistinguibile dallorigine al tempo T per il sistema (7.1);
(ii) ker CetA , t [0, T ];
(iii) luscita del sistema (7.1) relativa allingresso nullo u(t) 0 e allo stato iniziale `e nulla su
[0, T ].
Dimostrazione Lequivalenza tra (i) e (ii) segue subito dalla Proposizione 7.3. Lequivalenza tra (ii) e (iii)
`e immediata.

82

7.2.2

Matrice di osservabilit`
a

Dal Teorema 7.5(ii) si deduce che linsieme N(T, 0) degli stati indistinguibili dallorigine al tempo
T coincide con lintersezione
t[0,T ] ker CetA .
Ma t[0,T ] ker CetA `e un sottospazio di Rn . Dunque N(T, 0) `e un sottospazio di Rn , al quale si
d`a anche il nome di spazio di non-osservabilit`
a. Consideriamo ora le matrici
C t , At C t , . . . , (At )n1 C t
e interpretiamo le loro colonne come vettori di Rn . Sia V Rn lo spazio generato da tali vettori.
Teorema 7.6 Per il sistema (7.1), lo spazio di non-osservabilit`
a N(T, 0) `e indipendente da T . Si
ha infatti, per ogni T > 0, N(T, 0) = V .
` simile a quella del Teorema 7.3. Sia v N(T, 0). Allora, [0, T ] e Rp
Dimostrazione E
hCeA v, i = 0
ovvero
t

hv, eA C t i = 0 .
Per = 0, segue hv, C t i = 0 e, per larbitrariet`a di , v `e ortogonale a tutte le colonne di C t . Si
prosegue derivando rispetto a e calcolando le successive derivate sempre per = 0.
Viceversa, se v V , allora per ogni Rp
hv, C t i = . . . = hv, (At )n1 C t i = 0
t

e da queste segue hv, eA C t i = 0 per ogni usando, come nel Teorema 7.3, lo sviluppo in serie dellesponenziale e il Teorema di Cayley-Hamilton. Infine,
hCeA v, i = 0

il che implica necessariamente CeA v = 0, .

La matrice [C t |At C t | . . . |(At )n1 C t ] si dice la matrice di osservabilit`


a del sistema (7.1). Da
questo momento in poi, visto che N(T, 0) non dipende da T , scriveremo semplicemente N.
Definizione 7.5 Un sistema si dice completamente osservabile se
rank [C t |At C t | . . . |(At )n1 C t ] = n .

(7.25)

Corollario 7.5 Il sistema (7.1) `e completamente osservabile se e solo se per ogni coppia di stati
indistinguibili x
, z si ha x
= z, ovvero se N = {0}.
Osservazione 7.4 Ne laffermazione (ii) del Teorema 7.5 ne la condizione (7.25) dipendono dalla
matrice B. Ci`o non `e sorprendente, se si tiene conto della Proposizione 7.3.

83
Osservazione 7.5 Si verifica facilmente che un sistema (7.1) definito per mezzo di unequazione
differenziale di ordine n,
y (n) + a1 y (n1) + . . . + an1 y 0 + an y = u(t)
nella quale u viene interpretato come ingresso e y come uscita `e completamente ossevabile, qualunque siano i coefficienti a1 , . . . , an .

7.2.3

Ricostruzione dello stato iniziale

Dire che il sistema (7.1) `e completamente osservabile equivale a dire che per ogni data funzione
di ingresso u(t) : [0, +) Rm , lapplicazione che associa un segnale di uscita y(t) ad uno stato
iniziale x(0) = x0 `e iniettiva, e quindi la conoscenza di y(t) su un intervallo [0, T ] (per qualche
T > 0) deve essere sufficiente per risalire a x0 . A tale scopo, si pu`o procedere nel modo seguente.
Supponiamo noti A, B, C, e y(t) per t [0, T ]. Ricordiamo che per ogni ingresso ammissibile
u(t)

tA

y(t) = C e x0 +

Z t
0

(ts)A

Bu(s) ds .

Moltiplicando ambo i membri per etA C t si ha


e

tAt

C y(t) = e

tAt

tAt

tA

C Ce x0 + e

C C

Z t
0

e(t )A Bu( ) d

e integrando tra 0 e T :
E(T )x0 =
avendo posto E(T ) =

Z T

tAt

Z T

C y(t) dt

0
R T tAt t tA
C Ce dt.
0 e

tAt

C C

Z t
0

(t )A

Bu( ) d

dt ,

(7.26)

Teorema 7.7 Le seguenti propriet`


a sono equivalenti:
(i) il sistema (7.1) `e completamente osservabile;
(ii) la matrice E(T ) `e definita positiva per ogni T > 0, quindi invertibile.
Dimostrazione Un semplice calcolo mostra che
Z
t

E(T ) =

||CetA ||2 dt 0 .

Lintegrale a secondo membro `e zero se e solo se lintegrando `e identicamente nullo, cio`e se e solo se
ker CetA per ogni t [0, T ]. Se il sistema `e completamente osservabile, lunica possibilit`a `e = 0. Il
viceversa si prova facilmente per assurdo.

Dunque, se (7.1) `e completamente osservabile, dalla (7.26) si pu`o ricavare x0 invertendo la


matrice E(T ).
Sottolineiamo ancora che in questo procedimento la scelta dellingresso `e del tutto arbitraria:
se non ci sono ragioni per fare diversamente, si pu`o prendere u(t) 0.
Questo approccio fornisce esattamente x0 ; tuttavia, la necessit`a di calcolare una matrice esponenziale e alcuni integrali pu`o rendere la procedura difficilmente applicabile.

84

7.2.4

Dualit`
a

Tra la teoria della controllabilit`a e la teoria dellosservabilit`


a vi sono evidenti analogie. Si noti che
la matrice di osservabilit`a del sistema (7.1) coincide con la matrice di controllabilit`
a del sistema

x = At x + C t u
y = Btx

(7.27)

con u Rp e y Rm , in cui le matrici B e C hanno, per cos` dire, scambiato i loro ruoli. Cos`
(7.1) `e completamente controllabile se e solo se (7.27) `e completamente osservabile e viceversa. Il
sistema (7.27) si dice anche il duale del sistema (7.1). Le propriet`a di completa controllabilit`
a e di
completa osservabilit`a si dicono anche propriet`a duali.
Si noti anche lanalogia tra il Teorema 7.2 e il Teorema 7.7.

7.3

Scomposizioni canoniche

Nello studio dei sistemi, gioca un ruolo importante la ricerca di forme canoniche, cio`e di rappresentazioni che consentono una visualizzazione immediata delle principali propriet`a strutturali. Ci`o
implica la ricerca di opportuni sistemi di coordinate per il sistema (7.1).

7.3.1

Equivalenza lineare

I sistemi

x = Ax + Bu
y = Cx

+ Bu

z = Az

y = Cz

si dicono linearmente equivalenti se esiste un cambiamento di coordinate x = P z (det P 6= 0) tale


= P 1 B, e C = CP . Si generalizza cos` una nozione gi`a introdotta per i sistemi
che A = P 1 AP , B
dinamici senza ingressi, e che ci sar`a di aiuto negli sviluppi successivi.
Osserviamo che una trasformazione del tipo indicato non altera le propriet`a di controllabilit`
a
del sistema. Si ha infatti:
AB|
. . . |An1 B]
= [P 1 B|P 1 AB| . . . |P 1 An1 B] = P 1 [B|AB| . . . |An1 B] .
[B|
Cosicche la matrice di controllabilit`a del sistema dato e quella di un qualunque altro sistema
linearmente equivalente hanno lo stesso rango. Inoltre gli spazi generati dalle colonne di tali matrici
(cio`e gli spazi raggiungibili dei due sistemi) si trasformano coerentemente col cambiamento di
coordinate.
Considerazioni simili possono essere ripetute a proposito della propriet`a di osservabilit`
a.

7.3.2

Invarianza controllata

Prima di procedere alla determinazione della prima importante forma canonica, ci serve ancora
una definizione. Un sottospazio W Rn si dice un invariante controllato per il sistema (7.1) se
x0 W e per ogni ingresso ammissibile si ha:
x(t, x0 , u()) W

t > 0 .

85
Lo spazio R(T, 0) (che da questo momento in poi indicheremo semplicemente con R) `e un
esempio di spazio invariante controllato. Infatti, supponiamo che esista, per assurdo, un punto
x0 R e un ingresso u() : [0, T ] Rm tale che x(T, x0 , u()) = x1 6 R. Se u0 () : [0, t0 ] Rm `e
un ingresso per cui x(t0 , 0, u0 ()) = x0 (ed almeno uno di tali ingressi esiste per ipotesi) si potrebbe
allora porre

u
( ) =

u0 ( )
u( t0 )

per
per

0 < t0
t0 t0 + T .

` chiaro che x(t0 + T, 0, u


E
()) = x1 e ci`o `e assurdo.
Lemma 7.2 Sia W Rn un sottospazio invariante controllato per il sistema (7.1) e sia
x(t, x0 , u())
una generica traiettoria con x0 W . Allora il vettore tangente alla curva t 7 x(t, x0 , u()) per
t = 0 deve appartenere anchesso a W .
Dimostrazione Il vettore tangente si calcola come
x(t, x0 , u()) x0
.
t0
t
Essendo W un sottospazio, lespressione di cui si deve calcolare il limite sta in W per ogni t. Dunque
anche il limite deve stare in W , poiche i sottospazi di W sono particolari insiemi chiusi.
lim

7.3.3

Parte controllabile

Teorema 7.8 Esiste un cambiamento di coordinate x = P z ed un intero q (0 q n) tale che


nelle nuove coordinate z il sistema (7.1) prende la forma

z1 =
z2 =

A11 z1 +

A12 z2 +
A22 z2

B1 u

(7.28)

dove z = (z1 , z2 ) con z1 Rq , z2 Rnq , e dove A11 , A12 , A22 , e B1 sono matrici delle dimensioni
opportune. Inoltre, il sistema
z1 = A11 z1 + B1 u

(7.29)

con variabile di stato z1 Rq , risulta completamente controllabile.


Dimostrazione Sia q = dim R. I casi estremi q = 0 e q = n corrispondono rispettivamente ai casi in cui
(7.1) `e completamente incontrollabile (B = 0) e in cui (7.1) `e completamente controllabile.
Consideriamo in generale una base dello spazio degli stati tale che i primi q vettori siano anche una base
di R. Siano z le nuove coordinate, partizionate come indicato nellenunciato, in modo che R = {z : z2 = 0}.
Nelle nuove coordinate possiamo rappresentare il sistema come

z1 = A11 z1 + A12 z2 + B1 u
z2 = A21 z1 + A22 z2 + B2 u .
A questo punto ricordiamo che R `e un invariante controllato e che tale propriet`a `e ovviamente intrinseca.

86
Se fosse allora A21 6= 0 la traiettoria uscente da uno stato (z1 , 0) R con z1 6= 0, A21 z1 6= 0 e
corrispondente allingresso u() = 0 avrebbe per t = 0 vettore tangente

A11 z1
A21 z1

6 R

e ci`o `e assurdo per il Lemma 7.2. Dunque A21 = 0. In maniera del tutto analoga si mostra poi che B2 = 0.
In pratica, la matrice P che determina il cambiamento di coordinate si pu`o rappresentare nella forma
P = [v1 . . . vq vq+1 . . . vn ]
dove v1 , . . . , vq siano stati scelti in modo da formare una base di R, e vq+1 . . . vn in modo da formare, assieme
a v1 , . . . , vq , una base di Rn . Si noti che nella scelta di questi vettori vi `e un largo margine di arbitrariet`a.
Non `e restrittivo (e in vista di certi possibili sviluppi, potrebbe addirittura essere consigliabile) effettuare la
scelta in modo che i vettori v1 , . . . , vn risultino a due a due ortogonali.
Resta ancora da dimostrare che (7.29) `e completamente controllabile. Dato un qualunque z1 Rq ,
per costruzione deve esistere un ingresso u(t) in corrispondenza del quale la soluzione del sistema (7.28)
trasferisce lorigine di Rn nello stato (z1 , 0) R. Ovviamente, lo stesso ingresso applicato al sistema (7.29)
trasferisce lorigine di Rq in z1 . Dunque (7.29) `e completamente controllabile.

u -

- z1

z2
6
2

- z2

La (7.29) si ottiene dalla (7.28) ponendo z2 = 0. Essa si configura dunque come un sottosistema,
cui si d`a talvolta il nome di parte controllabile del sistema (indicata nella figura con 1 ).
Si noti che levoluzione della componente z2 dello stato, in (7.28), `e del tutto indipendente
dallazione dellingresso. Si dice anche che essa rappresenta la parte incontrollabile del sistema
(indicata nella figura con 2 ).
La forma (7.28) ha dunque il vantaggio di evidenziare la parte controllabile del sistema, separandola da quella incontrollabile.

7.3.4

Parte osservabile

Analogamente a quanto abbiamo fatto in precedenza con riferimento alla controllabilit`


a, tra tutti
i sistemi linearmente equivalenti a (7.1) possiamo identificarne alcuni, la cui forma permette di
visualizzare in maniera semplice le propriet`a di osservabilit`
a. Pi`
u precisamente, si pu`o provare che
esiste un intero r (0 r n) e una matrice non singolare P tali che il cambiamento di coordinate
z = P x d`a luogo alla forma

z1 = A11 z1 + A12 z2 + B1 u

z =
2

A22 z2 + B2 u

y = C2 z2

dove z = (z1 , z2 ), z1 Rr , z2 Rnr , e il sottosistema

87

z2 = A22 z2 + B2 u
y = C2 z2

(7.30)

che si ottiene ignorando la variabile z1 `e completamente osservabile. Questa volta per`o la scelta
della matrice P che determina il cambiamento di coordinate richiede un po pi`
u di attenzione. Si
comincia col costruire la matrice di osservabilit`
a e se ne calcola il rango, che poniamo uguale a
n r. Si estraggono quindi dalla matrice di osservabilit`
a n r colonne linearmente indipendenti,
che indichiamo vq+1 , . . . , vn . Si prendono infine altri r vettori v1 , . . . , vr linearmente indipendenti
tra loro e ortogonali al sottospazio di Rn generato da vq+1 , . . . , vn . In base al Teorema 7.6, i vettori
v1 . . . vr costituiscono una base dello spazio di non-osservabilit`
a N. La matrice P si pu`o prendere
nella forma
P = [v1 . . . vr vr+1 . . . vn ] .
Se lo si desidera, `e possibile modificare la costruzione, in modo da far s` che le colonne di P
risultino ortogonali a due a due.
I due sottosistemi (7.30) e
z1 = A11 z1 + B1 u

(7.31)

si dicono rispettivamente parte osservabile (indicata in figura con 2 ) e parte inosservabile (indicata
in figura con 1 ) del sistema.
u -

1
z2
6

u -

7.3.5

z2 -

y
-

Scomposizione di Kalman

Le scomposizioni ottenute nelle sezioni precedenti, quella per la controllabilit`


a e quella per losservabilit`a, si possono combinare. Si ottiene la forma

z1 = A11 z1 + A12 z2 + A13 z3 + A14 z4 + B1 u

z
A22 z2
+ A24 z4 + B2 u
2 =

z =

4=

A33 z3 + A34 z4
A44 z4

(7.32)

y = C2 z2 + C4 z4 .

La speciale struttura esibita dal sistema (7.32) corrisponde alle connessioni visualizzate nella
figura seguente, dove i sottosistemi 1 , 2 , 3 , 4 sono quelli che determinano levoluzione dei
blocchi di coordinate z1 , z2 , z3 , z4 , rispettivamente.

88

3
z3
?
-

1
z2
6

-d
-

z4

z4
z4

z4 -

z2 -

C4
?
d
6

C2

Si osserva in particolare che:


il blocco delle coordinate (z1 , z2 ) identifica la parte completamente controllabile;
il blocco delle coordinate (z2 , z4 ) identifica la parte completamente osservabile;
il blocco delle coordinate z2 identifica la parte completamente controllabile e completamente
osservabile;
il blocco delle coordinate z3 identifica la parte non controllabile e non osservabile;
Di queste osservazioni, lunica che richiede una dimostrazione `e la terza. In virt`
u della forma
triangolare della matrice, `e facile rendersi conto che la matrice di controllabilit`
a relativa al blocco
di coordinate z2 si ricava prendendo opportune sottomatrici della matrice di controllabilit`
a relativa
al blocco di coordinate (z1 , z2 ). Questultima matrice ha rango massimo, in quanto il blocco di
coordinate (z1 , z2 ) identifica la parte controllabile dellintero sistema. Un semplice ragionamento
mostra infine che tale rango non potrebbe essere massimo, se non lo fosse il rango della matrice di
controllabilit`a relativa al blocco di coordinate z2 . Analogamente si prova la completa osservabilit`
a.

Capitolo 8

Stabilit`
a interna e stabilit`
a esterna
dei sistemi lineari
Le nozioni classiche di stabilit`a e stabilit`a asintotica non sono sufficienti a descrivere il comportamento di un sistema con ingressi. Si consideri per esempio un sistema che, in assenza di sollecitazioni,
presenta una posizione dequilibrio stabile. Tale posizione non sar`a certamente mantenuta quando si
applicano delle forze esterne. Tuttavia, `e ragionevole aspettarsi che lo scarto della funzione duscita
rispetto alla posizione dequilibrio sia in qualche modo legato allampiezza del segnale in ingresso, e
che si mantenga piccolo se lampiezza del segnale in ingresso `e piccola. Come abbiamo visto nel
Capitolo 1, quando si riscontra questo tipo di comportamento si dice che il sistema `e esternamente
stabile.
Lidea di stabilit`a esterna si ispira al comportamento dei sistemi definiti da equazioni scalari di
ordine n che, come abbiamo visto nel Capitolo 5, ammettono soluzioni periodiche (quindi limitate)
quando il termine forzante `e periodico. Daltra parte, `e possibile che un sistema con un termine
forzante limitato ammetta soluzioni non limitate (un esempio `e dato dallequazione scalare x = 1).
Possiamo sintetizzare il contenuto di questo capitolo come lo studio delle relazioni che intercorrono tra la stabilit`a interna e la stabilit`a esterna di un sistema lineare del tipo

x = Ax + Bu
y = Cx

(8.1)

dove, con le solite notazioni, x Rn , u Rm , y Rp . A questo proposito, ricordiamo che il


sistema (8.1) si dice internamente stabile quando il sistema non forzato associato
x = Ax .

(8.2)

ha nellorigine una posizione dequilibrio asintoticamente stabile. Per questo genere di analisi, `e uso
assumere rispettivamente come spazio delle funzioni in ingresso e come spazio delle funzioni in uscita
gli spazi PCB([0, +), Rm ) e CB([0, +), Rp ), dotati della norma della convergenza uniforme.
Inoltre, come in precedenza, indicheremo con x(t, x0 , u()) e con y(t, x0 , u()) rispettivamente la
soluzione della parte differenziale e luscita del sistema (8.1), corrispondenti allo stato iniziale x0
(al tempo t0 = 0) e allingresso u(), valutate al tempo t.
89

90

8.1

Stabilit`
a esterna

Prima di tutto, ricordiamo, per comodit`a del lettore, la definizione di stabilit`a BIBO (Definizione
1.3 del Capitolo 1).
Definizione 8.1 Diremo che il sistema (8.1) `e BIBO-stabile se per ogni R > 0 esiste un S > 0
tale che
kx0 k R , ku()k R = ky(t, x0 , u())k S

(8.3)

per ogni t 0, ogni x0 Rn e ogni ingresso u() CB(0, +, Rm ).


Dalla (8.3) si evince in particolare che y(, x0 , u()) CB(0, +, Rp ), e che ||y(, x0 , u())|| S.
Se C = I (matrice identica) la (8.3) vale con x(t, x0 , u()) al posto di y(t, x0 , u()); in tal caso si
dice, pi`
u propriamente, che il sistema `e BIBS-stabile (dallinglese Bounded-Input Bounded-State).
Consideriamo unaltra possibile definizione di stabilit`a esterna per il sistema (8.1).
Definizione 8.2 Si dice che il sistema (8.1) ha la propriet`
a di stabilit`
a con guadagno finito se
esistono due costanti positive 1 e 2 tali che

per ogni t 0, ogni x0


pu`
o supporre 1 = 2 ).

Rn

ky(t, x0 , u())k 1 kx0 k + 2 ku()k

(8.4)

CB(0, +, Rm )

(senza perdita di generalit`


a, si

e ogni ingresso u()

A prima vista, la (8.4) appare pi`


u restrittiva della (8.3): in essa si richiede infatti che la norma
delluscita possa essere stimata secondo una regola di proporzionalit`a rispetto alla norma dellingresso e alla norma dello stato iniziale. Uno degli scopi di questo capitolo `e quello di dimostrare
che, nel caso dei sistemi lineari, le due Definizioni 8.1 e 8.2 si equivalgono.
Teorema 8.1 Il sistema (8.1) `e BIBO-stabile se e solo se `e stabile con guadagno finito.
Arriveremo a dimostrare il Teorema 8.1 attraverso vari passaggi. La parte sufficiente `e quasi
immediata.
Dimostrazione della parte sufficiente Dimostriamo che se il sistema (8.1) `e stabile con guadagno finito,
allora `e anche BIBO-stabile.
Assumendo la (8.4), e assegnato R > 0, basta prendere S = R(1 + 2 ).

Per dimostrare la parte necessaria, abbiamo invece bisogno di premettere alcuni lemmi.
Lemma 8.1 Se il sistema (8.1) `e BIBO-stabile, allora esiste un M > 0 tale che ||CetA || < M per
t 0.
Dimostrazione Per ipotesi, esiste una costante S1 tale che se ||x0 || 1 allora ||y(t, x0 , 0)|| S1 per ogni
t 0.
Indichiamo con ij (t) lelemento generico della matrice CetA e supponiamo per assurdo che esista una
coppia di indici i, j tali che ij (t) non sia limitata per t 0. Prendiamo come x0 il vettore j-esimo della base
canonica, cio`e il vettore ej le cui componenti sono tutte nulle, tranne la j-esima che `e uguale a 1. La i-esima
componente della funzione (t) = CetA ej `e uguale a ij (t) e si ha

91

|ij (t)| ||(t)|| .


La funzione (t) = CetA ej sarebbe quindi non limitata per t 0. Ma (t) coincide con y(t, ej , 0), e
||ej || = 1. Resterebbe cos` contraddetta lipotesi di stabilit`a BIBO. Dunque gli elementi della matrice CetA
sono tutti limitati, e da qui segue subito la tesi.

Lemma 8.2 Se il sistema (8.1) `e BIBO-stabile, allora esiste un L > 0 tale che
Z t

kW ( )k d < L

(8.5)

per ogni t 0, dove W ( ) = Ce A B `e una matrice con p righe e m colonne.


` chiaro che (8.5) vale se e solo se lintegrale improprio
Osservazione 8.1 E
Z
0

kW ( )k d

converge.

La dimostrazione del Lemma 8.5 `e analoga a quella della Proposizione 1.5 del Capitolo 1 (parte
necessaria). Infatti, se il sistema (8.1) `e inizializzato a zero, in virt`
u della formula di Lagrange
loperatore ingresso-uscita prende la forma
y(t) =

Z t
0

Ce(t )A Bu( ) d .

Se conveniamo di restringere gli ingressi ammissibili alle funzioni che sono nulle per t < 0, il
sistema (8.1), inizializzato a zero, si comporta dunque come un sistema a risposta impulsiva, con
matrice della risposta impulsiva

h(t) =

W (t) se t 0
0
se t < 0 .

Osservazione 8.2 Il Lemma 8.2 si pu`o enunciare dicendo che nel caso dei sistemi lineari, la stabilit`a BIBO implica la limitatezza della risposta impulsiva. Tuttavia in generale, limitatezza della
risposta impulsiva e stabilit`a BIBO non sono equivalenti per il sistema (8.1). Per esempio, il sistema

x 1 = x1
x 2 = x2 + u

con C = I ha risposta impulsiva limitata, ma non `e BIBO-stabile.


In altre parole, la parte sufficiente della Proposizione 1.5 del Capitolo 1 non si estende ai sistemi
del tipo (8.1): la ragione sta nel fatto che il comportamento dei sistemi del tipo (8.1), al contrario
di quelli considerati nella Proposizione 1.5 del Capitolo 1, dipende anche dalle condizioni iniziali, e
non solo dagli ingressi.

92
Siamo adesso in grado di completare la dimostrazione del Teorema 8.1.
Dimostrazione della parte necessaria Dimostriamo che se il sistema (8.1) `e BIBO-stabile allora `e anche
stabile con guadagno finito.
Consideriamo prima luscita del sistema (8.1) corrispondente allo stato iniziale x0 = 0 e a un ingresso
ammissibile u(). Per il Lemma 8.2, posto L = 2 , si ha
Z

ky(t, 0, u())k

kW (t )u( )k d
kW (t )k ku()k d
0
0
Z t
ku()k
kW ()k d 2 ku()k
0

per ogni t 0. Consideriamo poi luscita del sistema (8.1) corrispondente a un qualunque stato iniziale x0
e allingresso u 0. Per il Lemma 8.1, posto M = 1 , si ha
||CetA || 1
per ogni t 0. Di qui segue
||y(t, x0 , 0)|| 1 ||x0 ||
n

per ogni x0 R e per ogni t 0. Ricordando che per un sistema lineare


y(t, x0 , u()) = y(t, x0 , 0) + y(t, 0, u())
si perviene facilmente alla conclusione.

Da questo momento in poi, dicendo che un sistema lineare `e esternamente stabile intenderemo
che vale una (e quindi anche laltra) delle propriet`a espresse dalle Definizioni 8.1 e 8.2.
A conclusione di questa sezione, facciamo vedere che la stabilit`a esterna `e invariante per
cambiamenti di coordinate lineari in Rn .
Proposizione 8.1 Sia

+ Bu

z = Az

y = Cz

(8.6)

un sistema linearmente equivalente a (8.1). Il sistema (8.6) `e BIBO-stabile se e solo se il sistema


(8.1) `e BIBO-stabile.
Dimostrazione Se i sistemi sono linearmente equivalenti, esiste una matrice P non singolare tale che
= P 1 B, C = CP . Supponiamo che (8.1) possieda la propriet`a di stabilit`a con guadagno
A = P 1 AP , B
finito. Per la formula della variazione delle costanti, luscita del sistema (8.6) si scrive
Z t
Z t


tA
(t )A
tA

y(t) = Ce z0 +
Ce
Bu( ) d = Ce P z0 +
Ce(t )A Bu( ) d .
0

Essa coincide quindi con la risposta del sistema (8.1) relativa allo stato iniziale P z0 e allo stesso ingresso.
Si ha
||y(t)|| 1 ||P z0 || + 2 ||u()|| 1 ||z0 || + 2 ||u()||
dove 1 = ||P ||1 . Per dimostrare limplicazione inversa, `e sufficiente scambiare i ruoli dei sistemi.

93

8.2

Stabilit`
a interna

Cominciamo col ricordare che lorigine `e asintoticamente stabile per il sistema non forzato (8.2) se
e solo se gli autovalori di A hanno tutti parte reale negativa. In tal caso, si usa anche dire che A ha
la propriet`
a di Hurwitz, o, pi`
u brevemente, che `e Hurwitz. Mostriamo che, in generale, la stabilit`a
interna implica quella esterna.
Teorema 8.2 Supponiamo che la matrice A sia Hurwitz. Allora, il sistema (8.1) `e BIBO-stabile.
Dimostrazione In virt`
u della Proposizione 5.2, per certe costanti k0 , , b si ha i
||x(t, x0 , u())|| k0 ||x0 ||et + b||u()||
per t 0. Se A `e Hurwitz, si pu`o prendere negativa, e quindi et < 1. Per concludere, basta poi osservare
che ||y|| ||C|| ||x||.

Purtroppo, linverso del Teorema 8.2 `e falso in generale.


Esempio 8.1 Il sistema

x 1 = 0
x 2 = x2 + u

(con funzione di uscita uguale allidentit`a) ha la propriet`a di stabilit`a con guadagno finito, ma non
`e internamente stabile.

Si pone allora il problema di trovare condizioni aggiuntive, sotto le quali il Teorema 8.2 possa
essere invertito, oppure di trovare una propriet`a pi`
u debole della stabilit`a asintotica del sistema non
forzato, che risulti necessaria e sufficiente per la stabilit`a BIBO del sistema (8.1). Risolveremo questo
problema per gradi, affrontando prima il caso in cui la matrice C sia lidentit`
a, e successivamente
il caso generale.

8.3

Il caso C = I

Se C = I, il sistema si presenta nella forma

x = Ax + Bu
y=x.

(8.7)

In tali condizioni, la stabilit`a BIBO si riduce alla stabilit`a BIBS e inoltre W (t) = etA B.
Proposizione 8.2 Se il sistema (8.7) `e BIBO-stabile, allora lorigine `e un punto dequilibrio stabile
(in generale, non asintoticamente) per il sistema non forzato (8.2).
Dimostrazione Evidentemente, la stabilit`a BIBO implica che il sistema non forzato (8.2) ha tutte le soluzioni limitate per t 0. Ci`o equivale a dire che lorigine `e un punto dequilibrio stabile (nel senso di
Liapunov) per il sistema non forzato (8.2).

94
Daltra parte, la stabilit`a semplice (non asintotica) del sistema non forzato non `e sufficiente per
la stabilit`a BIBO del sistema (8.7) (si pensi al sistema scalare x = u). Per caratterizzare la stabilit`a
esterna del sistema (8.7) in termini di stabilit`a interna, dobbiamo quindi identificare una propriet`a
che sia intermedia tra la stabilit`a semplice e la stabilit`a asintotica del sistema non forzato.
Lemma 8.3 Supponiamo che il sistema (8.7) sia BIBO-stabile, e sia u() : [0, +] Rm una
funzione continua a tratti. Se esiste un numero t > 0 tale che u(t) 0 per t t, allora
lim x(t, 0, u()) = 0 .

(8.8)

t+

Dimostrazione Sia u
una costante tale che ||u(t)|| u
per t [0, t]. Se t > t,
Z

x(t, 0, u()) =

W (t )u( ) d =
0

t
tt

W ()u(t ) d

da cui
Z
||x(t, 0, u())|| u

tt

||W ()|| d .

R
Poiche il sistema `e BIBO-stabile, lintegrale improprio 0 ||W ()|| d converge (Lemma 8.2). Lintegrale
nellultima formula scritta pu`o allora essere reso arbitrariamente piccolo per t sufficientemente grande.

Siamo adesso in grado di dimostrare un inverso parziale del Teorema 8.2 per i sistemi che si
presentano nella forma (8.7).
Proposizione 8.3 Supponiamo che il sistema (8.7) sia completamente controllabile. Se il sistema
`e anche BIBO-stabile, allora la matrice A `e Hurwitz.
` sufficiente far vedere che lorigine `e globalmente attrattiva per il sistema non forzato
Dimostrazione E
(8.2), e cio`e che per ogni x0 Rn , limt+ x(t, x0 , 0) = 0.
Poiche (8.7) `e completamente controllabile, fissato un istante T0 > 0 esiste un ingresso u0 : [0, T0 ) Rm
tale che x(T0 , 0, u0 ()) = x0 . Definiamo allora

u0 (t) se t [0, T0 ]
u(t) =
0
se t > T0 .
Per il Lemma 8.3, possiamo affermare che
lim x(t, 0, u()) = 0 .

t+

Poiche x(t, 0, u()) x(t, 0, u0 ()) per t [0, T0 ], si ha x(T0 , 0, u()) = x0 . Inoltre, per le propriet`a dei
sistemi invarianti nel tempo,
x(t, 0, u()) = x(t T0 , x0 , 0)

per t > T0 .

Da ci`o segue subito la conclusione.

Sotto lipotesi di completa controllabilit`


a, e se la matrice di osservazione `e uguale allidentit`
a,
la stabilit`a interna `e quindi necessaria e sufficiente per la stabilit`a esterna. Daltra parte, un sistema pu`o essere internamente stabile (e quindi esternamente stabile) anche se non `e controllabile

95
(si pensi ad un sistema definito dallequazione scalare x = x). Il prossimo passo consiste nella
determinazione di una condizione necessaria e sufficiente pi`
u precisa, sempre limitata ai sistemi del
tipo (8.7) ma svincolata dallipotesi di completa controllabilit`
a.
Ricordiamo che a meno di un cambiamento di coordinate lineare, si pu`o supporre che il sistema
(8.7) si presenti nella forma

z1 = A11 z1 + A12 z2 + B1 u
z2 =
A22 z2

(8.9)

dove z1 Rq e z2 Rnq (le notazioni sono quelle della Sezione 4.6.3) e la coppia di matrici A11 ,
B1 definiscono un sistema in Rq completamente controllabile.
Teorema 8.3 Il sistema (8.7) `e BIBO-stabile se e solo se valgono entrambe le condizioni seguenti:
(i) la matrice A11 della parte controllabile ha tutti gli autovalori con parte reale negativa;
(ii) la matrice A22 della parte non controllabile non ha autovalori con parte reale positiva e per
ogni suo eventuale autovalore con parte reale nulla, le molteplicit`
a algebrica e geometrica
coincidono.
Dimostrazione Se il sistema (8.9) `e BIBO-stabile, lo stesso deve essere vero per il sottosistema
z1 = A11 z1 + B1 u
che `e completamente
sono un sottoinsieme
Proviamo adesso
z Rn e un ingresso

(8.10)

controllabile. La (i) segue allora applicando la Proposizione 8.3. Gli autovalori di A22
dellinsieme degli autovalori di A. Allora, la (ii) segue subito dalla Proposizione 8.2.
il viceversa. Cominciamo col fissare un numero positivo R e consideriamo un punto
u(t) tali che

k
zk < R ,

ku()k < R .

z1 (t)
Indichiamo con z(t) =
la soluzione del sistema, scritto nella forma (8.9), corrispondente alla
z
2 (t)
z1
condizione iniziale z =
e allingresso u(t). Osserviamo che
z2
kz(t)k kz1 (t)k + kz2 (t)k
e
k
z1 k k
zk ,

k
z2 k k
zk

dove le norme sono prese, a seconda dei casi, in R , in Rq oppure in Rnq . Per lipotesi su A22 , esister`a una
costante > 0 tale che
kz2 (t)k k
z2 k < R .
Posto
v(t) = A12 z2 (t) + B1 u(t) ,
si ha allora
kv(t)k kA12 kR + kB1 kR .
= max{R, kA12 kR + kB1 kR}. Poiche A11 `e Hurwitz, il sottosistema
Sia R

96

z1 = A11 z1 + v
`e BIBO-stabile. Dunque esiste una costante S tale che se
,
kv(t)k < R

k
z1 k < R

(8.11)

Nel nostro caso, le (8.11) sono effettivamente verificate, in virt`


allora kz1 (t)k < S.
u delle scelte effettuate.
Dunque,
kz(t)k kz1 (t)k + kz2 (t)k S + R .
La (8.3) risulta infine verificata con S = S + R.

8.4

Il caso generale

Torniamo adesso al caso generale (8.1). Stabiliamo, prima di tutto, una versione generalizzata della
Proposizione 8.2.
Proposizione 8.4 Supponiamo che il sistema (8.1) sia completamente osservabile e che sia inoltre
BIBO-stabile. Allora lorigine `e un punto dequilibrio stabile (in generale, non asintoticamente) per
il sistema non forzato (8.2).
Dimostrazione Per lipotesi di stabilit`a esterna, qualunque sia R > 0 esiste S > 0 tale che se ||x0 || < R e
u 0 si ha
||CetA x0 || < S
per t 0. Supponiamo che A possieda un autovalore reale > 0, e sia v 6= 0 un autovettore di tale che
||v|| < R. Si avr`a
||CetA v|| = ||C(et v)|| = et ||Cv|| < S
per t 0, il che `e possibile solo se Cv = 0. Per le propriet`a dellesponenziale si ha inoltre
d
CetA v = CAetA v .
dt
Daltra parte, si ha anche
d
d
CetA v = et Cv = et Cv .
dt
dt
Da Cv = 0 segue dunque CAetA v = 0 per t 0, e in particolare, per t = 0, CAv = 0. Iterando il
procedimento fino al calcolo delle derivate (n 1)-esime, si arriva alla conclusione che

C
CA

v = 0 .
...
CAn1
Di qui segue che la matrice (C t |At C t | . . . |(At )n1 C t ) ha rango strettamente minore di n, il che `e
impossibile per la condizione di completa osservabilit`a.

97
Supponiamo che A abbia un autovalore = 0 di molteplicit`a geometrica strettamente inferiore alla
molteplicit`a algebrica. Esistono un autovettore v0 e un autovettore generalizzato v1 (entrambi non nulli) tali
che
etA v1 = tv0 + v1 .
Non `e restrittivo assumere ||v1 || < R, cos` che ||CetA v1 || < S per t 0. Ma
||CetA v1 || = ||tCv0 + Cv1 || t||Cv0 || ||Cv1 ||
e questa quantit`a pu`o essere limitata per t 0 solo se Cv0 =0. Ovviamente,
d tA
d
e v1 = (tv0 + v1 ) = v0
dt
dt
cio`e
d
CetA v1 = Cv0 = 0 .
dt
Daltra parte, si ha anche
d
CetA v1 = CAetA v1 = CA(tv0 + v1 ) .
dt
Questultima pu`o essere nulla solo se CAv0 = 0. A questo punto la dimostrazione procede come nel caso
precedente.
In maniera del tutto analoga, si pu`o escludere che A possieda autovalori complessi con parte reale positiva
o autovalori immaginari con molteplicit`a algebrica strettamente maggiore della moltrplicit`a geometrica.

Lemma 8.4 Supponiamo che il sistema (8.1) sia completamente osservabile e che sia inoltre
BIBO-stabile. Allora il sistema (8.7), dove le matrici A e B sono le stesse del sistema (8.1), `e
BIBO-stabile.
Dimostrazione In caso contrario, esisterebbe un R > 0 tale che per ogni S > 0 si potrebbero trovare uno
stato iniziale x0 , un ingresso ammissibile u() : [0, +] Rm , e un istante > 0 tali che
s
||x0 || < R , ||u()|| < R , ma ||x( )||

S
||E(1)||

dove E(t) `e la matrice definita nella Sezione 4.5.3. In virt`


u dellipotesi di completa osservabilit`a possiamo
essere certi che ||E(1)|| 6= 0 (Teorema 4.8). Torniamo adesso a considerare il sistema (8.1), per studiarne
luscita y(t) che corrisponde allo stesso stato iniziale x0 e allingresso ammissibile

u
(t) =

u(t) per t
0
per t > .

Naturalmente, ||
u()|| < R. Per t si ha
y(t) = Cx(t) = Ce(t )A x( ) .
Prendendo le norme, e integrando tra e + 1, si ha

98

+1

+1

||y(t)|| dt =

Z
||Ce(t )A x( )|| , dt =
Z

xt ( )

+1

xt ( )e(t )A C t Ce(t )A x( ) dt =

eA C t CeA dx( ) = xt ( )E(1)x( ) > 0 .

R +1
||y(t)|| dt max[, +1] ||y(t)|| = ||y(
|| per qualche . Mettendo insieme le due
Daltronde
conclusioni, si ricava
||y(
)|| ||E(1)|| ||x( )||2 > S .
Questo significherebbe che (8.1) non `e esternamente stabile, contrariamente allipotesi.

Grazie al lemma precedente, possiamo enunciare un inverso parziale del Teorema 8.2 per i
sistemi del tipo (8.1), generalizzando cos` la Proposizione 8.3.
Proposizione 8.5 Supponiamo che il sistema (8.1) sia completamente controllabile e completamente osservabile. Supponiamo inoltre che sia BIBO-stabile. Allora la matrice A `e Hurwitz.
Dimostrazione Per il Lemma 8.4, il sistema (8.7) `e esternamente stabile. Inoltre, se il sistema (8.1) `e completamente controllabile, anche il sistema (8.7) sar`a completamente controllabile. Si perviene alla conclusione
in virt`
u della Proposizione 8.3.

Pertanto, sotto le ipotesi di completa controllabilit`


a e completa osservabilit`
a, un sistema del
tipo (8.1) `e esternamente stabile se e solo se `e internamente stabile.
Osservazione 8.3 Un sistema definito da unequazione differenziale di ordine n
y (n) + a1 y (n1) + . . . + an1 y 0 + an y = u(t)

(8.12)

`e completamente controllabile e completamente osservabile. Quindi, per un sistema di questo tipo,


stabilit`a interna e stabilit`a esterna sono propriet`a equivalenti.

Con un ultimo sforzo, possiamo infine liberarci da ogni ipotesi restrittiva e formulare una
condizione necessaria e sufficiente di carattere generale.
Facendo riferimento alla scomposizione di Kalman studiata nella Sezione 4.6.5, e alle notazioni
col`a introdotte, consideriamo il sistema

z2 = A22 z2 + A24 z4 + B2 u
z4 =
A44 z4

(8.13)

con funzione di osservazione y = C2 z2 + C4 z4 . Per costruzione esso risulta completamente osservabile.


Lemma 8.5 Il sistema (8.1) `e esternamente stabile se e solo se il sistema (8.13) `e esternamente
stabile.

99
Dimostrazione Supponiamo prima che il sistema (8.13) possieda la propriet`a di stabilit`a BIBO. Non `e
restrittvo assumere che il sistema (8.1) si presenti nella forma di Kalman (Proposizione 8.1) che riportiamo
per comodit`a

z1 = A11 z1 + A12 z2 + A13 z3 + A14 z4 + B1 u

A22 z2
+ A24 z4 + B2 u
z2 =
z3 =
A33 z3 + A34 z4

A44 z4

z4 =
y = C2 z2 + C4 z4 .
Sia R > 0 e consideriamo il sistema (8.1): scegliamo uno stato iniziale z = (
z1 , z2 , z3 , z4 ) e un ingresso
ammissibile u() tali che
||
z || < R

e ||u()|| < R .

Il vettore (
z2 , z4 ) riunisce una parte delle componenti di z, quindi si ha
||(
z2 , z4 )|| < R .
Per ipotesi, esiste allora S tale che ||y(t)|| < S per ogni t 0. Per concludere basta osservare che (8.13)
e (8.1) hanno la stessa uscita.
Viceversa, supponiamo che (8.1) possieda la propriet`a di stabilit`a BIBO. Introduciamo R e consideriamo
il sistema (8.13). Scegliamo uno stato iniziale (
z2 , z4 ) e un ingresso ammissibile u() tali che
||(
z2 , z4 )|| < R

e ||u()|| < R .

Applichiamo lo stesso ingresso al sistema (8.1) scegliendo come condizione iniziale z = (0, z2 , 0, z4 ).
Chiaramente ||
z || = ||(
z2 , z4 )||. Dunque esiste S tale che ||y(t)|| < S per ogni t 0. Ancora una volta, si
conclude osservando che i due sistemi hanno la stessa uscita.

Lemma 8.6 Il sistema (8.13) `e BIBO-stabile se e solo se


(i) gli autovalori della matrice A22 hanno tutti parte reale strettamente negativa;
(ii) gli autovalori della matrice A44 hanno tutti parte reale non-positiva, e per quegli eventuali
autovalori con parte reale nulla, le molteplicit`
a algebrica e geometrica coincidono
Dimostrazione Valgano le condizioni (i) e (ii). La matrice A44 definisce un sistema non forzato per cui
lorigine `e stabile (non asintoticamente). In particolare, la componente z4 del sistema (8.13) si mantiene
limitata nella sua evoluzione. Interpretando v = A24 z4 + B2 u come nuovo ingresso, se u() `e limitato anche
v() `e limitato. Poiche il sottosistema
z2 = A22 z2 + v

(8.14)

`e completamente controllabile, anche levoluzione di z2 si mantiene limitata. Di qui si arriva facilmente alla
conclusione.
Viceversa, supponiamo che il sistema possieda la propriet`a di stabilit`a BIBO. Poiche il sistema `e completamente osservabile, per la Proposizione 8.4, la matrice

A22 A24
0
A44
definisce un sistema non forzato per cui lorigine `e stabile (non asintoticamente). Ci`o implica in particolare
la condizione (ii). La condizione (i) segue applicando la Proposizione 8.5 al sottosistema completamente
controllabile e completamente osservabile

100

z2 = A22 z2 + B1 u
y = C2 z2

(8.15)

inizializzato a (
z2 , 0).

Combinando questi due lemmi, si ottiene la condizione necessaria e sufficiente desiderata.


Teorema 8.4 Un sistema della forma (8.1) `e BIBO-stabile se e solo se valgono le due seguenti
condizioni:
(i) gli autovalori della matrice A22 corrispondente alla parte completamente controllabile e completamente osservabile del sistema hanno tutti parte reale strettamente negativa;
(ii) gli autovalori della matrice A44 corrispondente alla parte osservabile ma non controllabile del
sistema hanno tutti parte reale non-positiva, e per quegli eventuali autovalori con parte reale
nulla, le molteplicit`
a algebrica e geometrica coincidono.

Capitolo 9

Stabilizzabilit`
a
Come accennato nel primo capitolo, il comportamento di un sistema pu`o essere regolato, senza
alterarne radicalmente la struttura, mediante la costruzione di opportuni dispositivi di controllo
collegati in retroazione. Simili dispositivi possono essere di natura statica (e quindi essere rappresentabili per mezzo di una funzione) oppure richiedere unelaborazione dinamica (e quindi essere
a loro volta interpretabili come un sistema dinamico). La connessione in retroazione fa s` che il
controllo possa essere esercitato in maniera automatica (cio`e senza lintervento permanente di un
operatore umano). A tal fine, il dispositivo deve potersi avvalere di sensori che rilevino, istante per
istante, levoluzione delle variabili di stato.
Quando tutte le variabili di stato possono essere monitorate, e le informazione che se ne ricavano
possono essere utilizzate senza restrizioni dal dispositivo di controllo, si dice che siamo in presenza di
una retroazione dello stato. Quando invece le informazioni sullevoluzione dello stato sono disponibili
solo parzialmente (perche per esempio vengono acquisite attraverso una funzione di osservazione),
si dice che siamo in presenza di una retroazione delluscita.

9.1

Retroazioni statiche dello stato

Nel problema della stabilizzazione mediante retroazione statica dello stato la funzione di osservazione non gioca nessun ruolo. Pertanto, in questa sezione, possiamo limitarci a considerare un sistema
dinamico della forma
x = Ax + Bu ,

x Rn , u Rm .

(9.1)

Prima di tutto, cerchiamo di illustrare che cosa capita durante il ciclo di retroazione. Sia v = v(t)
un segnale che viene inviato al sistema attraverso il canale di ingresso u, e sia x(t) levoluzione che
ne risulta. La funzione di retroazione k(x) : Rn Rm genera un altro segnale w(t) = k(x(t)) che
va a sommarsi al segnale originario. Il segnale che viene effettivamente ricevuto dal sistema `e, in
altre parole, u = w(t) + v(t).
Una retroazione statica dello stato si dice lineare quando k(x) = F x, dove F `e una matrice
m n. Limplementazione di una retroazione della forma
u = Fx + v

(9.2)

dove la variabile v rappresenta, come sopra, eventuali altri segnali immessi nel sistema attraverso
101

102
lingresso u, pu`o essere interpretata come una trasformazione. Sostituendo (9.2) in (9.1), si ottiene
infatti il nuovo sistema
x = (A + BF )x + Bv

(9.3)

che si chiama sistema retroazionato (in inglese, closed-loop).


v- d u6

A, B

- d x-

Osserviamo subito che in virt`


u della particolare forma del controllo (9.2), il sistema trasformato
(9.3) `e ancora lineare, che la matrice B `e rimasta invariata mentre la matrice A si `e cambiata nella
matrice A = A + BF . Osserviamo anche che la trasformazione definita dalla (9.2) `e invertibile;
infatti, se si parte dal sistema (9.3) e si applica la retroazione v = F x + u si ritrova il sistema
(9.1).
La relazione tra sistemi indotta dalla trasformazione (9.2) `e unequivalenza.
Definizione 9.1 I due sistemi (9.1) e
+ Bu
x = Ax
si dicono feedback equivalenti se esiste una matrice F tale che A = A + BF .
In questo ordine di idee, i problemi si pongono tipicamente nel modo seguente: data una certa
propriet`a e dato un sistema (9.1) che non la soddisfa, vogliamo sapere se esiste o meno una retroazione della forma (9.2) tale che la propriet`a richiesta `e posseduta dal sistema (9.3). In altre
parole, vogliamo sapere se, costruendo opportunamente il ciclo di retroazione, `e possibile modificare
il comportamento qualitativo del sistema.

9.1.1

Controllabilit`
a

Ci si pu`o per esempio chiedere se in questo modo si pu`o far acquisire ad un sistema la propriet`a di
controllabilit`a completa. La risposta `e negativa. Vale infatti il
Teorema 9.1 Qualunque sia F , gli spazi raggiungibili dallorigine R(9.1) e R(9.3) relativi rispettivamente ai sistemi (9.1) e (9.3) coincidono. In particolare,
rank [B|AB| . . . |An1 B] = rank [B|(A + BF )B| . . . |(A + BF )n1 B] .
Dimostrazione Per il Teorema 7.3
R(9.1) = span {b1 , . . . , bm ; Ab1 , . . . , Abm ; . . . ; An1 b1 , . . . , An1 bm } .
Cio`e v R(9.1) se e solo se v `e combinazione lineare di alcuni dei vettori indicati. Analogamente,
R(9.3) = span {b1 , . . . , bm ; (A + BF )b1 , . . . , (A + BF )bm ; . . . ; (A + BF )n1 b1 , . . . , (A + BF )n1 bm } .

103
Osserviamo che (A + BF )bj = Abj + BF bj . Il vettore Abj appartiene ad R(9.1) e il vettore
BF bj = [b1 | . . . |bm ]F bj
pure appartiene ad R(9.1) in quanto combinazione lineare dei b1 , . . . , bm . Procedendo, si nota che
(A + BF )2 bj = (A + BF )(A + BF )bj = A2 bj + ABF bj + BF Abj + BF BF bj .
Il primo addendo sta in R(9.1) per definizione; il secondo perche `e una combinazione lineare di Ab1 , . . . , Abm ;
il terzo e il quarto perche combinazioni lineari di b1 , . . . , bm . Non `e difficile convincersi che lo stesso ragionamento si applica a ogni termine (A + BF )k bj .
In conclusione, R(9.3) R(9.1) perch`e tutti i vettori di R(9.3) sono combinazione lineare di vettori di
R(9.1) .
Linclusione opposta si ottiene ricordando che il sistema (9.1) si pu`o riottenere da (9.3) con lapplicazione
della retroazione inversa v = F x + u. Si ripete quindi il ragionamento, scambiando i ruoli dei sistemi (9.1)
e (9.3).

Segue in particolare dal Teorema 9.1 che la propriet`a di controllabilit`


a completa `e invariante
sotto lequivalenza feedback.

9.1.2

Stabilit`
a

Nel capitolo precedente ci siamo occupati della stabilit`a esterna dei sistemi della forma (9.1). Come
abbiamo visto, si tratta di una propriet`a intrinsecamente correlata alla stabilit`a interna (detta
anche propriet`a di Hurwitz). Ci`o spiega linteresse ad elaborare modelli per cui la matrice A del
sistema non forzato abbia tutti gli autovalori con parte reale negativa e anzi, nel caso che A non
soddisfi a tale condizione, linteresse ad introdurre modifiche nella struttura del sistema affinche la
propriet`a venga acquisita.
Al contrario della controllabilit`a, la propriet`a di Hurwitz pu`o, sotto certe condizioni, essere
effettivamente acquisita mediante lapplicazione di una retroazione.
Sistemi a ingresso scalare
Consideriamo prima il caso di un sistema ad ingresso scalare (per tali sistemi, si ha m = 1
e conseguentemente B `e un vettore colonna). Lapproccio che proponiamo si basa sul seguente
Teorema.
Teorema 9.2 Sia (7.1) un sistema completamente controllabile, con m = 1.
Esiste un cambiamento di coordinate x = P per cui il sistema si trasforma in
= A0 + ub0

(9.4)

dove A0 `e una matrice compagna

0
0

...

0
an

1
0
...
0
an1

0
1
...
0
...

...
...
...
...
...

0
0

...

1
a1

0

.
b0 = .. .

0

104
Dimostrazione Nella Sezione 11 del Capitolo 3 abbiamo visto che se per un certo vettore v i vettori
v, Av, . . . , An1 v
sono linearmente indipendenti, allora A `e simile alla matrice

0
1

...
0

0 ... 0
0 ... 0
1 ... 0
... ... ...
... ... 1

an
an1

an2

...
a1

dove i numeri a1 , . . . , an sono i coefficienti del polinomio caratteristico di A, a meno del segno (trasposta della
forma compagna). La matrice che determina il cambiamento di coordinate `e quella formata dalle colonne
v, Av, . . . , . . . An1 v.
Lipotesi di controllabilit`a del nostro sistema equivale appunto a dire che la matrice
R = [b|Ab| . . . |An1 b]
ha rango n. Dunque R1 AR = At0 ed `e immediato verificare che

1
0

R
... = b


1
0
1

cio`e R b =
... .

Ci`o prova che il nostro sistema `e linearmente equivalente a



1

w = At0 w + u
... .

(9.5)

Daltra parte la matrice Q = b0 |A0 b0 | . . . |A0n1 b0 ha la forma

0
0

...

0
1

... ... 0
1
... 0
1

... ... ... ...

1
...
... ...

e quindi `e non singolare (gli asterischi stanno al posto di certi numeri che non occorre specificare). Ne segue,
per le stesse ragioni di cui sopra, che Q1 A0 Q = At0 . Inoltre, `e chiaro che

1
0

Q
... = b0
0

ovvero Q1 b0 =
... .
0

Cos` anche il sistema (9.4) `e linearmente equivalente a (9.5). Infine (9.4) e il sistema dato, essendo
entrambi equivalenti a (9.5), sono equivalenti tra di loro.

In altre parole, il Teorema 9.2 afferma che ogni sistema controllabile a ingresso singolo `e
linearmente equivalente ad un sistema governato da unequazione differenziale lineare.

105
Dalla dimostrazione del Teorema 9.2 si ricava unespressione esplicita per la matrice P che
determina la similitudine tra A e la sua forma compagna A0 . Si ha infatti P = RQ1 .
Riscriviamo per comodit`a il sistema (9.4) come

1 = 2

...

n1 = n

(9.6)

n = an 1 . . . a1 n + u .

Una n-pla {1 , . . . , n } di numeri complessi non necessariamente distinti si dice compatibile


se i {1 , . . . , n } per ogni i = 1, . . . , n. Assegnata una n-pla compatibile arbitraria, `e facile
costruire un polinomio monico a coefficienti reali
n + b1 n1 + . . . + bn
le cui radici siano esattamente 1 , . . . , n .
Applichiamo al sistema (9.6) la retroazione
u = (bn + an )1 + . . . + (b1 + a1 )n + v.
Ne risulta il sistema

1 = 2
...

n = bn 1 . . . b1 n + v

la cui equazione caratteristica ha esattamente le soluzioni 1 , . . . , n . Queste ultime coincidono con


gli autovalori della matrice. Se si `e avuto cura di scegliere tutti i i con Rei < 0, avremo dunque
ottenuto, mediante retroazione, un sistema con matrice A Hurwitz.
Abbiamo anzi provato molto di pi`
u, e cio`e che, mediante retroazione, (9.6) pu`o essere trasformato
in un sistema la cui matrice A ha autovalori arbitrariamente assegnabili.
Sistemi a ingressi multipli
La discussione precedente motiva le seguenti definizioni formali.
Definizione 9.2 Si dice che (9.1) `e stabilizzabile se esiste una retroazione statica dello stato u =
F x per cui la matrice (A + BF ) ha tutti gli autovalori con parte reale negativa.
Si dice che (9.1) `e superstabilizzabile se per ogni > 0 esiste una retroazione statica dello
stato u = F x (con F funzione di ) per cui la matrice (A + BF ) ha autovalori tutti con parte reale
< .
Si dice che (9.1) ha la propriet`
a di assegnabilit`
a dei poli se per ogni n-pla compatibile esiste
una retroazione statica dello stato u = F x per cui gli autovalori di A + BF sono esattamente
{1 , . . . , n }.
Dal punto di vista delle applicazioni, i sistemi superstabilizzabili sono particolarmente interessanti: per questi sistemi infatti non solo `e possibile costruire retroazioni stabilizzanti, ma `e anche
possibile realizzare un tasso di decadimento arbitrario.
Abbiamo visto che ogni sistema a ingresso scalare completamente controllabile ha la propriet`a di
assegnabilit`a dei poli, ed `e pertanto stabilizzabile e superstabilizzabile. Con i metodi della moderna

106
teoria dei sistemi, questo risultato si generalizza ai sistemi a ingresso multiplo. Vale anzi il seguente
risultato.
Teorema 9.3 Per un sistema del tipo (9.1), le seguenti propriet`
a sono equivalenti:
(i) controllabilit`
a completa
(ii) assegnabilit`
a dei poli
(iii) superstabilizzabilit`
a.
Non riporteremo la dimostrazione completa del Teorema 9.3. Tuttavia pu`o essere istruttivo
soffermarsi sul seguente enunciato parziale.
Proposizione 9.1 Se il sistema (9.1) `e completamente controllabile, allora `e stabilizzabile.
Dimostrazione Lipotesi di controllabilit`a pu`o essere espressa affermando che per ogni T > 0 la matrice
Z

(T ) =

e A BB t e A d

`e definita positiva (Teorema 7.2). Poniamo per semplicit`a = (1). Faremo vedere che la retroazione
u = F x = B t 1 x stabilizza il sistema. Cominciamo calcolando la derivata

t
t
t
d tA
e
BB t etA = AetA BB t etA etA BB t etA At
dt
da cui
Z

1
0

t
d tA
e
BB t etA dt =
dt

t
t
AetA BB t etA etA BB t etA At dt .

(9.7)

Per il Teorema fondamentale del calcolo, il primo membro della (9.7) `e uguale a
etA BB t etA

= eA BB t eA BB t .

Ricordando la definizione di , il secondo membro della (9.7) `e uguale a


Z
A

tA

t tAt

BB e

dt

etA BB t etA dtAt = A At .

Quindi, possiamo affermare che


t

eA BB t eA BB t = A At .

(9.8)

Daltra parte, essendo simmetrica,


(A BB t 1 ) + (A BB t 1 )t = A + At 2BB t .

(9.9)

Da (9.8) e (9.9) si deduce


t

(A BB t 1 ) + (A BB t 1 )t = eA BB t eA BB t .

(9.10)

La matrice a secondo membro `e certamente (almeno) semidefinita negativa. Per il Teorema 4.4, possiamo
pertanto affermare che lorigine `e stabile per il sistema

107

x = (A BB t 1 )t x

(9.11)

e quindi anche per il sistema a cui siamo interessati


x = (A BB t 1 )x

(9.12)

dato che una matrice e la sua trasposta hanno gli stessi autovalori. Tuttavia, sulla base della (9.10), non
possiamo concludere che (9.12) sia asintoticamente stabile: vi sono infatti semplici esempi di sistemi lineari
controllabili per cui la matrice al secondo membro della (9.10) effettivamente non `e definita positiva1 . In
altre parole, non `e detto che V (x) = xt x sia una funzione di Liapunov (in senso stretto) per il sistema
(9.11).
Per portare a termine la dimostrazione, dobbiamo quindi procedere per una via diversa. Ricorreremo
direttamente al Teorema 4.1, facendo vedere che tutti gli autovalori di (A BB t 1 )t hanno parte reale
strettamente negativa. A tal fine, i calcoli precedenti torneranno comunque utili.
Sia un autovalore (reale o complesso) di (A BB t 1 )t , e sia v 6= 0 un suo autovettore. Sia cio`e
(A BB t 1 )t v = v .

(9.13)

Dalla (9.10) segue


t

vt [(A BB t 1 ) + (A BB t 1 )t ]v =
v t [eA BB t eA + BB t ]v .

(9.14)

Daltra parte,
v t v +
+ )
vt [(A BB t 1 ) + (A BB t 1 )t ]v =
v t v = (
v t v = 2Re (
v t v) .

(9.15)

Di conseguenza
t

vt [eA BB t eA + BB t ]v = 2Re (
v t v) .

(9.16)

Poiche `e reale e definita positiva, si verifica facilmente che v v > 0 (abbiamo gi`a fatto un calcolo
simile nella dimostrazione del Teorema 4.3). Si ritrova cos` quanto avevamo gi`a concluso in precedenza, e
cio`e che Re 0. Se per un certo si avesse Re = 0, si dovrebbe anche avere
t

vt [eA BB t eA + BB t ]v = 0
e quindi in particolare
tv = 0 .
vt BB t v = vt BB
Questultima implica B t v = 0. Ne segue
(A BB t 1 )t v = At v (1 )t BB t v = At v .

(9.17)

Confrontando (9.13) e (9.17) si conclude che v `e allora necessariamente un autovettore anche di At ,


t
relativo allo stesso autovalore . Di conseguenza etA v = et v. Infine, si avrebbe
Z

vt v =

Z
t

vt etA BB t etA v dt =

ma questo `e impossibile perche `e definita positiva e v 6= 0.

Si prenda A =

0
0

1
,b=
0

0
.
1

et vt etA BB t v dt = 0

108

9.1.3

Stabilizzabilit`
a

La stabilizzabilit`a `e di fatto una propriet`a pi`


u debole della completa controllabilit`
a. Per rendersene
conto, basta pensare ad un sistema per cui A possieda gi`a la propriet`a di Hurwitz, e B sia uguale
alla matrice nulla.
` allora interessante chiedersi quali siano le condizioni necessarie e sufficienti per la stabilizE
zabilit`a. A tal fine, osserviamo che se un sistema non `e completamente controllabile, possiamo
preliminarmente effettuare un cambiamento di coordinate lineare in modo da dare al sistema la
forma di Kalman

x 1 = A11 x1 + A12 x2 + B1 u
x 2 =
A22 x2

(9.18)

dove il sottosistema relativo alle coordinate x1 `e completamente controllabile.


Teorema 9.4 Il sistema (9.18) `e stabilizzabile se e solo se la matrice A22 `e Hurwitz.

A11 A12
`e lunione dellinsieme degli
0
A22
autovalori delle matrici A11 e A22 . Lazione di una retroazione non pu`o modificare in alcun modo la matrice
A22 . Dunque, se il sistema `e stabilizzabile, `e ovvio che A22 deve essere Hurwitz.
Viceversa, essendo il sottosistema relativo alle componenti x1 completamente controllabile, possiamo
costruire una retroazione u = F1 x1 (per esempio, come indicato nella Proposizione 9.1) tale che la matrice
A11 + B1 F1 sia Hurwitz. Daltra parte, la matrice A22 `e Hurwitz per ipotesi. Dunque `e Hurwitz anche la
matrice A.

Dimostrazione Linsieme degli autovalori di una matrice A =

Alla condizione necessaria e sufficiente di stabilizzabilit`a possono essere date altre forme; passiamone in rassegna alcune (senza dimostrazione).
Teorema 9.5 Sia V il sottospazio di Cn generato da tutti gli autovettori (in senso proprio e in
senso generalizzato) associati a tutti gli autovalori di A con parte reale positiva o nulla. Sia inoltre
U il sottospazio di Rn generato da tutti i vettori della forma Re v, Im v con v V .
Il sistema (9.1) `e stabilizzabile se e solo se U `e contenuto nello spazio raggiungibile R.
Teorema 9.6 Il sistema (9.1) `e stabilizzabile se e solo se
.
rank (A I .. B) = n
per ogni numero complesso con parte reale positiva o nulla.
Si notino le analogie e le differenze tra lenunciato del Teorema 9.6 e il criterio di Hautus sulla
controllabilit`a completa.
Teorema 9.7 Il sistema (9.1) `e stabilizzabile se e solo se esiste una matrice P simmetrica e definita
positiva tale che
At P + P A P BB t P = I .

(9.19)

In tal caso, una retroazione stabilizzante u = F x si ottiene ponendo F = B t P con 21 .

109
Dimostrare che la (9.19) `e sufficiente per la stabilizzabilit`a `e facile. Si applica la retroazione
definita da F = B t P ottenendo il sistema
x = Ax BB t P x .

(9.20)

In virt`
u della (9.19) si ha:
(A BB t P )t P + P (A BB t P ) = At P + P A 2P BB t P = I + (1 2)P BB t P .
La matrice P BB t P = (B t P )t B t P definisce una forma quadratica definita non-negativa. Quindi, se 12 , P risolve lequazione matriciale di Liapunov relativa al sistema (9.20) per una certa
Q definita positiva. La conclusione segue per il Corollario 3.1.
Invece, dimostrare che la stessa condizione `e anche necessaria per la stabilizzazione `e pi`
u complicato (una dimostrazione si trova per esempio sul libro di R. Conti, Linear differential equations
and control, Academic Press 1976).
La (9.19) `e nota come equazione matriciale algebrica di Riccati. Si osservi che, a patto di
saper risolvere la (9.19), il Teorema 9.7 fornisce una retroazione stabilizzante in maniera esplicita
(certamente pi`
u esplicita di quella suggerita nella dimostrazione della Proposizione 9.1).

9.1.4

Controllabilit`
a asintotica

Se il sistema (9.1) `e stabilizzabile mediante una retroazione u = F x, allora per ogni stato iniziale
x0 Rn possiamo considerare la soluzione x(t, x0 ) del problema

x = (A + BF )x
x(0) = x0 .

Tale soluzione x(t, x0 ) coincide ovviamente con la soluzione x(t) del problema

x = Ax + Bux0 (t)
x(0) = x0

(9.21)

dove ux0 (t) = F x(t, x0 ).


Definizione 9.3 Si dice che il sistema (9.1) `e asintoticamente controllabile se per ogni x0
Rn esiste un ingresso ux0 (t) tale che la corrispondente soluzione x(t) del problema (9.21) tende
allorigine quando t +.
Il ragionamento precedente mostra che ogni sistema stabilizzabile `e asintoticamente controllabile. Ma anche il viceversa `e vero. Infatti, con un argomento simile a quello utilizzato nella
dimostrazione del Teorema 9.4, non `e difficile convincersi che se il sistema (9.1) `e asintoticamente
controllabile, allora la parte non controllabile della sua forma di Kalman deve essere asintoticamente stabile. La conclusione segue poi dallo stesso Teorema 9.4. In definitiva, abbiamo ancora unaltra
forma della condizione necessaria e sufficiente di stabilizzabilit`a.
Teorema 9.8 Il sistema (9.1) `e stabilizzabile se e solo se `e asintoticamente controllabile.

110

9.2

Retroazioni statiche delluscita

Nella sezione precedente abbiamo studiato il problema della stabilizzabilit`a mediante retroazione
statica dello stato: ovviamente questa strada non `e praticabile se lintero stato del sistema non
`e disponibile per poter essere elaborato e quindi re-immesso nel sistema attraverso il canale di
ingresso. Una situazione del genere si presenta tipicamente quando si ha a che fare con un sistema
dotato di una funzione di osservazione

x = Ax + Bu
(9.22)
y = Cx
con x Rn , u Rm , y Rp , e si cercano retroazioni della forma u = Ky. Il problema della
stabilizzabilit`a mediante retroazione delluscita `e pi`
u naturale dal punto di vista delle applicazioni,
ma anche molto pi`
u difficile da investigare.
Per renderci meglio conto delle maggiori difficolt`a che si incontrano nel problema della stabilizzabilit`a con retroazione delluscita, esaminiamo alcuni semplici esempi.
Esempio 9.1 Il sistema bidimensionale

x 1 = x2
(9.23)
x 2 = u
`e completamente controllabile, quindi stabilizzabile mediante una retroazione della forma u =
k1 x1 +k2 x2 . A condizione che si possano scegliere liberamente (e indipendentemente luno dallaltro)
i parametri k1 e k2 , il sistema `e anzi superstabilizzabile.
Tuttavia, non `e possibile stabilizzare il sistema se ci si limita ad una retroazione della forma
u = kx1 . Infatti, applicando una tale retroazione, il sistema diventa

x 1 = x2
x 2 = kx1
i cui autovalori sono o entrambi sullasse immaginario o entrambi sullasse reale (e in questultimo
caso uno sar`a positivo, laltro negativo). In altre parole, la possibilit`a di assegnare arbitrariamente
un solo parametro non garantisce i gradi di libert`a necessari per risolvere il problema.
Come abbiamo gi`a pi`
u volte suggerito, limpossibilit`a di implementare una retroazione che
utilizzi tutte le variabili di stato si verifica tipicamente quando il sistema pu`o accedere al proprio
stato solo attraverso una funzione di osservazione. Nel nostro esempio, la retroazione u = kx1 si pu`o
interpretare come una retroazione statica delluscita, se si associa al sistema (9.23) la funzione di
osservazione y = ct x con c = (1 0). Si noti che il sistema, rispetto a questa funzione di osservazione,
`e completamente osservabile; e cionnonostante, non pu`o essere stabilizzato con una retroazione
statica delluscita.
Esempio 9.2 Consideriamo ancora il sistema (9.23), questa volta con funzione di uscita y =
x1 + x2 . Applicando la retroazione u = ky = k(x1 + x2 ), si ottiene il sistema

x 1 = x2
x 2 = kx1 kx2

la cui equazione caratteristica `e 2 + k + k = 0. Il sistema `e quindi stabilizzabile con k > 0, ma


non `e superstabilizzabile. Infatti, se 0 < k < 4 le radici caratteristiche sono non reali. La loro parte
reale `e data da Re = k/2; essa decresce al crescere di k, e

111
3

3
1

Figura 9.1: Grafico di Re (2 (k)).

lim Re = 2 .

k4

Se k = 4 si ha 1 = 2 = 2. Se k > 4, le radici caratteristiche sono reali (in particolare,


ciascuna coincide con la propria parte reale) e si scrivono

k 2 4k
k + k 2 4k
1 =
e 2 =
.
2
2
La pi`
u grande delle due `e 2 : essa cresce al crescere di k, e
k

lim 2 = 2 ,

k4+

lim 2 = 1 .

k+

In definitiva, Re 2 (k) 2 per ogni k 0, ed assume il minimo assoluto per k = 2 (il grafico
della parte reale di 2 in funzione di k `e mostrato nella Figura 9.1).
Si noti che anche in questo caso, il sistema `e completamente controllabile e completamente
osservabile.

Ovviamente, se un sistema `e stabilizzabile con retroazione statica delluscita, lo `e anche con


retroazione statica dello stato. Quindi tutte le condizioni di stabilizzabilit`a esaminate nella sezione
precedente rimangono valide, ma solo in quanto condizioni necessarie.

9.2.1

Riduzione della dimensione

Presentiamo un teorema che consente, in certi casi, di semplificare lo studio del problema della stabilizzazione mediante retroazione statica. Dato un sistema del tipo (9.22), cominciamo con loperare
un cambiamento di coordinate lineare in modo da far assumere alle matrici A, B, C la struttura
(7.32) (scomposizione di Kalman) che qui riportiamo per comodit`a:

z1 = A11 z1 + A12 z2 + A13 z3 + A14 z4 + B1 u

A22 z2
+ A24 z4 + B2 u
z2 =

z =

4=

y = C2 z2 + C4 z4 .

A33 z3 + A34 z4
A44 z4

(9.24)

112
Si ricordi che, con le notazioni allora introdotte, la parte controllabile `e quella identificata dagli
indici 1 e 2, mentre la parte completamente osservabile `e quella identificata dagli indici 2 e 4.
Teorema 9.9 Il sistema (9.22) `e stabilizzabile con retroazione statica delluscita se e solo se
entrambe le condizioni seguenti sono soddisfatte:
(1) le matrici A11 , A33 e A44 hanno tutti gli autovalori con parte reale negativa;
(2) la parte completamente controllabile e completamente osservabile identificata dalle equazioni

z2 = A22 z2 + B2 u
= C2 z2

(9.25)

`e stabilizzabile con retroazione statica delluscita.


Dimostrazione Facciamo unosservazione preliminare. Sia K una matrice con p colonne e m righe. Se al
sistema (9.24) si applica la retroazione u = Ky = KC2 z2 + KC4 z4 , la matrice del sistema diventa allora

A11
0

0
0

A12
A22
0
0

A13
0
A33
0

A14
A24

A34
A44

(9.26)

dove A12 = A12 + B1 KC2 , A14 = A14 + B1 KC4 , A22 = A22 + B2 KC2 , A24 = A24 + B2 KC4 .
In virt`
u della forma triangolare a blocchi della matrice (9.26), `e chiaro che la retroazione u = Ky stabilizza
il sistema se e solo se le matrici A11 , A22 , A33 e A44 hanno tutti i loro autovalori con parte reale negativa.
Tenuto conto della condizione (1), questo sar`a a sua volta vero se e solo se la retroazione u = K = KC2 z2
risulta essere stabilizzante per il sistema (9.25).

In virt`
u del Teorema 9.9, nello studio del problema della stabilizzabilit`a con retroazione statica
delluscita possiamo sempre pensare di avere a che fare con un sistema completamente controllabile
e completamente osservabile. Il seguente risultato pu`o allora essere di qualche utilit`a.
Proposizione 9.2 Sia dato un sistema della forma (9.22). Supponiamo che sia completamente
controllabile, e che la matrice C sia invertibile. Allora, il sistema `e stabilizzabile con retroazione
statica delluscita.
Dimostrazione Per lipotesi di completa controllabilit`a, esiste una matrice K tale che il sistema `e stabilizzabile mediante la retroazione u = Kx. Possiamo scrivere u = KC 1 Cx = KC 1 y. Si ottiene cos` una
retroazione statica delluscita u = F y con F = KC 1 che stabilizza il sistema.

9.2.2

Sistemi con dinamica zero stabile

A proposito di un sistema che pu`o essere rappresentato nella forma (9.24), vi `e unulteriore interessante riflessione da fare. Limitiamoci per un momento a considerare solo la parte differenziale.
Assegnando lingresso u 0 e scegliendo una condizione iniziale della forma z = (
z1 , 0, z3 , 0) la
soluzione si evolve sempre nel sottospazio di equazione z2 = z4 = 0, che `e quindi invariante per il
sistema non forzato. Si tenga presente che ogni soluzione giacente in questo sottospazio produce

113
uscita nulla. Per questa ragione, il sottospazio di equazione z2 = z4 = 0 `e detto lo spazio della
dinamica zero, e le equazioni

z1 = A11 z1 + A13 z3
z3 =
A33 z3

sono dette le equazioni della dinamica zero.


Corollario 9.1 Supponiamo che la dimensione della parte osservabile ma non controllabile del
sistema (9.22) sia nulla. Supponiamo inoltre che la matrice C2 sia invertibile. In tali condizioni, il sistema `e stabilizzabile con retroazione statica delluscita se e solo se la dinamica zero `e
asintoticamente stabile.
Esempio 9.3 Si consideri il sistema

x 1 = x1 + 4x2

x = 2x1 6x2 + u
2
y = 2x1 + x2

che risulta, come si verifica immediatamente, completamente controllabile ma non completamente


osservabile. Applicando il cambiamento di base x = P z definito dalla matrice

P =

1 2
2 1

cos` come spiegato nel Paragrafo 3 del Capitolo 7, si ottiene la forma canonica di osservabilit`
a del
sistema

2
z1 = 7z1 2z2 + 5 u

x = 2z2 + 15 u
2

y = 5z2

A questo punto `e evidente che il sistema, nelle nuove coordinate, risulta stabilizzabile mediante
qualunque retroazione delluscita u = ky, purche sia k < 2. Nelle coordinate originali, la retroazione
da applicare `e ovviamente u = ky = k(2x1 + x2 ), sempre con k < 2.

9.2.3

Sistemi in dimensione 2

La seguente proposizione risolve completamente il problema limitatamente al caso bidimensionale.


Proposizione 9.3 Consideriamo il sistema bidimensionale completamente controllabile, in forma
di controllabilit`
a

x 1 = x2
x 2 = a2 x1 + a1 x2 + u .

(9.27)

Supponiamo che il sistema, con funzione di osservazione y = c0 x1 + c1 x2 , risulti anche completamente osservabile. Il sistema `e stabilizzabile con retroazione statica delluscita se e solo se esiste
un numero k R tale che kc0 < a2 , e kc1 < a1 .

114
Dimostrazione Si tratta di una verifica diretta. Innanzitutto si osserva che lipotesi di osservabilit`a si
traduce nella condizione c20 + c0 c1 a1 c21 a2 6= 0, la quale implica a sua volta che c0 e c1 non possono essere
entrambi nulli. Effettuando la sostituzione u = ky, la matrice del sistema prende la forma

0
1
a2 + kc0 a1 + kc1
la cui equazione caratteristica `e
2 (a1 + kc1 ) a2 kc0 = 0 .
Si giunge alla conclusione applicando il criterio di Routh-Hurwitz.

9.2.4

Assegnabilit`
a dei poli

Come abbiamo visto dagli esempi, un sistema pu`o risultare stabilizzabile con retroazione statica
delluscita ma non superstabilizzabile. Il seguente risultato, che riportiamo senza dimostrazione,
fornisce una condizione necessaria per lassegnabilit`a dei poli, valida per sistemi di dimensione
qualunque.
Proposizione 9.4 Sia dato il sistema (9.22) e supponiamo che data una qualunque n-pla compatibile {1 , . . . , n } esista una retroazione u = Ky = KCx tale che gli autovalori della matrice
A + BKC siano esattamente 1 , . . . , n . Allora mp n.
In particolare la propriet`a di assegnabilit`a dei poli non vale per nessuno dei sistemi presentati
in questo paragrafo.

9.3

Retroazioni dinamiche delluscita

Le difficolt`a che si incontrano nel problema della stabilizzazione mediante retroazione statica delluscita possono essere aggirate ricorrendo ad una procedura di natura diversa, a patto che il sistema
sia, in linea di principio, stabilizzabile mediante retroazione statica dello stato, e che sia soddisfatta
unulteriore condizione tecnica di cui parleremo tra breve).
Definizione 9.4 Si dice che il sistema (9.22) `e stabilizzabile con retroazione dinamica delluscita
se esiste un sistema

z = F z + Gv
= Dz

(9.28)

con z R , v Rp , Rm tale che il sistema composto, che si ottiene con le sostituzioni u =


e v = y (si veda la figura)

x = Ax + BDz
z = F z + GCx

abbia nellorigine (x, z) = (0, 0) Rn+ una posizione dequilibrio asintoticamente stabile. Al
sistema (9.28) si d`
a il nome di sistema compensatore, o di sistema controllore.

115
u-

x-

D
z

y-

Esempio 9.4 Il sistema (9.23) con funzione di osservazione y = x1 , `e dinamicamente stabilizzato


per mezzo del compensatore

z1 = z1 + z2 + v

z = 2z1 z2 + v
2
= z1 z2 .

Connettendo i sistemi come sopra indicato, si ottiene infatti

x 1 = x2

x 2 = z1 z2

z = x1 z1 + z2

z2 = x1 2z1 z2

la cui equazione caratteristica `e 4 + 23 + 32 + 2 + 1 = 0. La verifica che tutte le radici hanno


parte reale negativa `e lasciata per esercizio (usare il criterio di Routh-Hurwitz).

La procedura di carattere generale che permette di costruire, sotto ipotesi opportune, una
retroazione dinamica delluscita in grado di stabilizzare un sistema del tipo (9.22) sar`a descritta
nelle prossime sottosezioni.

9.3.1

Costruzione di un osservatore asintotico

Definizione 9.5 Si dice che il sistema (9.22) ha la propriet`


a di rilevabilit`
a (in inglese detectability) se esiste una matrice K di dimensioni appropriate tale che la matrice Lt = At C t K t sia
Hurwitz.
Un sistema ha la propriet`a di rilevabilit`
a se e solo se il suo sistema duale ha la propriet`a di
stabilizzabilit`a. In particolare, ogni sistema completamente osservabile ha la propriet`a di rilevabilit`
a.
Proposizione 9.5 Supponiamo che il sistema dato (9.22) abbia la propriet`
a di rilevabilit`
a. Per
ogni ingresso ammissibile u(t) : [0, +) Rm e per ogni coppia di vettori x0 , z0 Rn , indicate
con x(t) la soluzione del sistema
x = Ax + Bu
corrispondente allingresso u(t) e allo stato iniziale x0 , e con z(t) la soluzione del sistema
z = Lz + Ky + Bu
corrispondente allingresso u(t) e allo stato iniziale z0 , si ha

(9.29)

116

lim (x(t) z(t)) = 0 .

t+

Dimostrazione Posto uguale ad e(t) = x(t) z(t) lerrore che si commmette sostituendo lo stato osservato
z(t) allo stato effettivo x(t), si ha:
e = x z = Ax + Bu Lz KCx Bu = (L + KC)x Lz KCx = Le .

(9.30)

Poiche gli autovalori di L hanno tutti parte reale negativa (una matrice e la sua trasposta hanno sempre
gli stessi autovalori), si ha limt+ e(t) = 0 come desiderato.

Osservazione 9.1 Il sistema (9.29) riceve in ingresso lo stesso ingresso del sistema dato, ma anche
luscita del sistema dato.
La Proposizione 9.5 afferma che indipendentemente da come i due sistemi sono inizializzati, a
parit`a di ingresso le soluzioni di (9.29) approssimano asintoticamente quelle del sistema dato. Per
questa ragione, il sistema (9.29) si dice anche un osservatore asintotico.

9.3.2

Costruzione di un compensatore dinamico

Supponiamo ora che il sistema (9.22) possieda, oltre alla propriet`a di rilevabilit`
a, anche la propriet`a
di stabilizzabilit`a. Allora possiamo costruire una matrice H tale che la matrice (A + BH) sia
Hurwitz.
Se lintero stato del sistema fosse utilizzabile ai fini del controllo, potremmo applicare direttamente la retroazione u = Hx. Altrimenti, `e naturale tentare con la legge di controllo u = Hz,
dove la z `e fornita dallosservatore asintotico (9.29).
Effettuando la sostituzione u = Hz in (9.22) e in (9.29) (e ricordando che y = Cx), si ottengono
i due sistemi di equazioni differenziali
x = Ax + BHz

(9.31)

z = Lz + KCx + BHz = KCx + (A KC + BH)z

(9.32)

Lemma 9.1 Il sistema formato da (9.31) e (9.32) `e asintoticamente stabile nellorigine.


Dimostrazione Introduciamo, come prima, la variabile e = x z. La (9.31) equivale alla
x = (A + BH)x BHe

(9.33)

mentre la (9.32) equivale alla


e = Ax + BHz Az + KCz BHz KCx = Ax Ax + Ae + KCx KCe KCx = Le .

(9.34)

I sistemi (9.33) e (9.34) possono essere riguardati come un unico sistema lineare omogeneo, di matrice

A + BH
BH
.
(9.35)
0
A KC

117
Linsieme degli autovalori della (9.35) `e lunione degli insiemi degli autovalori delle matrici A + BH e
A KC le quali, per costruzione, sono Hurwitz. Lasserto `e provato.

Teorema 9.10 Se il sistema (9.22) `e stabilizzabile con una retroazione statica dello stato, e se
inoltre possiede la propriet`
a di rilevabilit`
a, allora `e stabilizzabile anche con una retroazione dinamica
delluscita.
Dimostrazione Il sistema formato da (9.31) e (9.32) si pu`o interpretare come risultato dalla composizione
del sistema dato (9.22) e del compensatore dinamico

z = (A KC + BH)z + Kv
= Hz .
Quello che abbiamo costruito `e quindi effettivamente una retroazione dinamica delluscita: per ritrovare
le notazioni della Definizione 9.4, `e sufficiente porre F = A KC + BH, G = K, D = H. Per completare il
ragionamento basta invocare il Lemma precedente.

Il problema della costruzione di una retroazione dinamica delluscita in grado di stabilizzare


il sistema (9.22) `e stato in definitiva ricondotto alla costruzione di una retroazione statica dello
stato u = Hx in grado di stabilizzare il sistema dato (come se lintero stato fosse disponibile) e
alla costruzione di una retroazione statica dello stato w = K t z in grado di stabilizzare il sistema
duale
z = At z + C t w .
Questa conclusione `e nota come Principio di separazione.
Sottolineiamo ancora una volta che per costruire H e K bisogna conoscere A, B e C, ma per
effettuare fisicamente la connessione tra il sistema dato e il compensatore costruito, `e sufficiente
disporre delluscita y.
A prima vista, il Teorema 9.10 sembra suggerire che lutilizzo della retroazione dinamica delluscita costituisca una tecnica pi`
u generale rispetto allutilizzo della retroazione statica dello stato.
In realt`a, i due approcci sono equivalenti.
Teorema 9.11 Sia dato il sistema (9.22), e supponiamo che sia stabilizzabile mediante una retroazione dinamica (9.28) delluscita. Allora, il sistema `e stabilizzabile anche mediante una retroazione
statica dello stato.
Dimostrazione Supponiamo che esista una retroazione dinamica che stabilizza il sistema. Il sistema retroazionato si pu`o scrivere come


x
A 0
x
B 0
0 D
x
=
+
.

0 F

0 G
C 0

Dunque il sistema in Rn+ definito dalle matrici

A 0
= B
A =
e B
0 F
0

0
G

`e stabilizzabile (con retroazione statica dello stato). Per il Teorema 9.6, deve allora essere

118

A + I
rank
0

0
F + I

..
.
..
.

B
0

0
=n+
G

per ogni numero complesso con parte reale maggiore o uguale a zero. Di qui segue subito
.
rank (A + I .. B) = n
per ogni numero complesso con parte reale maggiore o uguale a zero.

Capitolo 10

Analisi e sintesi nel dominio della


frequenza
In questo capitolo vedremo come si generalizza ai sistemi MIMO lapproccio allanalisi dei sistemi
nel dominio della frequenza, basato sulluso della trasformata di Laplace e gi`a messo in pratica
nel Capitolo 6 limitatamente al caso dei sistemi definiti unequazione differenziale lineare di ordine
n 1, a coefficienti costanti.
Mostreremo anche come, in certi problemi, facendo uso della trasformata di Laplace, si pervenga
facilmente alla sintesi (cio`e alla costruzione esplicita) di soluzioni in forma di retroazione.

10.1

La matrice di trasferimento

Consideriamo un sistema dinamico lineare, finito-dimensionale e invariante nel tempo, rappresentato in generale da equazioni della forma

x = Ax + Bu
y = Cx ,

(10.1)

dove x Rn , u Rm e y Rp , con n, m e p interi positivi qualunque. Naturalmente, luscita


relativa allo stato iniziale x0 si pu`o ottenere, in funzione di u(), ricorrendo alla formula della
variazione delle costanti:
y(t) = Cx(t)

con

x(t) =

Z t
0

e(t )A Bu( ) d + etA x0 .

(10.2)

Vogliamo ora dare una rappresentazione della funzione di uscita del sistema (10.1) alternativa
alla (10.2), facendo uso della trasformata di Laplace. A tal fine, supponiamo che u() e quindi
anche x() e y() siano definite solo per t 0. Conveniamo di restringere linsieme degli ingressi
+, Rm ) a crescita esponenziale. Con tale restrizione, in
ammissibili alle funzioni di classe C(0,
virt`
u della (10.2), anche x(t) e y(t) risulteranno a crescita esponenziale.
Si ponga X(s) = L[x(t)], U (s) = L[u(t)] e Y (s) = L[y(t)]. Applicando alla prima equazione del
sistema (10.1) la trasformata di Laplace e procedendo come nellAppendice C (sezione C.6) si ha
L[x(t)]

= sX(s) x0 = L[Ax(t) + Bu(t)] = AX(s) + BU (s)


da cui
119

120

(A sI)X(s) = x0 + BU (s) .
La matrice (A sI) `e invertibile per ogni s C che non sia un autovalore di A. Per tali valori
di s, `e dunque lecito scrivere
X(s) = (A sI)1 x0 (A sI)1 BU (s) .
Questultima vale certamente, in particolare, per Re s > 0 , dove 0 designa il massimo delle
parti reali degli autovalori di A. Posto
T (s) = C(sI A)1 B ,

(10.3)

Y (s) = CX(s) = T (s)U (s) + C(sI A)1 x0 .

(10.4)

si ha infine

Lanalogia formale tra la (10.2) e la (10.4) (in particolare, la presenza di due addendi, uno
dipendente dallo stato iniziale e laltro dallingresso) non `e sorprendente. Infatti, la (10.4) si sarebbe
potuta equivalentemente ottenere, per s > 0 , applicando la trasformata di Laplace alla (10.2) e
ricordando la Proposizione B.4.
Confrontando la (10.4) con la (6.5) del Capitolo 6, si vede che il ruolo del polinomio pc (s) `e
stato adesso assunto dalla matrice (A sI).
Osservazione 10.1 Ricapitolando, abbiamo a disposizione due possibili modi di descrivere il comportamento di un sistema fisico: attraverso la matrice (10.3) e, qualora siano note, attraverso le
sue equazioni di stato. Nella letteratura, la forma (10.1) (o, equivalentemente, la terna di matrici
(A, B, C) che la definisce) viene anche detta una descrizione del sistema nel dominio del tempo.
Quando invece si fa uso della (10.4), si dice che il sistema `e rappresentato nel dominio della frequenza. In linea di principio, dovremmo aspettarci che ciascuna descrizione sia in grado di fornire
tutte le informazioni rilevanti che riguardano il comportamento del sistema. In una certa misura,
questa affermazione `e vera, ma il suo senso deve essere ben precisato.

La matrice T (s) definita dalla (10.3) si chiama matrice di trasferimento. Si noti che T (s) non
dipende dalle condizioni iniziali e quindi, per calcolarla, `e lecito assumere x0 = 0. Per i sistemi
SISO, per cui p = m = 1, la matrice di trasferimento si riduce ad un unico elemento. Si parla
allora, pi`
u propriamente, di funzione di trasferimento (questo termine era gi`a stato introdotto nel
caso particolare dei sistemi SISO definiti da equazioni differenziali di ordine n).
In linea di principio, `e possibile ottenere unespressione esplicita della matrice di trasferimento
facendo uso della (10.3): la difficolt`a principale consiste, naturalmente, nel calcolo dellinversa1 della
matrice (sI A). Per i nostri scopi, `e sufficiente la proposizione seguente2 .
1
2

Linversa della matrice (sI A) `e nota come matrice risolvente di A.


Pi`
u precisamente, si pu`
o dimostrare la formula:

(sI A)1 =

1
[(sn1 + a1 sn2 . . . + an1 )I + (sn2 + a1 sn3 + . . . + an2 )A + . . . + (s + a1 )An2 + An1 ]
pc (s)

(si veda per esempio H.H. Rosenbrock, State-space and multivariable Theory, Nelson 1970, pag. 12.)

121
Proposizione 10.1 Sia s un qualunque numero complesso che non sia un autovalore di A. Allora,
la matrice (sI A) `e invertibile, e si ha
(sI A)1 =

1
M (s)
pc (s)

(10.5)

dove pc (s) = sn + a1 sn1 + . . . + an `e, a meno del segno, il polinomio caratteristico di A e M (s) `e
una matrice i cui elementi sono polinomi di grado non superiore a n 1.
Dimostrazione Gli autovalori di A sono, per definizione tutti e soli i numeri complessi per cui A sI non
`e invertibile, ed `e ovvio che A sI `e invertibile se e solo se lo `e sI A. La (10.5) si deduce poi facilmente
ricordando la ben nota costruzione dellinversa basata sul calcolo dei complementi algebrici di una matrice.

Esempio 10.1 Si consideri il sistema

x 1 = x1 x2 + u1
x 2 = x1 + u2

con funzione di osservazione y = (x1 + x2 )/2. Gli spazi degli ingressi, degli stati e delle uscite hanno
rispettivamente dimensione 2, 2, 1. Le matrici che definiscono il sistema sono

A=

1 1
1 0

B=

1 0
0 1

C = ( 1/2 1/2 ) .

Il sistema `e completamente controllabile e completamente osservabile. La matrice

sI A =

`e invertibile per s 6= (1 i 3)/2, e


(sI A)1 =

s1 1
1 s

1
s2 s + 1

s 1
1 s1

.
La matrice T (s) si riduce al vettore-riga
T (s) =

10.2

2(s2

1
(s + 1 s 2)
s + 1)

Propriet`
a della matrice di trasferimento

Dato in generale un sistema della forma (10.1), passiamo ora in rassegna alcune importanti propriet`a
della sua matrice di trasferimento T (s).
Propriet`
a1
Ciascun elemento di T (s) `e una funzione razionale propria della variabile s C, il cui denominatore `e un polinomio di grado non superiore ad n.
La Propriet`a 1 `e una immediata conseguenza della Proposizione 10.1.

122
Propriet`
a2
Sia 0 il massimo delle parti reali degli autovalori di A. Posto W ( ) = Ce A B si ha
T (s) = L[W (t)]

(10.6)

per ogni s C tale che s > 0 .


La (10.6) segue facilmente dalla (B.27), Proposizione B.4. La matrice W (t), gi`a introdotta nel Capitolo 5, si chiama matrice della risposta impulsiva per la seguente ragione. Sia ej =
(0, . . . , 0, 1, 0, . . . 0) il j-esimo vettore della base canonica di Rm . Se, con x0 = 0, applichiamo lingresso impulsivo u = (t)ej , dove (t) rappresenta la funzione di Dirac centrata nellorigine, si
ha

y(t) = C

Z t
0
tA

(t )A

Bu( ) d = C

Z t
0

e(t )A B( )ej d =

= Ce Bej = W (t)ej = jesima colonna di W (t) .


Dunque le colonne di W (t) sono esattamente le uscite del sistema corrispondenti a x0 = 0 e agli
ingressi (t)e1 , . . . , (t)em .
La Propriet`a 1 si sarebbe potuta dedurre anche dalla Propriet`a 2 tenendo presente le regole
di calcolo della trasformata di Laplace. Infatti, gli elementi di etA sono somme di termini del tipo
q1 (t)et cos t e q2 (t)et sin t, dove q1 (t), q2 (t) sono polinomi e = + i `e un autovalore di A.
Si noti che T (s) coincide con la trasformata di Laplace di W (t) solo per s > 0 ma per suo
proprio conto, in quanto funzione razionale, `e definita su tutto il piano complesso, con lesclusione
di un numero finito di punti.
Propriet`
a3
Sia

x + Bu

x
= A

y = Cx

(10.7)

un sistema linearmente equivalente a (10.1) (nel senso specificato nella Sezione 3.1.2). Allora,
(10.1) e (10.7) hanno la stessa matrice di trasferimento.
Infatti, se (10.1) e (10.7) sono linearmente equivalenti, vuol dire che esiste una matrice non
= P 1 B, e C = CP . Per calcolare la matrice di trasferimento
singolare P tale che A = P 1 AP , B
`
del sistema (10.7) applichiamo la solita procedura, considerando prima la parte differenziale. E
lecito, come sappiamo, supporre che il sistema sia inizializzato a zero. Si ha

(s) = P 1 AP X(s)

sX(s)
= AX(s)
+ BU
+ P 1 BU (s)
da cui

(sI P 1 AP )X(s)
= P 1 (sI A)P X(s)
= P 1 BU (s) .
Moltiplicando a sinistra per P si ricava dunque

X(s)
= P 1 (sI A)1 BU (s) .

123
Infine, si ottiene

Y (s) = C X(s)
= CP P 1 (sI A)1 BU (s) = C(sI A)1 BU (s) .
Propriet`
a4
T (s) dipende solo dalla parte completamente controllabile e completamente osservabile del sistema (10.1).
Per giustificare questultima affermazione, ricordiamo la decomposizione della Sezione 4.5.5, cui
il sistema pu`o essere ricondotto per mezzo di unequivalenza lineare. Ricordiamo anche che se la
matrice A ha una struttura triangolare a blocchi, lesponenziale etA presenta una struttura analoga.
Si calcola allora facilmente che W (t) = CetA B = C2 etA22 B2 (le notazioni sono quelle della Sezione
4.5.5).
Definizione 10.1 Supponiamo che ciascun elemento di T (s) sia stato ridotto ai minimi termini.
Si dice che il numero complesso s0 `e un polo di molteplicit`
a del sistema se:
1. il denominatore di almeno uno degli elementi di T (s) `e esattamente divisibile per (s so ) ;
2. non esiste nessun elemento di T (s) il cui denominatore `e esattamente divisibile per (sso )+1 .
In particolare, i poli del sistema sono punti del piano complesso in cui almeno uno degli elementi
della matrice T (s) non `e definito.
Propriet`
a5
Se s0 `e un polo di T (s) di molteplicit`
a , allora s0 `e un autovalore di A di molteplicit`
a algebrica
maggiore o uguale a .
La Propriet`a 5 discende direttamente dalla Proposizione 10.1. Come vedremo tra breve, pu`o
invece accadere che A abbia autovalori s0 che non sono poli di T (s).
Osservazione 10.2 Dalle Propriet`a 4 e 5 si evince che se s0 `e un polo di T (s) di molteplicit`a ,
allora s0 `e un autovalore di molteplicit`a algebrica maggiore o uguale a della matrice A22 della
parte completamente controllabile e completamente osservabile del sistema.

La Propriet`a 5 ammette un inverso parziale nel caso dei sistemi SISO.


Proposizione 10.2 Sia dato un sistema (10.1), con m = p = 1. Se il sistema `e completamente
controllabile e completamente osservabile, e se `e un autovalore di A di molteplicit`
a algebrica ,
allora `e un polo di T (s) di molteplicit`
a .
La dimostrazione della Proposizione 10.2 sar`a data pi`
u avanti.

124

10.3

Il problema della realizzazione

Nella sezione precedente abbiamo visto come si determina la matrice di trasferimento di un sistema,
a partire dalla rappresentazione (10.1). Occupiamoci adesso del problema inverso. Chiediamoci cio`e
come si possa risalire ad una rappresentazione (10.1), quando il sistema venga assegnato per mezzo
della sua matrice di trasferimento.
Definizione 10.2 Sia T (s) una matrice con p righe ed m colonne, i cui elementi sono funzioni
razionali proprie della variabile s C. Una terna di matrici (A, B, C) di dimensioni rispettivamente
n n, n m, p n si dice una realizzazione n-dimensionale di T (s) se T (s) `e la funzione di
trasferimento del sistema (10.1) definito per mezzo di tali matrici A, B, C.
Per illustrare le difficolt`a insite in questo problema, proponiamo due esempi.
Esempio 10.2 Si consideri il sistema SISO definito dalle equazioni

x 1 = x2

x = 2x1 + 3x2 + u
2
y = x1 x2 .

La parte differenziale del sistema equivale allequazione scalare 00 3 0 + 2 = u (avendo posto


= x1 ). La funzione di trasferimento `e
T (s) =

s2

1s
1s
1
=
=
.
3s + 2
(s 1)(s 2)
2s

Gli autovalori della matrice del sistema sono 1 e 2, mentre si ha un unico polo uguale a 2. Questo esempio mostra quindi come il numero dei poli possa essere effettivamente minore del numero
degli autovalori: ci`o va messo in relazione col fatto che nel calcolo della funzione di trasferimento
`e intervenuta una cancellazione tra fattori uguali che compaiono al numeratore e al denominatore. Osserviamo che il sistema in oggetto `e completamente controllabile ma non completamente
osservabile. Osserviamo anche che il sistema

x = 2x u
y=x

ha la stessa funzione di trasferimento del sistema dato.

Esempio 10.3 Consideriamo il sistema SISO

x 1 = u

x = x2
2

y = x1 + x2 .

Scritto il sistema in forma matriciale, si ottiene subito

sI A =

s
0
0 s1

Questa matrice `e invertibile per s


/ {0, 1}, e si ha

125

1
s(s 1)

(sI A)1 =

s1
0

0
s

Con un ulteriore semplice calcolo si trova infine T (s) = 1s . Questa volta, il sistema dato `e
completamente osservabile, ma non completamente controllabile. La matrice di trasferimento `e la
stessa del sistema

x = u
y=x.

Gli Esempi 10.2 e 10.3 mostrano che sistemi con diversa rappresentazione nel dominio del tempo
possono avere la stessa funzione di trasferimento. Ci`o significa che in generale, il problema della
realizzazione pu`o avere pi`
u di una soluzione. Daltra parte, ci`o non `e sorprendente, se si tiene conto
della Propriet`a 4 secondo la quale la matrice di trasferimento dipende soltanto dalla parte completamente controllabile e completamente osservabile del sistema. Gli Esempi 10.2 e 10.3 suggeriscono
anche come la presenza di parti non completamente controllabili o non completamente osservabili
possa dar luogo alla cancellazione di fattori comuni presenti al numeratore e al denominatore di
qualche elemento della matrice di trasferimento e che, di conseguenza, in queste condizioni, possano
essere resi invisibili allosservatore esterno certe modalit`a di evoluzione dello stato.
Per distinguere tra diverse realizzazioni di una stessa T (s), sono utili le seguenti definizioni.
Definizione 10.3 Sia T (s) una matrice con p righe ed m colonne, i cui elementi sono funzioni
razionali proprie della variabile s C, che si suppongono ridotte ai minimi termini.
Una realizzazione (A, B, C) di T (s) si dice minima se il numero intero n (dimensione dello
spazio degli stati) `e il pi`
u piccolo possibile.
Una realizzazione (A, B, C) si dice canonica se il sistema (10.1) definito per mezzo di A, B, C
`e completamente controllabile e completamente osservabile.
Teorema 10.1 Sia T (s) una matrice con p righe ed m colonne, i cui elementi sono funzioni razionali proprie della variabile s C, che si suppongono ridotte ai minimi termini. Una realizzazione
di T (s) `e minima se e solo se `e canonica.
Dimostrazione Se la realizzazione (A, B, C) `e minima, allora deve essere completamente controllabile e
completamente osservabile. Questo `e facile da dimostrare. Infatti, in caso contrario, per la Propriet`a 5 la
parte completamente controllabile e completamente osservabile del sistema definito dalla terna (A, B, C)
costituirebbe unaltra realizzazione di T (s), con dimensione dello spazio degli stati strettamente minore.
Prima di provare il viceversa, ricordiamo che un sistema della forma (10.1) `e:
(1) completamente controllabile se e solo se la matrice
Z

(T ) =

eA BB t eA d

`e non singolare per qualche (e quindi per ogni) T > 0;


(2) completamente osservabile se e solo se la matrice
Z

E(T ) =

eA C t CeA d

`e non singolare per qualche (e quindi per ogni) T > 0.

126
Procediamo per assurdo, supponendo che esista un sistema

x + Bu

x
= A
y = C x

dove A `e una matrice quadrata di dimensioni con < n, e tale che


tA B]
.
T (s) = L[CetA B] = L[Ce
tA B
per ogni t 0, e quindi anche per ogni t R.
Per lunivocit`a di L1 , si dovr`a avere CetA B = Ce
Siano ora , due numeri reali qualunque. Si ha:

( )A B
= Ce
A eA B
.
Ce A eA B = Ce( )A B = Ce
t

Moltiplicando a sinistra per e A C t e a destra per B t eA si ottiene


t

A eA BB
t eA
e A C t Ce A eA BB t eA = e A C t Ce

qualunque siano e . Integriamo adesso entrambi membri sul quadrato 0 T , 0 T . Possiamo


scrivere il risultato come
) (T
)
E(T ) (T ) = E(T
(10.8)
R T At t A
R T A
t
)=

)=
t eA d.
dove E(T
e C Ce
d e (T
e
BB
0
0
La matrice E(T ) (T ) `e per ipotesi il prodotto di due matrici non singolari, quindi deve avere rango
) ha solo colonne, cos` come la matrice (T
) ha
massimo, cio`e uguale ad n. Daltra parte, la matrice E(T
solo righe. Quindi il loro prodotto avr`a, al massimo, rango < n. Lidentit`a (10.8) `e quindi assurda, e
lasserto `e provato.

Il problema di determinare una realizzazione pu`o avere pi`


u di una soluzione anche se ci si
limita alle realizzazioni minime. La ragione si spiega facilmente in virt`
u della Propriet`a 3: infatti,
qualunque sia il procedimento scelto per costruire una realizzazione, un passo essenziale dovr`
a
necessariamente consistere nellindividuazione di uno spazio vettoriale che funga da spazio degli
stati: per poter scrivere la (10.1) bisogner`a poi scegliere un sistema di coordinate. Chiaramente,
tale scelta `e del tutto arbitraria: a sistemi di coordinate diversi corrisponderanno realizzazioni
formalmente diverse (sebbene della stessa dimensione). Valgono comunque i seguenti risultati, per
le cui dimostrazioni si rimanda a uno dei seguenti testi:
S. Barnett, Introduction to Mathematical Control Theory, Clarendon Press, Oxford, 1975
R.W. Brockett, Finite dimensional linear systems, New York, Wiley, 1970
E.B. Lee, L. Markus Foundations of optimal control theory New York, Wiley, 1967.
Teorema 10.2 Sia T (s) una matrice con p righe ed m colonne, i cui elementi sono funzioni
razionali proprie della variabile s C, che si suppongono ridotte ai minimi termini. In queste
condizioni, esiste almeno una realizzazione di T (s).
Naturalmente, se esiste una realizzazione di T (s) allora ne esiste anche una minima, e quindi
canonica.

127
B,
C)

Proposizione 10.3 Se (A, B, C) (con dimensione dello spazio degli stati uguale ad n) e (A,
(con dimensione dello spazio degli stati uguale ad n
) sono due realizzazioni canoniche di una stessa
matrice di trasferimento T (s), allora n = n
, e inoltre i sistemi definiti dalle terne (A, B, C) e
B,
C)
sono linearmente equivalenti.
(A,
Dimostrazione della Proposizione 10.2 Per la Propriet`a 1, la funzione di trasferimento, una volta ridotta
ai minimi termini, si presenta come
T (s) =

N (s)
D(s)

e il grado del polinomio D(s) `e non superiore a n. Se il grado di D(s) fosse strettamente minore di n, allora
T (s) ammetterebbe realizzazioni di dimensione minore (strettamente) di n, e ci`o contraddirrebbe le ipotesi
di completa controllabilit`a e completa osservabilit`a. Dunque il grado di D(s) deve essere esattamente uguale
a n. Ne segue che T (s) ha esattamente n poli (contando le eventuali molteplicit`a). Indichiamo con s1 , . . . , sk
i poli distinti di T (s), e con 1 , . . . , k le loro molteplicit`a, cosicche 1 + . . . + k = n. Per la Propriet`a 4,
ciascun si `e un autovalore di A, di molteplicit`a algebrica maggiore o uguale a i . Ma gli autovalori di A non
possono essere (sempre contando le molteplicit`a) pi`
u di n. Dunque, se ci fossero autovalori di A diversi da
s1 , . . . , sk oppure se qualcuno degli si avesse, in quanto aoutovalore di A, molteplicit`a strettamente maggiore
di i , si arriverebbe ad un assurdo.

10.4

Sistemi SISO

Concentriamo adesso la nostra attenzione sui sistemi SISO. Si ricordi che per un sistema SISO
m = p = 1 e la matrice di trasferimento si riduce ad un unico elemento, costituito da una funzione
razionale propria, detta funzione di trasferimento.

10.4.1

Il problema della realizzazione nel caso SISO

Consideriamo la funzione razionale della variabile s C


T (s) =

N (s)
c0 + c1 s + . . . + ck sk
= n
.
D(s)
s + a1 sn1 + . . . + an

(10.9)

Se k < n, T (s) `e propria, e quindi in base al Teorema 10.2 deve esistere una sua realizzazione.
La seguente proposizione indica come una realizzazione della (10.9) possa essere costruita, fornendo
cos`, sia pure limitatamente al caso SISO, una dimostrazione del Teorema 10.2.
Proposizione 10.4 Se k < n, il sistema

x 1 = x2

...

x
= xn

n1

(10.10)

x n = an x1 . . . a1 xn + u(t)

con funzione di osservazione


y = c0 x1 + c1 x2 + . . . + ck xk+1
costituisce una realizzazione della (10.9).

(10.11)

128
Dimostrazione
Il sistema (10.10) `e equivalente allequazione differenziale ordinaria a coefficienti costanti lineare di ordine
n
(n) + a1 (n1) + . . . + an1 0 + an = u(t)

(10.12)

avendo posto = x1 . Prendendo la trasformata di Laplace di entrambi i membri, con le abituali notazioni,
si ottiene
(s) =

1
U (s)
pc (s)

dove pc (s) = sn + a1 sn1 + . . . + an = D(s) coincide, eventualmente a meno del segno, col polinomio
caratteristico della matrice del sistema (10.10). Tenendo conto della (10.11), con semplici calcoli si trova
infine
Y (s) =

c0 + c1 s + . . . + ck sk
N (s)
U (s) =
U (s) = T (s)U (s) .
pc (s)
D(s)

Come si doveva dimostrare, T (s) coincide quindi con la funzione di trasferimento del sistema (10.10)(10.11).

Chiaramente, la realizzazione (10.10)(10.11) fornita dalla Proposizione 10.2 `e completamente


controllabile, ma non `e detto che sia completamente osservabile. Il seguente corollario completa il
ragionamento.
Corollario 10.1 Se numeratore e denominatore della (10.9) sono privi di fattori comuni, il sistema
(10.10) con funzione di osservazione (10.11) rappresenta una realizzazione canonica della funzione
(10.9).
Dimostrazione Sappiamo gi`a che il sistema (10.10) con funzione di uscita (10.11) `e una realizzazione
completamente controllabile della (10.9). Se tale realizzazione non fosse anche completamente osservabile,
passando alla parte osservabile si otterrebbe una realizzazione con dimensione dello spazio degli stati n
< n.
Per la Propriet`a 1, il grado del polinomio D(s) dovrebbe essere non superiore a n
. Questo `e assurdo, perche
stiamo supponendo T (s) ridotta ai minimi termini.

Osservazione 10.3 In particolare, se nella (10.9) si prende k = 0 e c0 = 1, la (10.11) si riduce a


y = x1 e la realizzazione fornita dalla Proposizione 10.4 `e canonica.

Esempio 10.4 Consideriamo un sistema per cui linsieme degli ingressi ammissibili `e ristretto
alle funzioni u(t) di classe C k sullintervallo [0, +). Levoluzione del sistema sia governata da
unequazione lineare di ordine n
(n) + a1 (n1) + . . . + an1 0 + an = ck u(k) + . . . + c0 u

(10.13)

dove a1 , . . . , an , c0 , . . . , ck sono numeri reali, con n > k. Inoltre, si assume che luscita osservabile
coincida con lo stato . Tale modello, proprio a causa della presenza delle derivate dellingresso, a
prima vista non sembra rientrare nello schema (10.1).

129
Applicando loperatore L alla (10.13) si ottiene, a condizione che (0) = 0 (0) = . . . = (n1) (0) =
0 e che anche u(0) = u0 (0) = . . . = u(k) (0) = 0,
(sn + a1 sn1 + . . . + an )(s) = (ck sk + . . . + c0 )U (s)
cio`e
Y (s) = (s) =

ck sk + . . . + c0
U (s)
sn + a1 sn1 + . . . + an

dove, in accordo con lipotesi che m = p = 1, la matrice di trasferimento si riduce ad una funzione
scalare
T (s) =

sn

ck sk + . . . + c0
.
+ a1 sn1 + . . . + an

(10.14)

Si tratta di una funzione razionale propria (eventualmente non ridotta ai minimi termini) il
cui denominatore coincide (eventualmente a meno del segno) col polinomio caratteristico pc (s)
dellequazione omogenea associata alla (10.13).
Il sistema (10.13) pu`o quindi essere realizzato mediante unequazione del tipo (10.10) con
funzione di osservazione (10.11). Si noti che tale realizzazione `e completamente controllabile, ma
potrebbe risultare non completamente osservabile.
Nella modellizzazione dei sistemi fisici, casi in cui bisogna far comparire esplicitamente la
derivata dellingresso sono abbastanza frequenti.

10.4.2

Diagramma di Nyquist

Continuando a limitare lesposizione ai sistemi SISO, illustriamo adesso un criterio di natura grafica
che si applica alla funzione di trasferimento e che permette di riconoscere quando un dato sistema
ha la propriet`a di stabilit`a BIBO.
Osserviamo preliminarmente che, in virt`
u della Proposizione 10.2 e della Proposizione 5.5, per
un sistema del tipo SISO completamente controllabile e completamente osservabile le seguenti
affermazioni sono equivalenti:
i poli della funzione di trasferimento hanno tutti parte reale negativa
il sistema `e uniformemente BIBO-stabile.
Osservazione 10.4 Senza lipotesi che il sistema sia completamente controllabile e completamente
osservabile, lequivalenza tra queste asserzioni potrebbe venire a cadere. Per esempio, il sistema

x 1 = x1 + u

x = x
2
2

y = x1 + x2

non `e uniformemente BIBO-stabile, ma la sua funzione di trasferimento T (s) = 1/(s + 1) ha un


unico polo, negativo.

130
Ricordiamo poi che se T (s) `e una funzione razionale, per zero di T (s) si intende ogni numero
s0 C tale che T (s0 ) = 0. Se T (s) `e la funzione di trasferimento di un sistema, gli zeri di T (s)
hanno un significato fisico, come illustra lesempio seguente.
Esempio 10.5 Consideriamo il sistema definito dalle equazioni
00
+ a1 0 + a2 = u(t)

y = c 0 ,

con condizioni iniziali (0) = 0 e 0 (0) = 00 . Supponiamo che c sia stato scelto in modo che
c2 + a1 c + a2 6= 0. Si verifica facilmente che per un tale c, il sistema risulta, oltre che completamente
controllabile, anche completamente osservabile. Applicando la trasformata di Laplace alla parte
differenziale e operando nel solito modo, si ottiene
(s) =

1
s0 + [a1 0 + 00 ]
U
(s)
+
.
s2 + a1 s + a2
s2 + a1 s + a2

Tenendo poi conto della funzione di osservazione, si ha

Y (s) = c(s) [s(s) 0 ] =

cs
(c s)[s0 + (a1 0 + 00 )]
U
(s)
+
+ 0 .
s2 + a1 s + a2
s2 + a1 s + a2

(10.15)

Di qui si deduce la forma della funzione di trasferimento


T (s) =

s2

cs
.
+ a1 s + a2

Se scegliamo u(t) = ect , si ha U (s) = 1/(s c); nel primo addendo della (10.15) si ha una
semplificazione, ed eseguendo i calcoli si trova
Y (s) =

(c0 00 )s + (1 + a2 0 + ca1 0 + c00 )


.
s2 + a1 s + a2

Poiche c2 + a1 c + a2 6= 0, `e lecito prendere 00 = c0 e 0 = 1/(c2 + a1 c + a2 ). Il risultato finale


di queste scelte `e che Y (s) = 0.
In conclusione, abbiamo mostrato che se c `e uno zero della funzione di trasferimento, allora
esiste una funzione di ingresso e uno stato iniziale del sistema in corrispondenza dei quali luscita
`e identicamente nulla.
Questa conclusione vale in generale, anche se la sua verifica `e tuttaltro che banale. Dal punto di
vista pratico, questa conclusione `e importante. Essa suggerisce che, almeno in linea di principio, gli
zeri di un sistema possono essere determinati sperimentalmente, sottoponendo il sistema a ingressi
di tipo particolare e facendo variare i parametri e le condizioni iniziali finche non si ottenga uscita
nulla.

Sia ora T (s) una funzione razionale propria della variabile s C. Indichiamo con w = T (s) C
la variabile dipendente. I numeri complessi s possono essere immaginati come punti di un piano, nel
quale sia stato fissato un sistema di riferimento cartesiano di coordinate (Re s, Im s). Analogamente,
i numeri complessi w saranno immaginati in un piano riferito alle coordiante (Re w, Im w).

131
0.8

0.6

0.4

0.2

0.2

0.4

0.6

0.8
0.8

0.6

0.4

0.2

0.2

0.4

0.6

0.8

Figura 10.1: Curva dellEsempio 10.6.


Una funzione continua s = (t) da R in C pu`
o quindi essere interpretata come una curva piana,
cos` come la sua immagine attraverso T , w = T ((t)) = (t).
Se s = (t) `e semplice e chiusa, il suo sostegno circoscrive una regione (aperta) limitata, che
indicheremo con C. Naturalmente, se s = (t) `e semplice e chiusa, anche (t) sar`a chiusa, ma
non `e detto che sia semplice.
Esempio 10.6 Sia T (s) = 1/(s 1)(s 2). La Figura 10.1 mostra la curva immagine secondo
T della circonferenza

Re s = 2 + 2 cos t
Im s = 2 sin t .

Esempio 10.7 Sia T (s) = 1/(s 1)2 . Il tracciato della curva immagine secondo T della circonferenza

Re s = 1 + cos t
Im s = sin t

(Figura 10.2) d`a lillusione di una curva semplice chiusa: in realt`a, tale curva viene percorsa due
volte.

Sia data la curva s = (t) semplice e chiusa. Indichiamo con Z il numero degli zeri di T (s)
appartenenti a e con P il numero dei poli di T (s) appartenenti a . Supponiamo inoltre che sul
sostegno di (cio`e sul contorno di ) non vi siano ne zeri ne poli di T (s). Il seguente enunciato `e
un risultato classico della teoria delle funzioni complesse di variabile complessa.
Principio dellargomento Sia N il numero di volte che la curva (t) gira attorno allorigine
in senso antiorario, mentre il sostegno di viene percorso una volta in senso antiorario. Allora,
N = Z P.
Definizione 10.4 Il Diagramma di Nyquist di una funzione razionale propria T (s) `e il sostegno
della curva w = T ((t)) = (t), quando (t) = i t (t R).

132
1
0.8
0.6
0.4
0.2
0
0.2
0.4
0.6
0.8
1

0.8

0.6

0.4

0.2

0.2

0.4

0.6

0.8

Figura 10.2: Curva dellEsempio 10.7.


La curva (t) = i t da cui viene generato il diagramma di Nyquist non `e chiusa, ma si pu`o
pensare di chiuderla aggiungendo il punto allinfinito di C o, equivalentemente, il semicerchio di
raggio infinito che delimita il semipiano destro di C. Limmagine di fatta attraverso T appare
comunque come una curva chiusa: infatti, essendo T propria, il punto allinfinito viene trasformato
nellorigine. Si noti che, per costruzione, (t) = (Re T (i t), Im T (i t)).
Sia T (s) una funzione razionale propria per cui non vi sono ne zeri ne poli giacenti sullasse
immaginario. Tracciando il diagramma di Nyquist e supponendo di conoscere il numero Z, `e ora
possibile verificare se esistono o meno poli di T (s) nel semipiano destro di C (con un opportuno
accorgimento, `e possibile estendere questo criterio anche al caso in cui vi siano poli o zeri di T (s)
puramente immaginari).

10.4.3

Stabilizzabilit`
a BIBO

Sempre con riferimento ad un sistema SISO, vediamo adesso come il criterio di Nyquist pu`o essere
utile nella determinazione di retroazioni statiche delluscita atte a rendere uniformemente BIBOstabile un sistema dato.
Indicando, come al solito, con u R la variabile in ingresso e con y R la variabile in uscita,
cominciamo a vedere come cambia la funzione di trasferimento quando allingresso esterno u viene
sottratta una retroazione del tipo ky (il coefficiente k viene abitualmente chiamato guadagno; la
scelta del segno meno `e puramente convenzionale).
u- d v + 6

T (s)

- d y-

Sia T (s) la funzione di trasferimento rappresentativa di un sistema dato, che supponiamo completamente controllabile e completamente osservabile. Poniamo v = u ky. Facendo riferimento
alla figura, si ha
Y (s) = T (s)V (s) = T (s)(U (s) kY (s))
da cui

133

Y (s) + kT (s)Y (s) = T (s)U (S) .


Pertanto, per ogni s C per cui 1 + kT (s) 6= 0,
Y (s) = G(s)U (s) =

T (s)
1
U (s) =
1 + kT (s)
k

1
k

T (s)
U (s)
+ T (s)

avendo indicato con G(s) la funzione di trasferimento del sistema retroazionato.


Supponiamo anche per semplicit`a che G(s) non abbia nessun polo sullasse immaginario, e
introduciamo lulteriore notazione
1
+ T (s) .
k
Il nostro scopo, che `e quello di capire se una certa scelta del coefficiente k `e tale da rendere
uniformemente BIBO-stabile il sistema retroazionato, sar`a raggiunto se riusciamo a far vedere che
G(s) non ha poli con parte reale positiva.
H(s) =

Lemma 10.1 I poli di G(s) coincidono con gli zeri di H(s).


Dimostrazione Scriviamo T (s) = N (s)/D(s), dove N (s) e D(s) sono polinomi. Si ha
H(s) =

1 N (s)
D(s) + kN (s)
+
=
.
k
D(s)
kD(s)

Pertanto, s0 `e uno zero di H(s) se e solo se D(s0 ) + kN (s0 ) = 0. Daltra parte


G(s) =

N (s)

D(s)

N (s)
1
=
.
N (s)
D(s) + kN (s)
1+k
D(s)

Pertanto, s0 `e un polo di G(s) se e solo se D(s0 ) + kN (s0 ) = 0.

Inoltre, `e immediato osservare che i poli di H(s) coincidono con i poli di T (s). Il principio
dellargomento, applicato alla funzione razionale H(s), ci dice quindi che:
numero di poli di G con parte reale positiva = numero di poli di T con parte reale positiva +N
dove N indica il numero di giri che la curva H(i t) compie in senso antiorario attorno allorigine
quando t varia da a +.
Daltra parte, `e chiaro che N rappresenta il numero di giri che la curva T (i t) compie in
senso orario attorno al punto del piano complesso di coordinate ( k1 , 0), quando t varia da a
+.
Possiamo allora trarre la seguente conclusione.
Proposizione 10.5 La retroazione statica delluscita ky stabilizza in senso BIBO il sistema definito dalla funzione di trasferimento T (s) se il numero di giri che il diagramma di Nyquist di T
compie in senso orario attorno al punto ( k1 , 0), quando t varia da a + `e uguale al numero
dei poli instabili del sistema dato.
Nelle applicazioni pratiche, si traccer`a il diagramma di Nyquist della funzione di trasferimento
del sistema dato, e poi si andr`a a vedere se esiste k che soddisfa la condizione richiesta.

134

Capitolo 11

Controllo ottimo
Consideriamo un sistema lineare
x = Ax + Bu

(11.1)

dove x Rn e u Rm . Siano x
I , x
F Rn e supponiamo che x
F sia un punto raggiungibile da x
I .
In generale, dobbiamo aspettarci che il traferimento dello stato del sistema da xI a x
F possa essere
realizzato in molti modi diversi.
Esempio 11.1 In R2 , consideriamo il sistema

x 1 = u1
x 2 = u2 .

(11.2)

Il punto x
I = (1, 1) pu`o essere trasferito nellorigine x
F = (0, 0):
(a) usando il controllo costante u1 = 1, u2 = 1, in tempo T = 1;
(b) usando il controllo

(u1 , u2 ) =

(1, 0) se 0 t < 1
(0, 1) se 1 t 2

in tempo T = 2.
Ovviamente, sono possibili anche altre (infinite) strategie.
Un problema di controllo ottimo si formula introducendo un criterio che ci permetta di assegnare
un costo o un guadagno a ogni funzione di controllo. Risolvere il problema di controllo ottimo
significa determinare quei controlli che minimizzano il costo (o massimizzano il guadagno) tra tutti
quelli che trasferiscono il sistema dallo stato in cui si trova allistante iniziale nello stato desiderato.
Per esempio, nel caso dellesempio precedente, se il criterio adottato `e quello di minimizzare il tempo
necessario ad effettuare il trasferimento da x
I a x
F , la strategia (a) `e chiaramente preferibile alla
strategia (b). Se invece si vuole minimizzare un costo espresso convenzionalmente dalla quantit`
a
C=

Z T
0

(u1 + u2 )2 dt
135

136
allora conviene scegliere la strategia (b), perche con questa C = 2, mentre con la strategia (a)
C = 4.
Un problema di controllo ottimo dipende dalle matrici A, B che definiscono il sistema, ma anche
e soprattuto dal tipo di criterio che viene adottato. In questo capitolo ci limiteremo a due problemi
particolarmente importanti: il problema del tempo minimo e il problema del regolatore quadratico.
Tornando allEsempio 11.1, c`e ancora unimportante osservazione da fare. Se si utilizza il controllo costante u1 = k, u2 = k con k numero positivo, il tempo necessario per trasferire xI in
x
F diventa T = 1/k, che tende a zero al crescere di k. Pertanto, se non ci sono limitazioni sui
valori che il controllo pu`o assumere, la soluzione del problema di tempo minimo diventa banale.
Daltra parte, nelle applicazioni limplementazione di una funzione di controllo richiede limpiego di
energia, e quindi lassenza di vincoli sugli ingressi non `e unipotesi plausibile. Queste considerazioni
suggeriscono lopportunit`a di litare, nellimpostazione di un problema di ottimizzazione, linsieme
+, U ), dove U `e un sottoinsieme proprio di Rn , non
degli ingressi ammissibili allinsieme C(0,
vuoto e, in generale, limitato.

11.1

Raggiungibilit`
a in presenza di vincoli

Limportanza del ruolo che assume linsieme U dei vincoli imposti sui valori degli ingressi ammissibili
in un problema di ottimizzazione, comporta la necessit`a di ritornare sulla nozione di raggiungibilit`a
gi`a studiata nel Capitolo 7 limitatamente al caso U = Rm (assenza di vincoli).
Dati due stati x
I , x
F , diremo adesso che x
F `e raggiungibile da x
I al tempo T > 0 con controlli
+, U ) tale che x(T, xI , u()) = xF , e indicheremo
vincolati ad U se esiste un ingresso u() C(0,
con R(T, xI , U ) linsieme raggiungibile del sistema (11.1), ovvero linsieme di tutti gli stati che sono
raggiugibili da xI al tempo T , quando si ammettono solo controlli vincolati ad U .
Le propriet`a geometriche di R(T, x0 , U ) verranno a dipendere adesso non pi`
u solo dalle matrici
A e B, ma anche dallinsieme U . Per esempio, non sar`a pi`
u vero in generale che R(T, 0, U ) `e un
sottospazio di Rn . Di conseguenza, `e necessario prendere in considerazione una maggiore variet`
a
di nozioni di raggiungibilit`a, oltre a quelle gi`a introdotte nel Capitolo 7.
Definizione 11.1 Un sistema della forma (11.1), con insieme di vincoli U , si dice:

accessibile da x0 al tempo T quando R(T, x0 , U ) 6= ;

localmente raggiungibile da x0 al tempo T quando x0 R(T, x0 , U );

localmente raggiungibile lungo la soluzione libera da x0 al tempo T se x(T, x0 , 0) R(T, x0 , U );


Esempio 11.2 Si consideri un processo scalare di tipo lineare
x = x + u,

x, u R,

con vincoli sulle funzioni di controllo |u(t)| u0 , dove u0 R+ `e assegnato. Risolvendo lequazione,
per t 0 si ha
x(t) = et x0 +
e quindi

Z t
0

e(t ) u( ) d

137

et x0

Z t
0

e(t ) u0 d x(t) et x0 +

Z t
0

e(t ) u0 d

cio`e
et (x0 u0 ) + u0 x(t) et (x0 + u0 ) u0
e infine
et x0 (et 1)u0 x(t) et x0 + (et 1)u0 .
Chiaramente, il sistema `e accessibile e localmente raggiungibile lungo la soluzione libera, qualunque siano x0 e u0 (tenere presente che per t 0, et 1 0).

Se u0 < x0 < u0 , per ogni t si ha x0 R(t, x0 , U ) = (et (x0 u0 ) + u0 , et (x0 + u0 ) u0 ).


Dunque il sistema `e anche localmente raggiungibile a x0 . Inoltre, x0 u0 < 0 < x0 + u0 e quindi
R(x0 , U ) = R. Se invece x0 u0 allora R(x0 , U ) `e la semiretta [x0 , +). Il sistema non `e localmente
raggiungibile. Analogamente per x0 u0 .
Rimuovendo i vincoli sullingresso (ammettendo cio`e come ingressi tutte le funzioni continue a
tratti a valori in Rn ) si ottiene naturalmente un esempio di sistema globalmente raggiungibile.

La seguente proposizione permette di limitare lo studio delle propriet`a di raggiugibilit`a di un


sistema lineare al caso in cui x0 = 0.
Proposizione 11.1 Un sistema della forma (11.1), con insieme di vincoli U :
(i) `e accessibile da x0 al tempo T se e solo se `e accessibile dallorigine al tempo T ;
(ii) `e raggiungibile da x0 al tempo T lungo la soluzione libera se e solo se `e raggiungibile dallorigine

al tempo T lungo la soluzione libera ovvero, se e solo se 0 R(T, 0, U );


Si noti che, in assenza di vincoli, il sistema (11.1) `e accessibile da uno stato qualunque se e solo
se R(T, 0, Rm ) = Rn , e cio`e se e solo se il sistema `e globalmente raggiungibile al tempo T .
Abbiamo gi`a osservato che se U `e un sottoinsieme proprio di Rm , R(T, 0, U ) non `e pi`
u in
n
generale un sottospazio di R ; tuttavia, conserva una propriet`a importante.
Proposizione 11.2 Sia dato il sistema lineare (11.1). Per ogni T 0 e qualunque sia U (non
vuoto) linsieme R(T, 0, U ) `e convesso.

La dimostrazione `e banale se U `e convesso; richiede invece risultati avanzati di Teoria della


misura in generale1 .
Teorema 11.1 Supponiamo che il sistema (11.1) sia completamente controllabile. Supponiamo

inoltre che 0 U . Allora, 0 R(T, 0, U ).


1

si veda R. Conti, Processi di controllo lineari in Rn , Pitagora Editrice Bologna 1985 (quaderni UMI 30)

138
Dimostrazione Sia S una sfera di centro lorigine e raggio r contenuta nellinterno di U . Poiche il sistema
`e completamente controllabile, per ogni versore ei appartenente alla base canonica di Rn esiste un controllo
ui (t) : [0, T ] Rm che permette di raggiungere ei dallorigine in tempo T . I controlli ui (t) non rispettano
necessariamente i vincoli per`o, essendo funzioni continue a tratti su [0, T ], esiste M > 0 tale che
|ui (t)| < M

t [0, T ], i = 1, . . . , n .

r
Poiche il sistema `e lineare, i controlli u
i (t) = M
ui (t) permettono di raggiungere dallorigine in tempo T
i che costituiscono comunque una base di Rn . Questi nuovi controlli u
n vettori e
i (t) rispettano i vincoli.
Sempre in virt`
u della linearit`a, usando i controlli
ui (t) si raggiungono i punti
ei . Lasserto `e provato,
in quanto R(T, 0, U ) `e convesso.

Corollario 11.1 Nelle ipotesi del Teorema 11.1, il sistema ha la propriet`


a di raggiungibilit`
a locale
lungo la soluzione libera.
Corollario 11.2 Supponiamo che il sistema (11.1) sia completamente controllabile. Supponiamo

inoltre che U 6= . Allora, il sistema ha la propriet`


a di accessibilit`
a dallorigine qualunque sia T > 0.
Dimostrazione Per ipotesi, esiste una sfera di centro u0 U e raggio r contenuta in U . Sostituendo U con
il suo traslato
U {u0 } = {v : v = u u0 con u U }
si ottiene un sistema che soddisfa le ipotesi del Teorema 11.1. Basta infine osservare che
Z
R(T, 0, U ) = R(T, 0, U {u0 }) +

e(T s)A Bu0 ds .

Osservazione 11.1 Lipotesi 0 U `e un rafforzamento della condizione 0 U . Questultima


esprime il fatto che esiste un controllo ammissibile (u 0) per cui il sistema ammette una posizione
di equilibrio.

11.2

Controllo ottimo sullorizzonte finito

Conveniamo, senza ledere la generalit`a del problema, che lo stato in cui si desidera che il sistema si
trovi al termine del processo sia lorigine: poniamo cio`e xF = 0. Indichiamo quindi semplicemente
con x
lo stato in cui il sistema si trova inizialmente (cio`e al tempo t = 0).
Indichiamo con D(
x) linsieme delle terne (T, u(), x()) tali che:
1. T `e un numero positivo;
2. u(t) : [0, +) U `e un ingresso ammissibile (cio`e continuo a tratti e continuo a destra);
3. x(t) = x(t, x
, u()) `e la soluzione di (11.1) uscente da x
e corrispondente allingresso u(t);
4. x(T ) = 0.

139
Si noti che x() `e univocamente determinata da x
e u(). Se lorigine `e raggiungibile da x
a
qualche istante T (0, +), cio`e se 0 R(T, x
, U ), allora D(
x) `e certamente non vuoto.
Sia f0 (x, u) : Rn Rm R una funzione continua, data una volta per tutte. Siamo interessati
allo studio dei valori minimi assunti dallespressione
J(T, x
, u()) =

Z T
0

f0 (x(t), u(t)) dt

(11.3)

al variare della terna (T, u(), x()) in D(


x). Pi`
u precisamente, siamo interessati a caratterizzare le
terne (T, u(), x()) D(
x) (se esistono) in corrispondenza delle quali tali valori minimi vengono
assunti, come meglio specificato dalla definizione seguente.
. Si dice che la terna (T , u (), x ())
Definizione 11.2 Supponiamo che lorigine sia raggiungibile da x
D(
x) `e ottima se
J(T , x
, u ()) J(T, x
, u())
per ogni altra terna (T, u(), x()) D(
x).
Si noti che J dipende, oltre che da T e da x
, dalla scelta della funzione u(); in Analisi
Matematica, espressioni i cui valori dipendono da una funzione si chiamano funzionali.
Funzionali della forma (11.3) intervengono nella maggior parte dei problemi di controllo ottimo,
di interesse per le applicazioni.

11.3

Problema del tempo minimo

Il problema del tempo minimo consiste nel determinare, per ogni punto x trasferibile nellorigine,
quei controlli (ammesso che esistano) che permettono di effettuare il trasferimento da x a zero nel
minimo tempo possibile. Il problema del tempo minimo rientra nella forma generale introdotta
nella sezione precedente: infatti, scegliendo f0 1, si ha J(T, x
, u()) = T .
Come lascia intendere lesempio seguente, perche il problema abbia senso, conviene supporre
che U sia un sottoinsieme limitato di Rm .
Esempio 11.3 Consideriamo il semplice processo scalare x = u. Se non si impongono vincoli sui
valori di u, il trasferimento di un punto qualunque nellorigine pu`o essere effettuato in tempo arbitrariamente piccolo (infatti, aumentare |u| equivale ad aumentare la velocit`a e quindi a diminuire
il tempo necessario ad effettuare un certo spostamento). Se invece si pone 1 u 1, allora il
tempo minimo necessario per trasferire nellorigine un punto x `e esattamente uguale a |
x|.
Se una terna ottima (T , u (), x ()) D(
x) esiste, allora
T = T (
x) = min{T : 0 R(T, x
, U )} .
Pi`
u in generale, se lorigine `e raggiungibile da x
, possiamo definire T (
x) come
T (
x) = inf{T : 0 R(T, x
, U )} .

(11.4)

La (11.4) si chiama funzione di tempo minimo. Il problema del tempo minimo relativo al punto
x
ammette soluzioni se e solo se nella (11.4) il simbolo inf pu`o essere sostituito dal simbolo min,
cio`e se e solo se 0 R(T , x
, U ).

140
Teorema 11.2 (Esistenza dei controlli ottimi per il problema del tempo minimo) Sia x
un punto
trasferibile nellorigine. Sotto le seguenti ipotesi:
(i) U `e un sottoinsieme compatto di Rm ;
(ii) lorigine di Rm `e un punto interno ad U ;
(iii) il sistema (11.1) `e completamente controllabile (in assenza di vincoli);
esiste una terna ottima (T , u (), x ()) D(
x).
Non daremo una dimostrazione completa del Teorema 11.2, la quale richiede tra laltro, per
essere portata a termine in tutta la sua generalit`a, una estensione non banale del concetto di
ingresso ammissibile. Ci limiteremo ad elencare e commentare una serie di fatti (in parte gi`a noti
allo studente, in parte no) che, opportunamente combinati, portano alla conclusione.
Fatto 1. Nelle ipotesi del Teorema 11.2, x
`e un punto interno allinsieme R(T, x
, U ), per ogni T > 0
e ogni x
.
Segue facilmente dal Teorema 4.5 (Capitolo 4).
Fatto 2. Nelle ipotesi del Teorema 11.2, linsieme R(T, x
, U ) `e convesso per ogni T > 0 e ogni x
.
Si veda la Proposizione 4.3 (Capitolo 4).
Fatto 3. Nelle ipotesi del Teorema 11.2, linsieme R(T, x
, U ) `e compatto per ogni T > 0 e ogni x
.
Questo risultato richiede luso di metodi avanzati di Analisi Funzionale.

Fatto 4. Nelle ipotesi del Teorema 11.2, T1 < T2 = R(T1 , x


, U ) R(T2 , x
, U ), qualunque sia x
.
Segue dal Fatto 1 e dalle propriet`a delle soluzioni di un sistema di equazioni (11.1).
Fatto 5. Nelle ipotesi del Teorema 11.2, R(T, x
, U ) varia in maniera continua rispetto a T ,
qualunque sia x
.
Per dare un senso rigoroso al Fatto 5, bisogna definire la nozione di continuit`
a per le funzioni i
cui valori sono insiemi e dunque, prima ancora, bisogna definire una nozione di distanza tra insiemi.
Dati due sottoinsiemi non vuoti A, B di Rn , questo si pu`o fare introducendo le quantit`
a
dist(a, B) = inf dist(a, b) ,
bB

dist(A, b) = inf dist(a, b) ,


aA

h(A, B) = max{sup dist(a, B) , sup dist(A, b)} .


aA

Limitatamente ai sottoinsiemi compatti di

bB

Rn ,

h(A, B) costituisce effettivamente una distanza.

Dimostrazione del Teorema 11.2 Supponiamo, per assurdo, che 0 R(T, x


, U ) per ogni T > T , ma

0
/ R(T , x
, U ). Poich`e R(T , x
, U ) `e compatto, la distanza
dist(0, R(T , x
, U ))
`e strettamente positiva. Per la dipendenza continua di R(t, x
, U ) rispetto a t, deve quindi esistere un tempo
> 0 tale che
0
/ R(T, x
, U )
per ogni T < T + . Ci`o contraddice laffermazione precedente.

141
Una volta accertata lesistenza di terne ottime, si pone il problema di caratterizzarle. A tal fine
`e utile la seguente condizione necessaria.
Teorema 11.3 (Principio di massimo di Pontrjagin per il problema del tempo minimo) Supponiamo che valgano le ipotesi del Teorema 11.2. Sia x
un punto trasferibile nellorigine e sia
(T , u (), x ()) D(
x) una terna ottima per x
. Allora, esiste un soluzione (t) 6= 0 dellequazione
= A

(11.5)

(t)Bu (t) = max (t)Bu

(11.6)

tale che
uU

per tutti i t [0, T ] per cui u () `e continuo.


Lequazione (11.5) si chiama lequazione aggiunta della (11.1), e la variabile aggiunta. Si noti
che nel teorema precedente, `e trattata come vettore-riga.
Il vantaggio della (11.6) `e che riduce il problema di calcolare il minimo di un funzionale (la cui
variabile indipendente `e una funzione) al problema di calcolare il massimo di una funzione di m
variabili (sia pur parametrizzata da t).
Osservazione 11.2 Poiche la funzione u 7 (t)Bu `e lineare, i suoi punti di massimo si trovano
genericamente sulla frontiera di U . Se U `e un politopo (insieme formato da tutte le combinazioni
convesse di un numero finito di punti), genericamente i massimi si trovano sui vertici di U : si parla
in tal caso di controlli bang-bang. In particolare, se il controllo `e scalare (nel qual caso B `e un
vettore) e U = [1, 1], si ha

u (t) =

1
se (t)B > 0
1 se (t)B < 0 .

Il numero delle discontinuit`a di u dipende da quante volte cambia segno lespressione (t)B.
Osservazione 11.3 Grazie al Teorema 11.3, il problema del tempo minimo per il sistema (11.1)
potrebbe ritenersi completamente risolto se vi fosse un modo di associare ad ogni punto x le
opportune costanti di integrazione che permettono di selezionare, tra tutte le soluzioni di (11.5),
proprio la . Sfortunatamente, non si hanno indicazioni di carattere generale su come affrontare in
pratica questo problema. Ci`o nonostante, le informazioni sin qui raccolte sono comunque sufficienti,
in molti casi, a determinare esplicitamente i controlli ottimi (si veda il successivo Esempio 8.3).
Osservazione 11.4 Il Principio di massimo di Pontrjagin, benche venga qui enunciato solo con
riferimento ai sistemi lineari e per un problema specifico, `e un principio di carattere molto generale,
atto a caratterizzare le soluzioni di problemi di ottimizzazione quando le funzioni incognite sono
vincolate a prendere valori in un insieme compatto.
Il Principio di massimo di Pontrjagin per il problema del tempo minimo per i sistemi lineari
ammette una dimostrazione relativamente semplice, basata sui fatti precedentemente esposti e sulla
Proposizione seguente.

142
Proposizione 11.3 Supponiamo che valgano le ipotesi del Teorema 11.2 e sia x
un punto trasfe

ribile nellorigine. La terna (T , u (), x ()) D(


x) `e ottima relativamente a x
se e solo se per
ogni t [0, T ]
x (t) R(t, x
, U ) .

(11.7)

Dimostrazione Supponiamo per assurdo che esista un tempo t [0, T ] tale che

x (t) R(t, x
, U ) .
Per la dipendenza continua di R(t, x
, U ) rispetto a t, esiste t < t tale che
x (t) R(t, x
, U ) .
Sia u
(t) un controllo tale che x(t, x
, U ) = x (t). Costruiamo un nuovo controllo

u
(t)
per t [0, t]
u(t) =

u (t + (t t)) per t [t, T (t t)] .


Si avrebbe x(T (t t), x
, u()) = 0, il che contraddice lottimalit`a di T .
Viceversa, supponiamo valida la condizione (11.7) e ammettiamo, per assurdo, che T non sia ottimo.
Allora esisterebbe un istante T < T tale che 0 R(T, x
, U ). Per le propriet`a dellinsieme raggiungibile si
avrebbe quindi

0 R(T, x
, U ) R(T , x
, U )
contrariamente allipotesi.

Le terne che soddisfano la (11.7) si chiamano estremali. La Proposizione 11.3 stabilisce quindi
che una terna `e ottima se e solo se `e estremale. Abbiamo ancora bisogno di una semplice propriet`a
degli insiemi convessi. Se K Rn `e convesso e se x K, allora esiste un iperpiano (variet`
a
lineare di dimensione n 1) passante per x e che gode della propriet`a seguente: linterno di K
giace interamente in una delle due met`a dello spazio individuate da . Il vettore unitario 0 6= 0
ortogonale a , uscente da x e orientato verso la met`a dello spazio che non contiene K si dice una
normale esterna a K in x. Un insieme convesso K pu`
o avere, in certi punti della sua frontiera, pi`
u
normali esterne distinte.
Si ricordi linterpretazione geometrica del prodotto scalare: se v1 e v2 sono due vettori, allora
` allora chiaro che per un convesso
v1t v2 `e la lunghezza della componente di v2 nella direzione di v1 . E
K, se x K e se 0 `e una normale esterna a K in x, che conveniamo di scrivere come vettore-riga,
si ha
0 x = max 0 y .
yK

Dimostrazione del Teorema 11.3 Sia (T , x (), u ()) D(


x) una terna ottima per x
, di modo che
x (0) = x

x (T ) = 0 .

Per la Proposizione 11.3, la terna (T , x (), u ()) `e estremale e quindi esiste una normale esterna 0 6= 0
allinsieme R(T , x
, U ) nellorigine. Ne segue
0 = 0 x (T ) =

max

yR(T ,
x,U )

0 y .

143
Questultima si riscrive
"
0 = 0 e

T A

x
+

(T s)A

"

Bu (s) ds 0 e

Z
T A

x
+

(T s)A

Bu(s) ds

per ogni altro controllo u(t) : [0, T ] U . Semplificando e portando tutto a primo menbro, si ottiene
Z

0 e(T

s)A

B[u (s) u(s)] ds 0 .

Si riconosce nella funzione (t) = 0 e(T t)A una soluzione non nulla dellequazione (11.1).
Supponiamo ora che il Principio di massimo sia falso. Comunque sia stata scelta (t), dovrebbe esistere
un punto t [0, T ] ed un valore u
U tali che:
(1) u (t) `e continua in t
(2) (t) B[u (t) u
] < 0
Per la (2), e per la permanenza del segno, ci sarebbe allora un intorno (t , t + ) con > 0, tale che
la funzione
t 7 (t)B[u (t) u
]
`e negativa per t (t , t + ). Definiamo allora una funzione di controllo

se t (t , t + )
u
(t) =
u (t)
altrimenti,
e sia x
(t) la relativa traiettoria uscente da x
. Sia y = x
(T ). Chiaramente, si ha
n
per t (t , t + )
(t)B[u (t) u
(t)] < 0
=0
altrimenti
cos` che
Z

Z
(s)B[u (s) u
(s)] ds =

0 e(T

s)A

B[u (s) u
(s)] ds < 0

cio`e
Z

Z
0 e(T

s)A

Bu (s) ds <

0 e(T

s)A

Bu
(s) ds .

Riaggiungendo ad entrambi i membri 0 eT

x
, si ha

0 = 0 x (T ) < 0 y
in contraddizione con quanto trovato in precedenza.

Concludiamo riportando la trattazione di un esempio classico.


Esempio 11.4 Consideriamo il problema del trasferimento a zero in tempo minimo per il processo
bidimensionale

x 1 = x2
x 2 = u ,

1 u 1 .

(11.8)

144
4

10

10

Figura 11.1: Configurazione delle traiettorie ottime


Il sistema aggiunto `e dato da

1 = 0
2 = 1 .

(11.9)

e si ha quindi 1 c1 , 2 = c1 t + c2 . Il Principio di massimo conduce alla

u (t) =

1
se c2 c1 t > 0
1 se c2 c1 t < 0 .

che deve valere per ogni controllo ottimo. Ora, lespressione 2 = c2 c1 t cambia segno al pi`
u
una volta. I controlli ottimi dunque o sono continui oppure hanno ununica discontinuit`
a. Inoltre,
assumono solo i valori 1. Ci`o significa che ogni traiettoria ottima `e composta al pi`
u da due tratti,
di cui uno `e descritto da una soluzione del sistema

x 1 = x2
x 2 = 1

(11.10)

x 1 = x2
x 2 = 1.

(11.11)

e laltro da una soluzione del sistema

I sistemi (11.10) e (11.11) possono essere risolti, e le relative traiettorie disegnate nel piano
x1 x2 . Per quanto riguarda (11.10) si ha:

2
2

x1 = (t + k2 ) k2 + k1
2
2

x 2 = t + k2

145
e cio`e
x1 =

x22
+ costante
2

e per quanto riguarda (11.11)

2
2

x1 = (k2 t) + k + k1
2
2

x 2 = k2 t

cio`e
x1 =

x22
+ costante.
2

Si vede allora che gli unici punti che possono essere trasferiti allorigine con controllo continuo
sono quelli che si trovano o sul ramo di parabola 2x1 = x22 , x2 < 0 (con u = +1) oppure quelli che
si trovano sul ramo di parabola 2x1 = x22 , x2 > 0 (con u = 1). In tutti gli altri casi il controllo
ottimo presenta una discontinuit`a e precisamente: u vale prima +1 e poi 1 per i punti del piano
che si trovano nella zona
n

(x1 , x2 ) : x1 < 0, x2 <

o n
o

2x1 (x1 , x2 ) : x1 0, x2 < 2x1

mentre vale prima 1 e poi +1 nella parte rimanente del piano. La Figura 8.1 mostra la configurazione delle traiettorie ottime.

11.4

Controllo ottimo sullorizzonte infinito

Consideriamo ancora il sistema lineare (11.1), e sia x


Rn . Sia E(
x) linsieme formato da tutte le
coppie (u(), x()) tali che:
1. u(t) : [0, +) U `e un ingresso ammissibile (cio`e continuo a tratti e continuo a destra);
2. x(t) = x(t, x
, u()) `e la soluzione di (11.1) uscente da x
e corrispondente allingresso u(t);
3. limt+ x(t) = 0.
Linsieme E(
x) `e non vuoto per ogni x
se e solo se il sistema (11.1) `e asintoticamente controllabile.
Consideriamo inoltre, come nelle sezioni precedenti, una funzione continua f0 (x, u) : Rn Rm
R. Siamo adesso interessati allo studio dei valori minimi assunti dallespressione
J(
x, u()) =

Z +
0

f0 (x(t), u(t)) dt

(11.12)

al variare della coppia (u(), x()) in E(


x). Rispetto al caso dellorizzonte finito, questa volta abbiamo
un problema in pi`
u: infatti, la condizione (u(), x()) E(
x) non garantisce in generale che lintegrale
nella (11.12) sia convergente.

146
Definizione 11.3 Si dice che la coppia (u (), x ()) E(
x) `e ottima se in corrispondenza di tale
coppia lintegrale improprio che definisce il funzionale (11.12) converge, e inoltre
J(
x, u ()) J(
x, u())
per ogni altra coppia (u(), x()) E(
x).

11.5

Regolatore quadratico

Facciamo sempre riferimento al sistema lineare (11.1), questa volta con U = Rm . Nella sua versione
pi`
u semplice, il problema del regolatore quadratico sullorizzonte infinito consiste nel minimizzare
il funzionale
J(
x, u()) =

Z +
0

||x(t)||2 + ||u(t)||2 dt

(11.13)

al variare della coppia (u(), x()) in E(


x) ed `e, come vedremo, strettamente collegato al problema
della stabilizzabilit`a mediante retroazione statica dello stato.
Il funzionale (11.13) rientra nella forma (11.12), con f0 (x, u) = ||x||2 + ||u||2 . Si noti che per
ogni (u(), x()) E(
x), J(
x, u()) 0.
Intuitivamente, il funzionale (11.13) pu`o essere pensato come una misura dellenergia impegnata
nellazione di controllo, sommata a quella immagazzinata nel sistema nel corso del processo. Il problema del regolatore quadratico si interpreta quindi come un problema di trasferimento asintotico
con energia minima.
Abbiamo gi`a osservato che linsieme E(
x) `e non vuoto per ogni x
se e solo se il sistema (11.1) `e
asintoticamente controllabile. Daltra parte, per il Teorema 6.8, il sistema (11.1) `e asintoticamente
controllabile se e solo se `e stabilizzabile con retroazione statica dello stato.
Cominciamo col far vedere che se E(
x) `e non vuoto per ogni stato iniziale x
Rn , allora possiamo
sempre trovare, per ogni x
, un ingresso ammissibile in corrispondenza del quale lintegrale improprio
nella (11.13) converge. Da qui segue poi, ovviamente, che lestremo inferiore di J(
x, u()) `e sempre
finito.
Proposizione 11.4 Se E(
x) `e non vuoto per ogni x
Rn , allora per ogni stato iniziale x
esiste
m
un ingresso ammissibile ux (t) : [0, +) R tale che
Z +
0

||x(t)||2 + ||ux (t)||2 dt <

(11.14)

avendo posto per semplicit`


a x(t) = x(t, x
, ux ()).
Dimostrazione Se E(
x) `e non vuoto per ogni x
Rn , il sistema (11.1) `e asintoticamente controllabile e
quindi `e anche stabilizzabile con una retroazione del tipo u = F x. La soluzione x(t) del problema

x = (A + BF )x
x(0) = x

converge a zero esponenzialmente. Ma x(t) coincide ovviamente con la soluzione del problema

x = Ax + Bux (t)
x(0) = x

147
dove si `e definito ux (t) = F x(t). Dunque (x(t), ux (t)) E(
x), e inoltre anche ux (t) converge a zero esponenzialmente. Dalla convergenza esponenziale dei due addendi segue subito la convergenza dellintegrale
(11.14).

Una volta che ci siamo assicurati della convergenza dellintegrale nella (11.13), possiamo procedere nello studio del problema del regolatore quadratico, che consiste nellindagare lesistenza di
coppie ottime e sviluppare metodi per la loro caratterizzazione.
Nelle ipotesi della Proposizione 11.4, faremo vedere che per ogni x Rn la coppia ottima esiste
ed `e unica. Mostreremo anche che il controllo ottimo si pu`o rappresentare in forma di retroazione,
e che tale retroazione `e stabilizzante per il sistema dato.
Osservazione 11.5 Introduciamo la notazione
V (
x) = inf J(
x, u())
dove lestremo inferiore `e preso rispetto a tutte le coppie (x(), u()) E(
x). Come nel caso del
problema del tempo minimo, provare lesistenza di soluzioni equivale a mostrare che il simbolo
inf pu`o essere sostituito col simbolo min. Pi`
u avanti faremo anche vedere che V (
x) `e una
funzione quadratica, e che pu`o essere usata come funzione di Liapunov per il sistema che si ottiene
applicando, a meno di un coefficiente moltiplicativo, la retroazione stabilizzante ottima.
Ricordiamo dal Capitolo 6 (Teorema 9.7) che (11.1) `e stabilizzabile se e solo se esiste una
soluzione P simmetrica e definita positiva dellequazione matriciale algebrica di Riccati
At P + P A P BB t P = I .

(11.15)

Lemma 11.1 Supponiamo che E(


x) sia non vuoto per ogni x
Rn . Supponiamo inoltre che lequazione matriciale (11.15) ammetta una soluzione simmetrica e definita positiva. Allora, per ogni
x
Rn il sistema

x = Ax BB t t
= xt A

(11.16)

ha una soluzione (x (t), (t)) tale che


x (0) = x
, (0) = x
t P

lim x (t) = lim (t) = 0 .

t+

t+

(11.17)

Dimostrazione Sia P una soluzione dellequazione matriciale (11.15), e sia x(t) la soluzione del sistema
x = Ax BB t P x

(11.18)

tale che x(0) = x


. Si noti che il sistema (11.18) si ottiene da (11.1) applicando la retroazione u = B t P x.
Definiamo
x (t) = x(t)

(t) = x(t)t P

(11.19)

e verifichiamo che (x (t), (t)) risolve il sistema (11.16). La prima equazione `e certamente soddisfatta:
infatti, tenuto conto della definizione di , essa si riduce alla (11.18). Per quanto riguarda la seconda,
utilizziamo la (11.15):

148

= x t P = (Ax BB t P x)t P = xt At P xt P BB t P = xt xt P A = (x )t A .
Il fatto che limt+ x (t) = 0 lo si deduce dal Teorema 9.7 del Capitolo 6. Il fatto che anche (t) tenda
a zero per t + lo si deduce di conseguenza dalla seconda delle (11.19).

La variabile che compare nel sistema (11.16) ha qualche analogia con quella, indicata con
la stessa lettera, utilizzata nel problema del tempo minimo: per questa ragione, anche in questo
problema, prende il nome di variabile aggiunta e viene trattata come vettore-riga.
Osservazione 11.6 Lenunciato del Teorema 9.7 richiamato pocanzi, afferma pi`
u precisamente
t
che il sistema (11.1) viene stabilizzato da ogni retroazione u = F x, con F = B P e 12 . La
retroazione utilizzata nella dimostrazione del Lemma 11.1 `e di questa forma, con = 1. Il Teorema
seguente afferma che questa retroazione, con = 1, oltre a stabilizzare il sistema formisce anche la
soluzione del problema del regolatore quadratico.
Teorema 11.4 Supponiamo che E(
x) sia non vuoto per ogni x
Rn . Allora, qualunque sia x
Rn ,
fra tutte le coppie del tipo (u(), x()) E(
x) ne esiste una (e una sola) che rende minimo (e finito)
il funzionale (11.13). Per ogni x
, il controllo ottimo ha la forma
u (t) = B t P x (t)
dove P `e una soluzione definita positiva della (11.15), e pu`
o quindi essere espresso in forma di
retroazione.
Dimostrazione Fissiamo x
, e sia (x (t), (t)) la soluzione del sistema (11.16) soddisfacente alle condizioni

(11.17); si ricordi che (t) = (x (t))t P . Definiamo u (t) = B t ( (t))t = B t P x (t).


Per quanto gi`a visto (Lemma 11.1), qualunque sia x
, x (t) coincide:
con la soluzione del sistema che si ottiene applicando a (11.1) la retroazione stabilizzante u = B t P x
e relativa allo stato iniziale x
;
e anche con la soluzione del sistema (11.1) corrispondente al controllo u(t) = u (t) e relativa allo stato
iniziale x
.
In particolare, `e chiaro che (u (), x ()) E(
x). Proveremo che (u (), x ()) `e proprio la coppia ottima
cercata. Ripetendo il ragionamento fatto nella dimostrazione della Proposizione 11.4, si deduce intanto che
Z

(||x (t)||2 + ||u (t)||2 ) dt < +

A ogni coppia del tipo (u(), x()) E(


x), possiamo associare la funzione
Z

(t) =

(||x(s)||2 + ||u(s)||2 ) ds .

Indichiamo in particolare
Z
(t) =

(||x (s)||2 + ||u (s)||2 ) ds .

Si tratta di far vedere che qualunque sia x


,

149

J(
x, u()) = lim (t) J(
x, u ()) = lim (t) .
t+

t+

A questo scopo, definiamo due ulteriori funzioni


(t)
(t)x(t) e
2
Calcoliamo la derivata di h(t):
h(t) =

h (t) =

(t)
(t)x (t) .
2

dh(t)
(t)

(t)

=
(t)x(t) (t)x(t)
+ (x (t))t x(t) + (t)Ax(t) (t)Ax(t) (t)Bu(t) .

=
dt
2
2
Semplificando e integrando, si ottiene
(t)
h(t) h(0) =
+
2

(x (s))t x(s) (s)Bu(s) ds

ovvero

h(t) + (0)
x=

Z t

||x(s)||2
||u(s)||2
+ (x (s))t x(s) +
(s)Bu(s)
ds .
2
2

Ripetendo gli stessi calcoli su h (t), e ricordando la definizione di u , si ottiene


Z

1 t
h (t) + (0)
x=
||x (s)||2 + || (s)B||2 ds .
2 0

(11.20)

(11.21)

Torniamo alla (11.20). Completando il quadrato, il secondo addendo che compare nellintegrale si pu`o
riscrivere come

||u(s)||2
(s)Bu(s)
2

1
u(s) + B t ( (s))t u(s) + B t ( (s))t +
2
t

1 t
+ B ( (s))t B t ( (s))t =
2
1
(|| (s)B||2 ||u(s) + B t ( (s))t ||2 ) .
2

Qualunque sia s, evidentemente questultima espressione assume il valore massimo unicamente quando
u(s) = u (s) = B t ( (s))t . In particolare

Z t
Z
||u(s)||2
1 t

(s)Bu(s) ds
|| (s)B||2 ds .
2
2 0
0
Per quanto riguarda il primo addendo che compare nellintegrale (11.20), possiamo sfruttare la relazione
0 ||x(s) x (s)||2 = (x(s) x (s))t (x(s) x (s)) = ||x(s)||2 2(x(s))t x (s) + ||x (s)||2
per ricavare la maggiorazione
Z t

Z
||x(s)||2
1 t
+ (x (s))t x(s) ds
||x (s)||2 ds .
2
2 0

In definitiva, confrontando (11.20) e (11.21), si ha


h(t) + (0)
x h (t) + (0)
x

150
per ogni coppia del tipo (x(), u()) E(
x). Semplificando e passando al limite, per il teorema del confronto
si deduce
lim h(t) lim h (t)

t+

t+

Ricordando infine la definizione di h e h , e le condizioni (11.17) si arriva a


lim (t) lim (t)

t+

t+

che `e quanto si doveva dimostrare.

Proposizione 11.5 Supponiamo che (11.1) sia stabilizzabile, sia V (


x) la funzione definita nellOsservazione 11.5. Allora, per ogni x
si ha V (
x) = x
t P x
, dove P `e la matrice simmetrica e
definita positiva soluzione della (11.15).
Dimostrazione Siano x (t), u (t) come nella dimostrazione del Teorema 11.3, e consideriamo la funzione
H(t) = (x (t))t P x (t). Si ha
dH
(t) =
dt
=
=
=

(x (t))t P x (t) + (x (t))t P x (t) =


(Ax (t) BB t P x (t))t P x (t) + (x (t))t P (Ax (t) BB t P x (t)) =
(x (t))t [At P + P A 2P BB t P ]x (t) =
(x (t))t x (t) (x (t))t P BB t P x (t)

dove si `e fatto uso della (11.15). Integrando lidentit`a trovata, si ha


Z t

H(t) H(0) =
||x (s)||2 + ||u (s)||2 ds .
0

Passando al limite per t +, nelle nostre ipotesi x (t), e quindi anche H(t), tende a zero. Dunque,
Z +

t
H(0) = x
Px
= V (
x) =
||x (t)||2 + ||u (t)||2 dt .
0

Osservazione 11.7 Si verifica facilmente che V (x) = xt P x `e una funzione di Liapunov per il
sistema che si ottiene da (11.1) applicando la retroazione u = 12 B t P x.

Appendici

151

152

A. Richiami di algebra lineare


La Teoria dei sistemi di equazioni differenziali lineari, cos` come la Teoria dei sistemi di controllo
lineari, si basa pesantemente sullAlgebra lineare. Riteniamo pertanto opportuno richiamare in
questa appendice le nozioni e i risultati di Algebra lineare utilizzati in questo corso, e che per altro
dovrebbero gi`a essere noti allo studente.

A.1

Spazi vettoriali

Sia K = R oppure C. Uno spazio vettoriale V su K `e un insieme di elementi per i quali sono
definite unoperazione di somma, che associa ad ogni coppia v1 , v2 V un elemento v1 + v2 V e
unoperazione di prodotto per scalari, che associa a ogni coppia k K, v V un elemento kv V .
Tali operazioni rispettano le usuali propriet`a algebriche: in particolare esiste un elemento 0 V
tale che v + 0 = v e k 0 = 0 per ogni v e k.
Gli elementi di V si chiamano vettori (talvolta, anche se impropriamente, punti); lelemento 0
si chiama vettore nullo (o anche origine).
Un sottospazio W di V `e un sottoinsieme non vuoto W V tale che w1 , w2 W w1 + w2
W e w W, k K kw W . Ovviamente ogni sottospazio W di V contiene lorigine.
Esempi di spazi vettoriali su R sono Rn , linsieme M (n, m) di tutte le matrici reali con n righe
e m colonne, linsieme C 0 (I, Rn ) di tutte le funzioni continue x(t) : I Rn . Un esempio di spazio
vettoriale su C `e Cn .
Se q < n, linsieme {x = (x1 . . . xn ) Rn : xq+1 = . . . = xn = 0} `e un sottospazio di Rn . Se
a1 , . . . , an sono numeri fissati, linsieme
{x Rn : a1 x1 + . . . + an xn = 0}
`e un sottospazio di Rn . Linsieme C 1 (I, Rn ) delle funzioni dotate di derivata continua su I `e un
sottospazio di C 0 (I, Rn ). Se si identifica Rn con linsieme di tutti i vettori z Cn della forma
z = x + i0 con x Rn , allora Rn non `e un sottospazio di Cn .
Sia W V un sottospazio (non `e escluso che W = V ). Un sottoinsieme A V si dice un
sistema di generatori di W se ogni v W si pu`o scrivere come combinazione lineare di un numero
finito di elementi di A, ovvero v =

n
X

ki vi , per certi vi A e ki K

i=1

(i = 1, . . . , n).

Sia B = {v1 , . . . , vn } un sottoinsieme finito di V . Si dice che gli elementi di B sono linearmente
dipendenti se esistono scalari a1 , . . . , an K non tutti nulli tali che
n
X

ai vi = 0 .

i=1

153

154
Per esempio, due vettori v1 e v2 non nulli sono linearmente dipendenti se e solo se k K :
v1 = kv2 .
Un sottoinsieme A V si dice formato da vettori linearmente indipendenti se non esiste nessun
sottoinsieme finito di A i cui elementi siano linearmente dipendenti.
Un sottoinsieme A V che sia costituito da vettori linearmente indipendenti e che sia anche
un sistema di generatori di V , si dice una base. Se esiste una base formata da un numero finito n di
elementi, si dice che V ha dimensione finita e si scrive dim V = n. Una base di Rn `e per esempio
costituita dalle n-ple di numeri

1
0

.. ,
.
0

0
1

.. , . . . ,
.
0

0

..
.

che `e spesso uso scrivere come colonne. Tale base si chiama la base canonica di Rn .
Sia V uno spazio di dimensione finita, e sia = {v1 , . . . , vn } una sua base. Per ogni v V ,
restano univocamente determinati n scalari x1 , . . . , xn K tali che v =
dicono le componenti di v nella base . Si scrive anche

n
X

xi vi . Tali scalari si

i=1

x1
..
v= . .
xn
I vettori xi vi V si dicono anche i componenti di v; il vettore v viene quindi decomposto in modo
unico mediante vettori paralleli ai vettori della base. Si noti che se v V , linsieme {w : w = kv
per k K} `e un sottospazio unidimensionale di V .
Pi`
u in generale, dato un numero finito di sottospazi V1 , . . . , Vq di V , si dice che questi costituiscono una decomposizione in somma diretta di V se v V e i = 1, . . . , q resta univocamente determinato un elemento wi Vi in modo che

q
X
i=1

wi = v. Si scrive anche v =

wi . Il componente

i=1,...,q

wi di v relativo a Vi si dice anche la proiezione di v su Vi .


In questo corso opereremo soprattutto negli spazi Rn e Cn , ed useremo quindi il termine
vettore come sinonimo di n-pla di numeri. Come gi`a osservato, gli elementi di Rn e di Cn si
scrivono spesso come colonne. Noi tuttavia considereremo questo come un uso a cui uniformarsi
quando possibile, ma non come una regola fissa. Talvolta infatti, per ragioni tipografiche o di
esposizione (e quando ci`o non dia adito ad ambiguit`
a di interpretazione), pu`o essere conveniente
scrivere tali elementi come righe.

A.2

Applicazioni lineari

Unapplicazione L di uno spazio vettoriale V in uno spazio vettoriale W si dice lineare se v1 , v2 ,


k1 , k2 K si ha L(k1 v1 + k2 v2 ) = k1 Lv1 + k2 Lv2 .
Le applicazioni lineari di V in s`e si dicono anche endomorfismi.
Siano ora V e W di dimensione finita, diciamo dim V = n e dim W = m. Fissate rispettivamente
una base di V e una di W , esiste una matrice AL con n colonne e m righe tale che v V , le
componenti di Lv si ottengono eseguendo il prodotto righe-colonne tra AL e la colonna costituita

155
dalle componenti di v. Viceversa data una matrice A con n righe e m colonne, e fissate delle basi
per V e W , resta univocamente determinata unapplicazione lineare L di V in W .
Lapplicazione identica di V in se `e associata alla matrice identica, ossia alla matrice quadrata
i cui elementi sono tutti nulli tranne quelli della diagonale principale che sono tutti uguali a 1. La
matrice identica si indica, usualmente, con la lettera I.
Se L `e unapplicazione lineare di V in W , linsieme
ker L = {v V : Lv = 0}
si chiama nucleo di L ed `e un sottospazio di V , mentre linsieme
im L = {w W : w = Lv per qualche v V }
si chiama limmagine di L ed `e un sottospazio di W . In generale,
dim ker L + dim im L = dim V .
Se V1 , . . . , Vq costituiscono una decomposizione in somma diretta di V allora per ogni i, lapplicazione i che associa a ogni v la sua proiezione wi Vi `e un endomorfismo di V . Endomorfismi
di questo tipo si dicono operatori di proiezione.
Se = {v1 , . . . , vn } e 0 = {v10 , . . . , vn0 } sono due basi di V , uno stesso vettore v sar`
a rappresen0
0
tato da certe componenti x1 , . . . , xn nella base , e da certe componenti x1 , . . . , xn nella base 0 .
La relazione che lega le componenti di uno stesso vettore in basi diverse non dipende dal vettore
ma solo dalle basi scelte. Essa `e rappresentata per mezzo di una matrice non singolare P . Pi`
u
0
precisamente, fissate le basi e esiste una matrice P con det P 6= 0 tale che

x01
x1
..
..
. =P .
xn
x0n
qualunque sia il vettore v V . Tale matrice P `e quella le cui colonne sono costituite, ordinatamente,
dalle componenti dei vettori della base 0 nella base . Posto infatti vi0 = p1i v1 + . . . + pni vn e
v = x01 v10 + . . . + x0n vn0 , si ha
v = x01 (p11 v1 + . . . + pn1 vn ) + . . . + x0n (p1n v1 + . . . + pnn vn ) =
=

(p11 x01

+ ... +

p1n x0n )v1

= x1 v1 + . . . + xn vn .

+ ... +

(pn1 x01

+ ... +

pnn x0n )vn

(A.1)
(A.2)
(A.3)

La matrice P si dice la matrice del cambiamento di base.


Sia ora L unapplicazione lineare di V in W , e sia AL la matrice che rappresenta L rispetto a
certe basi fissate di V e W . Eseguiamo cambiamenti di base in V e W , rispettivamente associati a
matrici non singolari P e Q. Allora la matrice che rappresenta L nelle nuove basi sar`a Q1 AL P .
Sia in particolare L un endomorfismo di V . Date due basi e 0 di V , il passaggio da a 0 sar`
a
associato ad una matrice P , mentre il passaggio inverso sar`a associato a P 1 . Se AL `e la matrice
che rappresenta L come operatore di V (riferito alla base ) in V (sempre riferito, ovviamente, a
), allora la matrice che rappresenta L come operatore di V in se con riferimento alla base 0 `e
P 1 AL P .

156

A.3

Matrici

Si ricorda che due matrici quadrate A e B si dicono simili quando esiste una matrice non singolare
P tale che B = P 1 AP . La similitudine `e una relazione di equivalenza.
Si ricordi la definizione di spazio vettoriale normato e di spazio vettoriale dotato di prodotto
scalare. Si ricordi in particolare che se V `e dotato di prodotto scalare h, i, allora la relazione
q

kvk =

hv, vi

definisce una norma e vale la disuguaglianza di Cauchy-Schwarz


|hv, wi| kvk kwk .

y1
x1
..
..
n
In R tipicamente, se v = . e w = . ,
xn
yn
hv, wi =

n
X

xi yi

v
u n
uX
kvk = t x2i .

i=1

i=1

Se A `e una matrice di elementi {ai,j } (i = 1, ..., n, j = 1, ..., m), si definisce la norma di A come
kAk =

sX

a2ij .

i,j

Con riferimento alle basi canoniche, una matrice


A = {ai,j }
(i = 1, ..., n, j = 1, ..., m) definisce unapplicazione lineare di Rm in Rn . Per ogni v Rm si ha
allora
kAvk kAk kvk .
In questo corso adotteremo inoltre il simbolo At per indicare la trasposta della matrice A. Il
prodotto scalare tra i vettori v e w di Rn si pu`o anche calcolare eseguendo il prodotto righe-colonne
hv, wi = v t w .

A.4

Autovalori, autovettori, forma di Jordan

Sia ora A una matrice quadrata n n, a elementi reali. Rispetto alle basi canoniche, A pu`
o essere
interpretata come un endomorfismo di Cn .
Ricordiamo che C `e un autovalore di A se esiste v Cn tale che v 6= 0 e
(A I)v = 0 .

(A.4)

Ogni v 6= 0 per cui vale la (A.4) si dice un autovettore (in senso stretto) di A relativo a .
Lespressione pc () = det (A I) rappresenta un polinomio di grado n. Esso prende il nome

157
di polinomio caratteristico di A, e lequazione algebrica che si ottiene annullando il polinomio
caratteristico
pc () = det (A I) = 0

(A.5)

` possibile dimostrare che pc (A) = 0 (Teorema di Cayleyprende il nome di equazione caratteristica. E


Hamilton). Da ci`o segue in particolare che ogni potenza Ak con k n si pu`o rappresentare come
combinazione lineare delle matrici I, A, A2 , . . . , An1 .
Unaltra ovvia conseguenza del Teorema di Cayley-Hamilton `e che linsieme dei polinomi che
ammettono A come zero (quando interpretati come polinomi in una indeterminata matriciale)
non `e vuoto. Tra tutti questi polinomi, quello di grado minimo si chiama il polinomio minimo di
A: si prova che il polinomio minimo `e unico (a meno di una costante moltiplicativa). Il grado del
polinomio minimo `e minore o uguale ad n.
Come noto, gli autovalori di A sono tutte e solo le soluzioni dellequazione caratteristica (A.5).
Ad ogni autovalore resta quindi associata una molteplicit`
a algebrica , in modo che se indichiamo
con 1 , . . . , k gli autovalori distinti di A, k n e 1 + . . . + k = n.
Per ogni autovalore i di A, il numero di soluzioni linearmente indipendenti della (A.4) si indica
con i e si chiama la molteplicit`
a geometrica di i . Si ha che 1 i i per ogni i = 1, ..., k.
Se per ogni i si ha i = i (cio`e se lendomorfismo associato ad A `e semplice), esiste una base
propria per A, vale a dire una base di Cn tutta formata da autovettori di A. In tal caso A risulta
diagonalizzabile, cio`e simile alla matrice a blocchi

C1
0

..
.

0
C2
..
.

...
...

0
0
..
.

...

Ck

ove per ogni i, Ci = i I `e una matrice diagonale i i .


La matrice P che opera la trasformazione di A nella sua forma diagonale `e quella le cui colonne
sono formate dalle componenti rispetto alla base canonica dei vettori di una base propria di A
scritti in un ordine opportuno.
Se invece per qualche i si ha i < i , allora si dimostra che esistono k sottospazi V1 , . . . , Vk
L
di Cn tali che dim Vi = i per i = 1, ..., k e Cn = i=1,...,k Vi . Si prova inoltre che qualunque sia
i = 1, . . . , k, il sottospazio Vi `e invariante per A, ovvero
v Vi = Av Vi .
Ciascun sottospazio Vi si dice lo spazio proprio associato allautovalore i . Esso `e costituito da
tutti gli autovettori in senso generalizzato relativi a i , ossia da tutte le soluzioni del sistema
(A I)i v = 0 .

(A.6)

In particolare, se v `e un autovettore in senso stretto relativo a i , allora `e anche un autovettore


in senso generalizzato. Vale anzi la seguente proposizione.
Proposizione A.1 Un vettore v Cn `e soluzione della (A.6) se e solo se esistono un intero
positivo l i e l 1 vettori v1 , ..., vl1 Cn tali che

158

(A i I)v1 = 0

(A i I)v2 = v1

(A i I)v3 = v2

..................

(A i I)vl1 = vl2

(A.7)

(A i I)v = vl1 .

Dimostrazione Sia v soluzione della (A.6), e sia l il pi`


u piccolo intero positivo (necessariamente minore o
uguale di i ) per cui
(A i I)l v = 0 .
Se l = 1, allora v = v1 e v `e un autovettore in senso stretto. Altrimenti si ponga
v1
v2
vl1

= (A i I)l1 v
= (A i I)l2 v
.......
= (A i I)l(l1) v = (A i I)v .

(A.8)

I vettori v1 , . . . , vl1 sono quelli cercati. Infatti, moltiplicando per (A i I) ambo i membri di ciascuna
delle relazioni precedenti si ricava subito
(A i I)v1 = (A i I)l v = 0
(A i I)v2 = (A i I)l1 v = v1
.......
.......
(A i I)vl1 = (A i I)2 v = vl2 .
Lultima delle (A.7) non `e poi altro che lultima delle (A.8).
Viceversa, se v `e ottenuto mediante le (A.7) si ha
(A i I)2 v
(A i I)3 v
.......
(A i I)l1 v
(A i I)l v

= (A i I)vl1 = vl2
= (A i I)vl2 = vl3
.......
= (A i I)v2 = v1
= (A i I)v1 .

Lasserto segue in quanto (A i I)v1 = 0 e l i .

Le relazioni (A.7) possono essere interpretate dicendo che ogni autovettore generalizzato pu`o
essere ottenuto costruendo una catena che inizia con un autovettore in senso stretto. Non `e
difficile verificare che tutti gli autovettori generalizzati appartenenti ad una catena v1 , . . . , vl1 , v
sono tra loro linearmente indipendenti. Se fosse infatti v2 = av1 allora si avrebbe anche
v1 = (A i I)v2 = (A i I)av1 = a(A i I)v1 .
Ma (A i I)v1 = 0 e quindi si avrebbe v1 = 0, il che `e impossibile perche un autovettore in
senso stretto non pu`o essere nullo.

159
Se fosse v3 = av1 + bv2 si avrebbe anche
v2 = (A i I)v3 = (A i I)(av1 + bv2 ) =
= a(A i I)v1 + b(A i I)v2 =
= b(A i I)v2 .
Ma (A i I)v2 = v1 e quindi si dovrebbe avere v2 = bv1 il che, come abbiamo visto, implica
v1 = 0. Si pu`o completare il ragionamento per induzione.
Si dimostra che, utilizzando le relazioni (A.7) a partire da unopportuna scelta di i autovettori in senso stretto relativi a i e linearmente indipendenti, si ottiene un numero di autovettori
generalizzati sufficiente a completare una base di Vi , e cio`e esattamente i i vettori linearmente
indipendenti. Si noti che se i = 1, allora i vettori mancanti saranno necessariamente generati da un
unico (a meno di costanti moltiplicative) autovettore in senso stretto. Ma se i 2, pu`o darsi che i
vettori mancanti siano generati da un unico autovettore in senso stretto, ma pu`o anche darsi che vi
siano due o pi`
u catene indipendenti con diversi generatori. Questi ultimi non possono essere in generale scelti arbitrariamente tra gli autovettori in senso stretto di A, ma devono essere determinati
in maniera opportuna. Quando si verificano queste situazioni, e specialmente se la dimensione dello
spazio `e elevata, la ricerca degli autovettori atti a generare le varie catene pu`o essere tuttaltro che
banale. Sorvolando sulle procedure che possono essere impiegate a tale scopo (lo studente trover`
a
tuttavia una breve discussione in proposito nella sezione successiva), per il momento ci basta osservare che ripetendo la costruzione per ogni i = 1, ..., k, si perviene in definitiva ad una base di Cn ,
formata da autovettori in senso stretto e da autovettori in senso generalizzato: a tale base daremo
ancora il nome di base propria relativa ad A.
Unimmagine suggestiva di una base propria si pu`o ottenere rappresentando i vettori che
la compongono con dei simboli convenzionali, per esempio degli asterischi. Gli asterischi disposti orizzontalmente al livello pi`
u basso rappresentano gli autovettori in senso stretto relativi ai
vari autovalori, mentre quelli disposti verticalmente rappresentano gli autovettori generalizzati,
eventualmente generati dagli autovettori in senso stretto.

...

{z

1 autovettori relativi a 1

...

{z

... .

(A.9)

2 autovettori relativi a 2

Si noti che mentre le catene di autovettori generalizzati si visualizzano immaginando lo schema


precedente sezionato verticalmente, le sezioni orizzontali mettono invece in evidenza i livelli
di generazione degli autovettori. Tali livelli possono essere anche definiti formalmente, sulla base
dellosservazione che ogni autovettore generalizzato v risolve, per un certo esponente l, un sistema
del tipo (A I)l v = 0 ma non il sistema (A I)l1 v = 0.
` possibile dimostrare che ogni matrice A `e simile ad una matrice diagonale a blocchi della
E
forma

C1,1
0

J = .
..
0

0
C1,2
..
.

...
...

0
0
..
.

...

Ck,k

160
dove i blocchi Ci,j sono a loro volta matrici quadrate della forma

Ci,j

i
0

.
.
=
.
..
.

1
i
..
.
..
.

0 ...
1 ...
..
.
..
. ...
0 ...

0
0
..
.

In ogni blocco compare solo un autovalore, ma lo stesso autovalore pu`o comparire in pi`
u blocchi.
Pi`
u precisamente, per ogni autovalore i vi sono esattamente i blocchi, ciascuno dei quali associato
ad un autovettore in senso stretto. La dimensione di ogni blocco `e uguale alla lunghezza della
catena degli autovettori generalizzati originata dallautovettore in questione. Il numero di volte che
i compare sulla diagonale principale di J `e uguale a i .
` interessante notare la corrispondenza tra la forma della matrice J e quella dello schema (A.9).
E
La matrice J prende il nome di forma canonica di Jordan della matrice A. La matrice P per cui
J = P 1 AP coincide con la matrice che rappresenta il cambiamento dalla base canonica di Rn ad
una base propria relativa ad A. Le sue colonne sono formate dalle componenti (rispetto alla base
canonica) degli autovettori (in senso stretto e generalizzato) di A scritti in un ordine opportuno.
Fra tutte le matrici simili ad A, la forma canonica di Jordan J presenta notevoli vantaggi. Essa
infatti permette di visualizzare immediatamente le principali quantit`
a che rimangono invarianti
rispetto alla relazione di similitudine, e cio`e gli autovalori e i numeri che rappresentano le loro
molteplicit`a algebriche e geometriche.

A.5

Procedure per la costruzione di una base propria

Sia 0 un autovalore fissato di A, e sia la sua molteplicit`a algebrica. Sia M = A 0 I e sia r1 il


rango di M . Se vogliamo determinare gli autovettori (in senso stretto) di A relativi a 0 , dobbiamo
risolvere il sistema omogeneo
Mv = 0 .

(A.10)

Questo sistema ci fornisce r1 < n relazioni indipendenti tra le componenti di v. In altre parole,
la soluzione generale di (A.10) contiene n r1 parametri 1 , . . . , nr1 . Per indicare tale soluzione,
scriveremo pertanto v = v(1 , . . . , nr1 ).
Per determinare poi il primo livello di autovettori generalizzati relativi a 0 , in virt`
u della
Proposizione 1 dobbiamo risolvere il sistema omogeneo
M 2w = 0
o, equivalentemente, il sistema non omogeneo
M w = v(1 , . . . , nr1 ) .

(A.11)

Questultimo sar`a risolubile solo se v(1 , . . . , nr1 ) appartiene allimmagine di M : imponendo


questa condizione si ottengono delle relazioni che legano 1 , . . . , nr1 . Si riduce cos` il numero
di questi parametri che possono essere scelti liberamente. Daltra parte, il sistema (A.10) `e sottodeterminato: nel risolverlo si dovr`a pertanto introdurre un certo numero di nuovi parametri che,

161
insieme a quella parte degli 1 , . . . , nr1 che sono rimasti liberi, compariranno nellespressione
della soluzione generale di (A.11).
Si ripete il procedimento al massimo 1 volte, e quindi si assegnano dei valori numerici ai
parametri che, alla fine, sono rimasti liberi. In una certa misura, ci`o pu`o essere fatto in modo arbitrario: lunica condizione da rispettare `e quella, ovvia, di indipendenza lineare. La teoria garantisce
che `e effettivamente possibile assegnare i parametri in modo da ottenere un insieme di vettori
linearmente indipendenti che costituiscano una base di V .
La procedura descritta `e in un certo senso la pi`
u naturale, ma `e anche notevolmente scomoda
e complicata, specialmente se la dimensione `e elevata, a causa della grande quantit`
a di parametri
da gestire. Pu`o essere allora utile disporre di un approccio alternativo.
Supponiamo di aver identificato lo spazio proprio V associato a 0 , risolvendo il sistema (A.6).
Si ricordi che la dimensione di V coincide con la molteplicit`a algebrica . Inoltre, V coincide col
nucleo di M .
Sia h lesponente della pi`
u piccola potenza di M tale che
ker M h = ker M = V
(semplici esempi mostrano che h pu`o essere strettamente minore di : si verifica che la somma di
tali esponenti estesa a tutti gli autovalori di A `e uguale al grado del polinomio minimo). Non `e
difficile rendersi conto che
ker M ker M 2 . . . ker M h = V
e che, per ogni i = 2, . . . , h,
M (ker M i ) M i1 .
Inoltre, posto ri = rank M i , `e possibile dimostrare che
r1 > r2 > . . . > rh = n .
Poiche

dim ker M i

(A.12)

= n ri , le (A.12) equivalgono a
dim ker M < dim ker M 2 < . . . < .

` anche possibile dimostrare che


E
n r1 r1 r2 r2 r3 . . . rh1 rh 0 .
Ricordando ancora che dim ker M i = n ri , `e facile convincersi che i numeri ri1 ri rappresentano i salti di dimensione tra i nuclei di potenze successive di M , per cui si ha
dim ker M

dim ker M 2 dim ker M


dim ker M 3 dim ker M 2 . . . dim V dim ker M h1 .

Il metodo che stiamo per descrivere sommariamente consente di determinare una base di V
partendo dagli autovettori generalizzati che si trovano al livello pi`
u alto, procedendo cio`e in senso
inverso rispetto al metodo visto in precedenza, nel quale le catene di autovettori venivano ricostruite
a partire dagli autovettori in senso stretto che si trovano al livello pi`
u basso.

162
Si comincia con lo scegliere, in modo arbitrario, n + rh1 vettori linearmente indipendenti
u1 , . . . , un+rh1 appartenenti a V , ma non al ker M h1 . Poiche dim ker M h1 + rh1 = n, questi
vettori costituiscono una base di uno spazio complementare al ker M h1 rispetto a V . Le immagini
M u1 , . . . , M un+rh1 di questi vettori appartengono al nucleo di M h2 . Si noti che in virt`
u delle
h2
h1
(10), il salto dimensionale tra ker M
e ker M
`e maggiore o uguale al numero dei vettori
ottenuti. Il risultato che valida tutto il procedimento, e di cui tralasceremo la dimostrazione, `e che
i vettori M u1 , . . . , M un+rh1 sono linearmente indipendenti (tra loro e, ovviamente, anche dai
vettori u1 , . . . , un+rh1 da cui eravamo partiti).
Si hanno ora due casi. Se rh2 rh1 = n + rh1 , i vettori
M u1 , . . . , M un+rh1
sono in numero tale da colmare il salto dimensionale tra ker M h2 e ker M h1 . Si pu`o allora iterare il
procedimento, considerando le immagini in ker M h3 mediante M dei vettori M u1 , . . . , M un+rh1 ,
e cio`e i vettori
M 2 u1 , . . . , M 2 un+rh1 .
Altrimenti, prima di andare avanti, si devono aggiungere tanti vettori linearmente indipendenti,
e per il resto arbitrari, quanti ne sono necessari per coprire il salto dimensionale.
Gli autovettori in senso stretto, che si trovano alla base delle varie catene di autovettori
generalizzati, si trovano allultima iterazione del procedimento.
A titolo desempio, si consideri la matrice

1
0
A=
0
0

2 0 3
1 0 1

1 1 2
0 0 1

per la quale si ha un unico autovalore = 1 con molteplicit`a algebrica = n = 4. Si calcola


facilmente che gli autovalori in senso stretto sono tutti della forma

1
0

2
0

(A.13)

al variare di 1 , 2 in R. Si tratta dunque di determinare due autovettori generalizzati, che possono


essere generati da due autovettori in senso stretto indipendenti, e quindi appartenere entrambi al
primo livello, oppure essere generati dallo stesso autovettore in senso stretto, e quindi appartenere
a livelli diversi. Imponendo la risolubilit`a del sistema

1
0

(A I)v =
2
0
si trova che 2 deve essere uguale a 1 /2. La soluzione generale ha la forma

163

3
1 /2

4 .
0

(A.14)

A questo punto `e chiaro che mettendo insieme vettori della forma (A.13) e (A.14) non si otterr`a
mai una base di R4 . Infatti lultima componente risulta in ogni caso nulla. Bisogna quindi iterare
unaltra volta il procedimento. Per la risolubilit`a del sistema

3
1 /2

(A I)v =
3
0
si trova questa volta la condizione 1 = 23 44 . Tenendo conto di tutte le relazioni trovate, una
catena di autovettori potrebbe essere ottenuta, per esempio, in corrispondenza dei valori 1 = 2 e
3 = 1. Si ha cos` lautovalore in senso stretto

0

1

0
e gli autovettori generalizzati

3
1

1
0

0
3

0
1

ai quali si aggiunge per completare la base un autovettore in senso stretto linearmente indipendente,
per esempio

0
.
0

0
Se vogliamo procedere con il secondo metodo, bisogna prima di tutto calcolarsi le potenze

0
0
AI =
0
0

0
(A I)2 =
0
0

2 0 3
0 0 1

1 0 2
0 0 0
0
0
0
0

0 2
0 0

0 1
0 0

(A I)3 = 0 .

164
La sequenza decrescente dei ranghi `e 2, 1, 0 , 0. La dimensione di ker (AI) `e 2 (come sapevamo
gi`a), e gli scarti dimensionali tra ker (A I), ker (A I)2 e ker (A I)3 sono entrambi pari a 1 (si
noti in particolare che la potenza di A I il cui nucleo coincide con lintero spazio `e minore della
molteplicit`a algebrica).
Iniziamo la costruzione scegliendo un vettore non appartenente al nucleo di (A I)2 (cio`e tale
che (A I)2 6= 0), per esempio

u=
0 .

1
Si calcola poi

3
1

w = (A I)u =
2
0
e quindi

2
0

v = (A I)w =
1 .
0
Chiaramente, v risulta un autovettore in senso stretto. Per concludere la costruzione, `e sufficiente
prendere un secondo autovettore in senso stretto linearmente indipendente, per esempio

0
.
0

A.6

Prodotto cartesiano di spazi vettoriali

Dati due spazi vettoriali V , W su K, `e possibile dare una struttura di spazio vettoriale al loro
prodotto cartesiano. Pi`
u precisamente, `e immediato dimostrare le seguenti proposizioni.
Proposizione A.2 Sia V W il prodotto cartesiano di due spazi vettoriali. Rispetto alle operazioni
di somma e prodotto per scalari, cos` definite:
(v1 , w1 ) + (v2 , w2 ) = (v1 + v2 , w1 + w2 )
a(v, w) = (av, aw)
linsieme V W `e uno spazio vettoriale su K.

v1 , v2 V , w1 , w2 W

a K ,v V ,w W

165
Proposizione A.3 Supponiamo che V e W siano di dimensione finita, e siano
{e1 , . . . , en } ,

{f1 , . . . , fm }

due basi, rispettivamente per V e per W . Allora, anche V W ha dimensione finita e gli n + m
vettori {(e1 , 0), . . . , (en , 0), (0, f1 ), . . . , (0, fm )} ne costituiscono una base.
La definizione data si pu`o generalizzare quando si hanno n spazi vettoriali V1 , . . . , Vn e si
considera il prodotto cartesiano V1 . . . Vn .
Sia ora U un altro spazio vettoriale su K. Vediamo come si possa far corrispondere ad applicazioni lineari di V , W in U unapplicazione, sempre a valori in U , definita sullo spazio vettoriale
V W.
Proposizione A.4 Siano L : V U , M : W U due applicazioni lineari. Lapplicazione
: V W U definita da
(v, w) = L(v) + M (w)
`e lineare.
Dimostrazione
a) Si ha, per la linearit`a di L e M ,
[(v1 , w1 ) + (v2 , w2 )] = (v1 + v2 , w1 + w2 ) =
= L(v1 + v2 ) + M (w1 , w2 ) =
= (v1 , w1 ) + (v2 , w2 ) .
b) Sempre per la linearit`a di L e M ,
[a(v, w)] = (av, aw) = L(av) + M (aw) = a(v, w) .

A.7

Sottospazi e ortogonalit`
a

Sia V uno spazio vettoriale reale dotato di un prodotto scalare h, i, sia W un sottospazio di V e
sia infine u un vettore di V . Si dice che u `e ortogonale a W se per ogni w W ,
hu, wi = 0 .
` immediato provare che vale la:
E
Proposizione A.5 Linsieme U dei vettori u di V ortogonali a W `e un sottospazio di V .
Il sottospazio U dei vettori ortogonali ad un sottospazio W di V si dice sottospazio ortogonale
a W e si indica con W .
Poiche per ogni w W e per ogni u W risulta hw, ui = 0, si ha che W (W ) .

Si ricordapche un sottoinsieme A V si dice costituito da vettori ortonormali se per ogni v A


si ha ||v|| = hv, vi = 1 e inoltre hv, wi = 0 per ogni coppia v, w A con v 6= w.
` chiaro che se i vettori di A sono ortonormali allora sono anche linearmente indipendenti.
E
Dunque, se dim V = n, un insieme ortonormale conterr`
a al pi`
u n elementi. Una base di V costituita
da vettori ortonormali si dice anche una base ortonormale.
Proposizione A.6 Sia V di dimensione finita, diciamo dim V = n. Se dim W = m, allora W
ha dimensione n m.
Dimostrazione Sia {f1 , . . . , fm } una base qualunque per W . u W se e solo se
hu, fi i = 0

i = 1, . . . m .

(A.15)

Sia ora una base per V , ortonormale rispetto al prodotto scalare ivi definito. Si verifica facilmente che
se rispetto ad una tale base u e w hanno componenti (u1 , . . . , un ) e (w1 , . . . , wn ), allora
hu, wi = u1 w1 + u2 w2 + . . . + un wn .
Di conseguenza le (A.15) si riducono ad un sistema omogeneo di m equazioni indipendenti in n incognite,
le cui soluzioni costituiscono un sottospazio vettoriale di dimensione n m. Pertanto dim W = n m.

Corollario A.3 Se V ha dimensione finita, e W `e un suo sottospazio, allora (W ) = W .


Dimostrazione Abbiamo visto che, in generale, W (W ) .
Sia dim V = n, dim W = m. Applicando due volte la Proposizione 5, si ha
dim (W ) = n (n m) = m.
Dunque W = (W ) .

Corollario A.4 Sia V di dimensione finita, e siano W1 , W2 due suoi sottospazi. Si ha:
W1 = W2 W1 = W2 .
Dimostrazione Per limplicazione (=) basta passare al sottospazio ortogonale di entrambi i membri e
applicare il Corollario 1. Laltra implicazione `e ovvia.

B. Trasformata di Laplace
B.1

Definizione e propriet`
a

Sia f : [0, +) R una funzione continua a tratti.


Definizione B.1 Si dice che f ha la propriet`
a di crescita esponenziale se esistono due costanti
reali M > 0 e tali che
|f (t)| M et

t [0, +) .

(B.1)

Ad ogni funzione continua a tratti con crescita esponenziale possiamo associare un numero 0 ,
definito come lestremo inferiore dei numeri tali che esiste un M per cui vale la (B.1). Chiameremo
questo numero lordine di f . Dimostriamo una prima propriet`a delle funzioni a crescita esponenziale.
Lemma B.1 Sia f una funzione a crescita esponenziale, e sia s un numero complesso qualunque
tale che Re s > 0 . Allora,
lim f ()es = 0 .

Dimostrazione Se H() `e una funzione complessa di variabile reale, dire che lim H() = 0 significa dire
+

che
lim Re H() = lim Im H() = 0 .

Ma per ogni z C, si ha
|Rez| |z|

|Im z| |z| .

Dunque `e sufficiente provare che


lim |f ()es | = lim |f ()|eRe s = 0 .

Sia un numero reale tale che 0 < < Re s. Si ha


|f ()|eRe s M e(Re s)
e lasserto segue in quanto Re s < 0.

La trasformata di Laplace `e unoperazione che permette di associare ad ogni f continua a tratti


con crescita esponenziale una funzione F : C C.
167

168
Lemma B.2 Sia f una funzione continua a tratti, con crescita esponenziale, di ordine 0 . Per
ogni numero complesso s tale che Re s > 0 , lintegrale improprio
Z +
0

f (t)est dt

converge assolutamente.
Z

Dimostrazione Dire che lintegrale improprio

H(t)dt di una funzione H : R C converge assoluta0

mente significa dire che convergono i due integrali


Z +
|Re H(t)| dt

Z
e

|Im H(t)| dt .

(B.2)

Come abbiamo gi`a osservato nella dimostrazione del Lemma B.1, `e allora sufficiente far vedere che
converge lintegrale
Z +
|H(t)|dt .
0

Nel nostro caso,


|f (t)est | = |f (t)||est | = |f (t)|etRe s M et(Re s) .
Per la definzione di 0 , pu`o essere scelto in modo che 0 < < Re s e dunque Re s < 0. I due
integrali in (B.2) convergono allora per il criterio del confronto.
Si noti che posto s = + i , si ha
Z +
Z +
|Re (f (t)est )|dt =
|f (t)et cos(t)|dt
0

|Im (f (t)est )|dt =

|f (t)et sin(t)|dt .

Siamo ora pronti a dare la seguente definizione.


Definizione B.2 Sia f una funzione definita in [0, +), continua a tratti, a crescita esponenziale,
di ordine 0 . Si chiama trasformata di Laplace di f la funzione complessa
s F (s) =

Z +
0

f (t)est dt

(B.3)

definita per s {z C : Re z > 0 }.


` opportuno osservare che le condizioni sotto le quali ci siamo messi possono essere indebolite:
E
tutto quello di cui abbiamo bisogno `e infatti la convergenza (assoluta) dellintegrale improprio
su una regione non vuota del piano complesso. Si noti anche che F potrebbe coincidere con la
restrizione al semipiano {z C : Re z > 0 } di una funzione F : C C dotata di un dominio
pi`
u grande. Infine, osserviamo che la (B.3) non perde significato se f `e una funzione complessa di
variabile reale.
` anche comune luso di
Loperatore definito dalla (B.3) si indica spesso con la lettera L. E
denotare con una stessa lettera (rispettivamente minuscola e maiuscola) la funzione da trasformare
e la sua trasformata. Dunque, scriveremo

169
Z +

F (s) = L[f (t)] =

f (t)est dt.

Passiamo ora in rassegna alcune propriet`a della trasformata di Laplace.


Propriet`
a 1 (Linearit`a)
Siano f e g due funzioni definite in [0, +), continue a tratti, a crescita esponenziale, di
ordine rispettivamente 1 e 2 . Allora, qualunque siano a, b R la funzione af + bg `e a crescita
esponenziale, di ordine 0 = max{1 , 2 }. Vale inoltre lidentit`
a
aF (s) + bG(s) = L[af (t) + bg(t)]

(B.4)

per Re s > 0 , dove F (s) = L[f (t)] e G(s) = L[g(t)].


Dimostrazione La verifica che af + bg `e a crescita esponenziale `e immediata, osservando che per ottenere
la maggiorazione desiderata bisogna prendere un valore di superiore sia a 1 che a 2 . La (B.4) segue poi
subito dalle propriet`a degli integrali.

Propriet`
a 2 (Cambiamento di scala)
Sia f una funzione definita in [0, +), continua a tratti, a crescita esponenziale, di ordine 0 ,
e sia F (s) = L[f (t)] per Re s > 0 . Allora, qualunque sia a > 0, la funzione g(t) = f (at) `e a
crescita esponenziale, di ordine a0 , e
1
F
a

L[f (at)] =

s
a

per Re s > a0 .

(B.5)

Dimostrazione Dalla (B.1) si ha subito |f (at)| M eat = M et per = a > a0 .


Posto poi = at,
Z

f (at)est dt =

dove si `e posto r =
Re s > a0 .

s
a.

1
a

f ( )e a d =

Ma Re r = Re as =

1
a

1
a

f ( )er d =

1
F (r)
a

purche Re r > 0 ,

Re s, e dunque richiedere Re r > 0 equivale a richiedere

Propriet`
a 3 (Traslazione a destra)
Sia f una funzione definita in [0, +), continua a tratti, a crescita esponenziale, di ordine 0 ,
e sia F (s) = L[f (t)] per Re s > 0 . Sia inoltre

g(t) =

0
f (t c)

per 0 t c
per t > c ,

ove c > 0. Allora g `e una funzione a crescita esponenziale, di ordine 0 , e L[g(t)] = ecs F (s) per
Re s > 0 .
Dimostrazione La verifica che g `e a crescita esponenziale `e semplice ed `e lasciata al lettore. Per la definizione
di g si ha poi

170
Z

Z
g(t)est dt =

Posto allora = t c si ha
Z +
0

f (t c)est dt .

Z
g(t)e

st

dt =

f ( )es( +c) d = ecs F (s).

Propriet`
a 4 (Moltiplicazione per tn )
Sia f una funzione definita in [0, +), continua a tratti, a crescita esponenziale, di ordine 0 ,
e sia F (s) = L[f (t)] per Re s > 0 . Per ogni n N, si ha allora che tn f (t) `e una funzione a
crescita esponenziale, di ordine 0 , e che
L[tn f (t)] = (1)n

dn F (s)
,
dsn

Re s > 0 .

(B.6)

Dimostrazione Che tn f (t) abbia crescita esponenziale, segue dal Lemma 3.1. La (B.6) si prova per induzione. Il caso n = 0 `e infatti vero per definizione. Supposta vera la (B.6) per n = k, il caso n = k + 1 si
ottiene derivando2 entrambi i membri rispetto ad s.

Propriet`
a 5 (Moltiplicazione per eat )
Sia f una funzione definita in [0, +), continua a tratti, a crescita esponenziale, di ordine 0 ,
e sia F (s) = L[f (t)] per Re s > 0 . Sia inoltre a R. Allora, la funzione eat f (t) `e a crescita
esponenziale, di ordine 0 + a, e
L[eat f (t)] = F (s a)

Re s > 0 + a

(B.7)

(similmente se a C, con Re s > 0 + Re a).


Dimostrazione La verifica che ea tf (t) `e a crescita esponenziale non presta difficolt`a. Si ha poi
Z +
Z +
Z +
eat f (t)est dt =
f (t)et(sa) dt =
f (t)etr dt = F (r) ,
Re r > 0
0

avendo posto r = s a. Ma Re r = Re s Re a e cos` Re r > 0 equivale a Re s > 0 + Re a.

Le prossime propriet`a sono molto importanti, in quanto ci dicono come si comporta loperatore
L rispetto alle operazioni del calcolo differenziale e integrale.
Propriet`
a6
Supponiamo che f sia una funzione continua a tratti, a crescita esponenziale, di ordine 0 .
Supponiamo inoltre che la sua derivata f 0 esista e sia continua a tratti in [0, +). Se F (s) = L[f (t)]
per Re s > 0 , allora la trasformata di Laplace di f 0 esiste, e si ha
2
Qui e anche in seguito, il punto cruciale della dimostrazione consiste nello scambio tra operazioni tipiche
dellAnalisi Matematica: limiti, derivate, integrali. Affinche simili passaggi siano leciti, occorre che siano verificate
certe propriet`
a di uniformit`
a, facilmente deducibili se si opera con funzioni continue (o, a seconda dei casi, derivabili
con continuit`
a) e su domini compatti. Non approfondiamo ulteriormente questo argomento: osserviamo comunque che
lavorando con variabili complesse e su intervalli non limitati vi sono delle difficolt`
a tecniche in pi`
u che, nelle nostre
ipotesi, possono essere superate.

171

L[f 0 (t)] = f (0) + sF (s)

per Re s > 0 .

(B.8)

Dimostrazione Vogliamo calcolare


Z

lim

f 0 (t)est dt .

Procediamo per parti:


Z
0

f 0 (t)est dt = f (t)est 0 + s

f (t)est dt = f ()es f (0) + s

f (t)est dt .

Si conclude passando al limite per +, e tenendo conto del Lemma B.1.

Propriet`
a7
Sia f una funzione definita in [0, +), continua a tratti, a crescita esponenziale, di ordine 0 ,
e sia F (s) = L[f (t)] per Re s > 0 . Allora, ogni primitiva di f `e a crescita esponenziale, di ordine
uguale a max{0 , 0} e si ha
L

Z t
0

f () d =

F (s)
s

per Re s > max{0 , 0} .

(B.9)

Dimostrazione La prima affermazione `e lasciata per esercizio. Per quanto riguarda la (B.9), si usa ancora
lintegrazione per parti:
Z

Z
st

f () d e
0

dt =

h(t)est dt =

h(t)est 1
+
0
s
s

h0 (t)est dt =

h(0) 1
h()es

+
s
s
s

f (t)est dt .

Si osserva che h(0) = 0, e si passa al limite per +.

Ovviamente le formule (B.8) e (B.9) possono essere iterate, dando luogo a:


L[f (k) (t)] = f (k1) (0) sf (k2) (0) . . . sk1 f (0) + sk F (s) ,
L

Z t Z t1
0

...

Z tk1
0

f (tk ) dtk dtk1 . . . dt1 =

F (s)
.
sk

(B.10)
(B.11)

Propriet`
a8
Siano f e g due funzioni definite in [0, +), continue a tratti, a crescita esponenziale, di ordine
rispettivamente 1 e 2 . Siano F (s) = L[f (t)] per Re s > 1 e G(s) = L[g(t)] per Re s > 2 . Sia
inoltre
h(t) =

Z t
0

f (t )g() d .

(B.12)

172
Allora, h `e una funzione a crescita esponenziale e L[h(t)] = F (s)G(s) per Re s > max{1 , 2 }.
La Propriet`a 8 d`a una risposta al problema di trovare una funzione h(t) tale che L[h(t)] =
F (s) G(s), note che siano F (s) = L[f (t)] e G(s) = L[g(t)].
Osserviamo che la (B.12) `e ben definita, in quanto per [0, t] si ha t 0. Considerando
le seguenti estensioni delle funzioni f e g:

f(t) =

0
se t < 0
f (t) se t 0

g(t) =

0
se t < 0
g(t) se t 0 ,

possiamo scrivere
h(t) =

Z t
0

f (t )g() d =

Z +

f(t )
g () d .

Siano ora p() e q() due funzioni qualunque, continue a tratti, definite su tutto R. Si definisce
prodotto di convoluzione tra p e q
(p q)(t) =

Z +

p(t )q() d ,

ammesso che lintegrale converga. Possiamo allora riformulare la (B.12) scrivendo


L[(f g)(t)] = F (s) G(s) .
Dimostrazione della Propriet`
a 8 La dimostrazione che h(t) `e a crescita esponenziale, di ordine uguale a
max{1 , 2 }, `e un esercizio non difficile. Osserviamo quindi che, con le notazioni introdotte pocanzi, si pu`o
Z +
anche scrivere h(t) =
f(t )g() d. Dunque
Z

0
+

L[h(t)] =
0

Z
f(t )g() d est dt =

g()
0

f(t )est dt d .

Allintegrale che si trova allinterno della parentesi nellultima formula, possiamo applicare la Propriet`a
3. Dunque
Z
L[h(t)] =

g()e

F (s) d = F (s)

B.2
B.2.1

g()es d = F (s) G(s) .

Trasformate notevoli
Funzioni elementari

Vediamo adesso come si calcolano le trasformate di certe funzioni elementari.


Proposizione B.1 Sia f (t) 1 per t 0. Allora
L[f (t)] =

1
s

per Re s > 0 .

173
Dimostrazione Si ha
Z

L[f (t)] =

est dt = lim

est
es
1
= lim
+ .
0
+ s
+ s
s

est dt == lim

La conclusione segue osservando che se Re s > 0, lim es = 0.


+

Proposizione B.2 Le trasformate di Laplace delle restrizioni allintervallo [0, +) delle potenze,
delle funzioni esponenziali e delle funzioni circolari sono date da:
L[at] =
L[tn ] =

a
s2

n!

per Re s > 0

sn+1

L[eat ] =
L[cos t] =
L[sin t] =

per Re s > 0 ;

1
sa

(B.13)

(n N) ;

(B.14)

per Re s > a ;

(B.15)

s
+ 2

per Re s > 0 ;

(B.16)

s2 + 2

per Re s > 0 .

(B.17)

s2

Dimostrazione Le formule (B.13), (B.14) e (B.15) discendono dalla Proposizione B.1 e dalle Propriet`a 1,
2, 4 e 5. Mostriamo la validit`a della (B.13). Si ha
L[at] = aL[t] = aL[t 1] .
Applicando la Propriet`a 4 e ricordando che L[1] = 1s , si conclude allora che
L[at] =

a
.
s2

Passiamo adesso alla (B.14). Si ha


L[tn ] = L[tn 1] = (1)n

dn F (s)
dsn

ove

F (s) =

1
;
s

da cui segue, per induzione, F (n) (s) = (1)n n!s(n+1) . Per quanto concerne la (B.15), basta osservare che
1
.
sa
Passiamo ora alle trasformate delle funzioni circolari. Come abbiamo gi`a detto, loperatore L si applica
anche a funzioni f : R C. Calcoliamo dunque L[cos t] ricordando la formula di Eulero
L[eat ] = L[eat 1] =

cos t =

ei t + ei t
.
2

Si ha
L[cos t] =
per Re s > 0. Da ci`o segue subito

1
1 i t
L[e ] + L[ei t ] =
2
2

1
1
+
s + i s i

174

L[cos t] =

s2

s
.
+ 2

La (B.17) si prova in modo analogo.

B.2.2

Funzioni discontinue

Dalle Proposizioni B.1 e B.2 si deducono le trasformate di quelle funzioni che si usano per rappresentare i segnali fondamentali nella Teoria dei sistemi. Per esempio, la funzione

U (t) =

0
1

se t < 0
se t 0

si chiama gradino unitario (unit-step) o anche funzione di Heaviside. Essa schematizza un segnale
che dallo stato nullo, passa improvvisamente al valore 1 (switch-on). La funzione f (t) 1 considerata nella Proposizione B.1 coincide con la restrizione di U (t) a [0, +). Tenendo conto della
definizione della trasformata di Laplace, con un piccolo abuso di notazione scriveremo3 .
1
(Res > 0) .
s
La funzione U (t) permette di rappresentare altri tipi di segnali a andamento discontinuo, le cui
trasformate possono essere facilmente calcolate in virt`
u delle Propriet`a 1 e 3. Per esempio,
L(U (t)) =

(i) switch-on per t = c

f (t) =

0 per t < c
1 per t c

equivale a

f (t) = U (t c)

(ii) switch-off per t = c

f (t) =

1 per t c
0 per t > 0

equivale a

f (t) = 1 U (t c) (oppure = U (c t))

(iii) impulso rettangolare

f (t) =

per t < a
1 per a t b

0 per t > b

equivale a

f (t) = U (t a) U (t b) .

La funzione U (t) serve anche a rappresentare mediante operazioni aritmetiche funzioni elementari a tratti. Per esempio, la funzione

f (t) =
3

t
t2

per t < 1
per t 1

Si osservi che la funzione complessa di variabile complessa che associa ad s il suo reciproco 1/s `e definita per
tutti i valori di s 6= 0. Tuttavia, non `e corretto dire che tale funzione `e la trasformata di Laplace di U (t). La relazione
L[U (t)] = 1/s vale infatti solo per Re s > 0. Dunque, L[U (t)] coincide con la restrizione al semipiano positivo della
funzione 1/s.

175
si pu`o scrivere come
f (t) = t[1 U (t 1)] + t2 U (t 1) .
Con il solito abuso di notazione, la (B.13) si pu`o pensare come la trasformata di un segnale di
tipo rampa

f (t) =

0 per t < 0
at per t 0

mentre le (B.16), (B.17) forniscono le trasformate di segnali sinusoidali ma (attenzione!) nulli per
t < 0.

B.2.3

Delta di Dirac

Tra i segnali tipicamente considerati nella teoria dei sistemi gioca un ruolo importante la funzione
impulso unitario, usualmente denotata col simbolo (t) e detta anche di Dirac.

(t) =

+ se t = 0
0
se t 6= 0 .

(B.18)

La (B.18) schematizza un segnale di energia molto grande ma concentrata in un solo punto.


Naturalmente la (B.18) `e priva di senso dal punto di vista elementare, in quanto non corrisponde
ad una funzione R R. Esiste una teoria, chiamata Teoria delle distribuzioni, basata su una
generalizzazione del concetto di funzione e allinterno della quale oggetti come la (B.18) possono
essere rigorosamente studiati.
Per una trattazione molto semplificata, `e sufficiente osservare che la (t) pu`o essere immaginata
come limite di opportune successioni; per esempio
(t) = lim

0+

1
(U (t) U (t )) .

(B.19)

Dalla (B.19) deduciamo in particolare che


Z +

(t) dt =

Z k
k

(t) dt = 1

k > 0 .

(B.20)

Funzioni generalizzate come la (t) possono essere sommate e moltiplicate come funzioni ordinarie. Esse possono anche essere derivate (in un senso particolare), ma di ci`o non avremo bisogno.
Ci limitiamo ad alcune propriet`a. Un impulso di intensit`
a k concentrato in a R si rappresenta
con k (t a). Si ha
Z +

k (t a)dt = k

(B.21)

f (t)(t a)dt = f (a)

(B.22)

e
Z +

per ogni funzione f continua nel punto t = a. Infine,

176
Z t

( )d = U (t)

(B.23)

e
L[(t)] = 1 .

(B.24)

Le formule (B.20)-(B.24) si dimostrano rigorosamente allinterno della Teoria delle distribuzioni.


Daltronde, la loro plausibiit`a pu`o essere sostenuta sulla base della (B.19). A titolo di esempio
deduciamo la (B.24):

L[(t)] = L lim

0+

1
(U (t) U (t )) =

1
1
= lim {L[U (t)] L[U (t )]} = lim
+
+
0
0
=

lim

0+

1 es

s
s

1 1 es
es 1

= lim
=1.
s

s
0+

Ovviamente, lo scambio tra loperatore L e il passaggio a limite richiederebbe una giustificazione


formale.

B.3

Teorema del valore finale

Si possono ricavare informazioni sul comportamento asintotico (cio`e per t +) di una funzione
f (t) esaminando la sua trasformata di Laplace.
Teorema B.1 (Del valore finale) Sia f (t) derivabile e sia F (s) = L[f (t)], con Re s > 0 ove
0 0. Supponiamo che il limite lim f (t) esista finito. Allora,
t+

lim f (t) = lim sF (s).

t+

(B.25)

s0

Dimostrazione Partiamo dalla (B.8):


Z
L[f 0 (t)] = f (0) + sF (s) =

f 0 (t)est dt .

Poiche 0 0, lorigine di C `e certamente un punto daccumulazione per il dominio di F . Dunque


possiamo passare al limite per s 0. Portando il limite sotto il segno di integrale (si ricordi a questo
proposito la nota 2), si ha
Z +
+

f (0) + lim sF (s) =


f 0 (t)dt = f (t)
s0

da cui la (B.25).

Per esempio, un caso importante per le applicazioni `e quello in cui F (s) = L[f (t)] `e una funzione
(s)
razionale propria. Poniamo F (s) = N
e strettamente minore
D(s) dove il grado del polinomio N (s) `
del grado del polinomio D(s). Se 0 < 0, il Teorema del valore finale `e applicabile. Lipotesi 0 < 0

177
implica in particolare che le radici di D(s) hanno tutte parte reale strettamente negativa, e che
D(0) 6= 0. Di conseguenza
lim sF (s) = 0 .

s0

Per il Teorema B.1 possiamo concludere che il limite di f (t) per t +, se esiste finito, `e pure
uguale a zero.
Nel Teorema B.1, lipotesi che il limite di f (t) per t + esista finito non `e eliminabile. Per
convincersene, si consideri la funzione f (t) = cos t. Si ha
L[cos t] =
e lim sF (s) = lim
s0

B.4

s0 s2

s2

s
+1

s2
= 0 mentre lim cos t non esiste.
t+
+1

Trasformata inversa

Accenniamo infine allesistenza della trasformata inversa L1 .


Proposizione B.3 Siano f e g continue in [0, +) e siano F (s) = L[f (t)], G(s) = L[g(t)],
entrambe definite per Re s > 0 . Se F (s) = G(s) per tutti gli s tali che Re s > 0 , allora f (t) = g(t)
per tutti i t 0.
Questa proposizione giustifica lintroduzione di L1 . Pi`
u precisamente, essa garantisce lunicit`a
del passaggio inverso, da F (s) a f (t). Si noti tuttavia che se f (t) `e la restrizione allintervallo [0, +)
di una funzione (t) definita su un intervallo pi`
u grande [a, +) con a < 0, applicando L1
a F (s) non `e possibile in generale ricostruire (t) nel tratto (a, 0).
La L1 pu`o essere rappresentata da una formula opportuna, a cui per`o non avremo occasione
di far ricorso. Ci sar`a per altro utile osservare che L1 , come L, agisce linearmente.

B.5

Trasformata di funzioni vettoriali

La trasformata di Laplace si estende senza difficolt`a alle funzioni vettoriali f : [0, +) Rn o


f : [0, +) Cn . Se f = (f1 , . . . , fn ), sotto lipotesi che ciascuna componente abbia crescita
esponenziale si definisce L[f ] = (L[f1 ], . . . , L[fn ]). Le propriet`a della trasformata di Laplace si
estendono egualmente senza difficolt`a, e in pi`
u si ha che
L[M f (t)] = M L[f (t)]

(B.26)

per ogni matrice M a coefficienti costanti reali o complessi.


Ci interessano particolarmente la trasformata dellesponenziale, e la possibilit`a di generalizzare
la formula relativa al prodotto di convoluzione (Propriet`a 8).
Proposizione B.4 Sia A una matrice quadrata (reale o complessa), c un vettore di costanti e b(t)
una funzione vettoriale le cui componenti siano funzioni continue a tratti e a crescita esponenziale.
Sia 0 il massimo delle parti reali degli autovalori di A. Allora, per ogni s C tale che Re s > 0 ,
si ha:

L[eAt c] = (A sI)1 c ,
L

Z t
0

(B.27)

(t)A

b()d = (A sI)1 B(s) .

(B.28)

Dimostrazione Per definizione,


Z

L[etA c] =

est etA cdt =

Z
et(AsI) cdt = lim

et(AsI) cdt .

Se Re s > 0 , allora det (A sI) 6= 0 e quindi (A sI)1 esiste. Daltra parte `e noto che per ogni
matrice quadrataR M , leponenziale etM `e derivabile e si ha (etM )0 = M etM = etM M . Di qui seque che se se
M `e invertibile, etM = M 1 etM = etM M 1 . Possiamo allora procedere nel nostro calcolo.

n
o

L[etA c] = lim (A sI)1 et(AsI) c = lim (A sI)1 e(AsI) c (A sI)1 c .

Dallipotesi che Re s > 0 segue ancora che gli autovalori di A sI hanno tutti parte reale negativa .
` infatti chiaro che ogni autovalore di A sI `e della forma = s dove `e un autovalore di A . Ma
E
allora Re = Re Re s < 0.
Come sappiamo, se gli autovalori di una matrice M hanno tutti parte reale negativa, allora lim eM c = 0,
+

qualunque sia c. In conclusione,


L[etA c] = (A sI)1 c
come dovevasi dimostrare. Per quanto riguarda la (B.28), osserviamo che
Z

(t)A

Z
b()d =

st

(t)A

Z
b()d dt =

t(AsI)

dt b() d .

Si noti come cambiano gli estremi di integrazione in seguito allo scambio dellordine di integrazione.
Proseguendo, e sfruttando come abbiamo fatto in precedenza lipotesi che Re s > 0 , si ha infine
Z

e(t)A b()d

eA (A sI)1 e(AsI) b()d =

(A sI)1 es b()d =
Z +
1
= (A sI)
es b()d = (A sI)1 B(s) .
=

C. Raccolta di esercizi
C.1
C.1.1

Esercizi sui sistemi di equazioni differenziali lineari


Integrale generale e soluzioni particolari di sistemi omogenei di due equazioni in due incognite

Esercizio C.1 Calcolare la matrice esponenziale eA per ciascuna delle seguenti matrici

1
4

2
3

1
1

1
3

e quindi determinare, in entrambi i casi, lintegrale


generale del sistema x = Ax e la soluzione

1
particolare che corrisponde alle condizioni x(0) =
.
0
Esercizio C.2 Si consideri il sistema in due incognite

x = x + y
y = 4y .

a) Determinarne lintegrale generale.


b) Scrivere la soluzione particolare tale che x(0) = y(0) = 2.
Esercizio C.3 Dato il sistema di equazioni differenziali
0
x1 + x02 = 5x1

4x01 x20 = 5x2

scrivere lintegrale generale sia in forma complessa che in forma reale. Quindi trovare la soluzione
corrispondente alle condizioni x1 (/3) = 0, x2 (/3) = 4e/3 .

C.1.2

Integrale generale e soluzioni particolari di sistemi omogenei di tre equazioni in tre incognite

Esercizio C.4 Scrivere lintegrale generale dei sistemi di equazioni differenziali definiti dalle seguenti matrici

0
1
0

0
4
0

2
6 ,
2

9
0
5

6
1
3

20
0 ,
11

179

0
2
2

2
2
2

2
2 .
4

180
Esercizio C.5 Scrivere in forma reale lintegrale generale del sistema di equazioni differenziali
lineari definito dalla matrice

4
3
1

3
2
3

2
6 .
1

Esercizio C.6 Determinare lintegrale generale del sistema lineare omogeneo x = Ax dove

A= 2
0

1
0
1

0
1 .
1

Esercizio C.7 Scrivere lintegrale generale del sistema di equazioni differenziali


00
x +x+y =0

y 0 2x 2y = 0 .
Trovare in particolare tutte le soluzioni costanti, e tutte quelle che verificano la condizione
x(0) = 0.
Esercizio C.8 Dato il sistema di equazioni differenziali

1
dx
=
0
dt
0

1
0
1

1
k x ,
0

dipendente dal parametro reale k, dire per quali valori di k


(i) le soluzioni sono tutte limitate per t R
(ii) le soluzioni sono tutte limitate per t [0, +)
Dire inoltre per quali valori di k il polinomio caratteristico della matrice ha radici multiple.
Esercizio C.9 Determinare lintegrale generale del sistema di equazioni differenziali lineare

x = x 43 z

y = x + 2y

z = 3x 2z .

Dire inoltre per quali valori di R sussiste la seguente propriet`


a: per ogni soluzione (t)
t
esiste una costante M > 0 tale che k(t)k M e (t 0).
` dato il sistema lineare
Esercizio C.10 E

x 1 = x1 + 3x2

x = x1 + x2 + x3
2
x 3 = 2x3

a) Individuare la matrice A del sistema, e metterla in forma di Jordan trovando la matrice P che
opera la trasformazione
b) Scrivere lintegrale generale, e determinare la soluzione particolare per cui x1 (0) = 1, x2 (0) = 0,
x3 (0) = 0.

181
c) Dire per quali R `e possibile dare una maggiorazione del tipo
||(t)|| Ket
per tutte le soluzioni (t) e per tutti i valori t 0.
` dato il sistema lineare
Esercizio C.11 E

x 1 = x1 + 2x3

x = x1 + x2 + 3x3
2
x 3 = x1 + 2x3 .

a) Scrivere il sistema in forma di Jordan.


b) Determinare una matrice fondamentale del sistema.
c) Indicata con x(t) la generica soluzione, dire quali delle seguenti affermazioni `e corretta e spiegare
perche:
(c.1) M > 0 tale che ||x(t)|| M ||x(0)|| per ogni t 0
(c.2) M > 0 tale che ||x(t)|| M ||x(0)||et per ogni t 0
(c.2) M > 0 tale che ||x(t)|| M ||x(0)||e9t/8 per ogni t 0

C.1.3

Sistemi non omogenei ed equazioni lineari di ordine superiore

Esercizio C.12 Risolvere i seguenti problemi ai valori iniziali

x 1 = x2

x1 (0) = 1

x = x1 x3
2

x (0) = 0
2

x 3 = 2x1 + 2x3 + 1

x3 (0) = 0

x 1 = 2x2 2x3 + et

x1 (0) = 0

x = 2x1 + 2x2 + 2x3


2

x (0) = 1
2

x 3 = 2x1 + 2x2 + 4x3

x3 (0) = 1

Esercizio C.13 Determinare lintegrale generale del sistema

x = 3x + 2y + t
y = 2x + y + et .

Esercizio C.14 Determinare lintegrale generale dellequazione


x000 x00 + 3x0 + 5x = sin t
e quindi la soluzione corrispondente alle condizioni x(0) = 1, x0 (0) = x00 (0) = 0.
Esercizio C.15 Si consideri lequazione scalare di ordine 3
(1)

x000 + 4x00 + 5x0 + 2x = 0 .

a) Determinarne lintegrale generale.

182
b) Scrivere il sistema equivalente
x = Ax

(2)
con x R3 e A matrice in forma compagna.

c) Mettere la matrice A in forma di Jordan e scrivere la matrice P che opera la trasformazione


d) Trovare la soluzione del problema ai valori iniziali
000
x + 4x00 + 5x0 + 2x = 2

(3)

C.2
C.2.1

x(0) = x0 (0) = 0, x00 (0) = 1 .

Esercizi sulla stabilit`


a dei sistemi lineari
Stabilit`
a dei sistemi piani e funzioni di Liapunov

Esercizio C.16 Dimostrare che la forma quadratica a coefficienti reali ax2 + bxy + cy 2 , con a > 0,
`e definita positiva se e solo se b2 4ac < 0.
Esercizio C.17 Si consideri il sistema lineare omogeneo

x = Ax

2 1
. Verificare che lorigine `e asintoticamente stabile. Dire inoltre per
1 1
quali valori di k R esiste una funzione di Liapunov della forma

dove A `e la matrice

V (x, y) = x2 + xy + ky 2 .
Esercizio C.18 Dato il sistema lineare omogeneo
x = Ax ,

x Rn

dove

A=

3
2

3
1

a) Verificare che lorigine `e asintoticamente stabile.


b) Trovare, se esistono, i valori di m per cui si ha una funzione di Liapunov della forma
V (x) = x21 + mx1 x2 + x22 .
Esercizio C.19 Verificare che V (x, y) = x2 + y 2 `e una funzione di Liapunov per x = y = 0 per
entrambi i sistemi lineari

(A)

x = y
y = x

(B)

x = 2x + y
y = x .

Verificare inoltre che V (x, y) = x2 xy + 2y 2 `e una funzione di Liapunov in senso stretto per
il sistema (B). Si pu`
o trovare una funzione di Liapunov in senso stretto per il sistema (A) ?

183
Esercizio C.20 Determinare k in modo che V (x, y) = x2 + k 2 y 2 sia una funzione di Liapunov in
senso stretto per x = y = 0 per il sistema lineare

C.2.2

x = x + 3y
y = y

Stabilit`
a dei sistemi piani ed equazione matriciale di Liapunov

Esercizio C.21 Verificare che lorigine `e asintoticamente stabile per il sistema bidimensionale
lineare definito dalla matrice

A=

4
1

1
3

Determinare quindi P in modo che la funzione V (x) = xt P x sia una funzione di Liapunov per
tale sistema, risolvendo lequazione matriciale
At P + P A = I .
` dato il sistema lineare omogeneo
Esercizio C.22 E
x Rn

x = Ax ,
dove

A=

1
2

3
3

a) Verificare che lorigine `e stabile.


b) Trovare una funzione di Liapunov della forma V (x) = xt P x.
Esercizio C.23 Si consideri il sistema

x 1 = 3x1 + x2
x 2 = x1 x2
1) Verificare che lorigine `e asintoticamente stabile.
2) Determinare una funzione di Liapunov.
Esercizio C.24 Si consideri il sistema lineare

x = x 2y
y = 3x 4y .
a) Verificare che non esistono funzioni di Liapunov in senso stretto della forma x2 + ky 2 (k R).
b) Determinare una funzione di Liapunov quadratica per il sistema dato, facendo uso dellequazione
matriciale di Liapunov.
Esercizio C.25 Verificare che lorigine `e attrattiva per il sistema

x = x 2y
y = y .
Trovare k R in modo che V (x, y) = x2 + 3xy + ky 2 sia una funzione di Liapunov. Quindi
trovare unaltra funzione di Liapunov risolvendo lequazione matriciale di Liapunov.

184

C.2.3

Stabilit`
a dei sistemi in dimensione maggiore di 2

a dellorigine per i
Esercizio C.26 Utilizzando il criterio degli autovalori, discutere la stabilit`
seguenti sistemi

x 1 = 2x1 4x2 2x3

x 2 = 2x1 3x2 x3
x 3 = x1 2x2 2x3

x 1 = 2x1 4x2 2x3

x 2 = 4x1 5x2 3x3


x 3 = 3x1 + 2x2 + 2x3 .

Esercizio C.27 Usando il criterio di Routh-Hurwitz, si studi la stabilit`


a dellorigine dei sistemi
associati alle seguenti equazioni lineari
000
x + 2x00 + 5x0 + 8x = 0

x(iv) + 2x000 + 5x00 + 2x0 + x = 0 .


Esercizio C.28 Studiare la stabilit`
a dellorigine per i seguenti sistemi, scegliendo di volta in volta
il criterio pi`
u opportuno.

x 1 = x2

x 1 = x3

x = x4

x = 2x3 + x4

x 2 = x3

x 2 = x3 x4

x 4 = 2x1 3x2 4x3 x4

x 1 = 2x1 + x3

x 4 = x4

x = x1 2x2 x3
2
x 3 = x3 .

Esercizio C.29 Si consideri lequazione scalare di ordine 2


(1)

x00 + 7x0 + 12x = 0 .

a) Determinarne lintegrale generale.


b) Scrivere il sistema equivalente
x = Ax

(2)
con x R2 e A matrice in forma compagna

c) Verificare che lorigine `e attrattiva per il sistema (2) e trovare una funzione di Lyapunov
quadratica per tale sistema
d) Possiamo dire che il sistema equivalente allequazione x(iv) + 7x000 + 12x00 = 0 `e stabile? (giustificare la risposta).
Esercizio C.30 Provare che se P `e una matrice simmetrica definita positiva, allora lorigine `e
asintoticamente stabile per il sistema
x = P x .

185

C.3
C.3.1

Esercizi sulle propriet`


a strutturali dei sistemi con ingressi
Insieme raggiungibile, controllabilit`
a, osservabilit`
a

Esercizio C.31 Studiare linsieme raggiungibile al tempo T , al variare dello stato iniziale, per il
sistema

x = u
y = v

1 u 1,

1 v 1

Esercizio C.32 Determinare lo spazio raggiungibile (in assenza di vincoli sul controllo) e lo spazio
di non-osservabilit`
a per i sistemi lineari

x 1 = x2

x 1 = x1 + x3 + u1

x = x3 + u

x = x1 x3

x 2 = 2x2 + 4x3 + u2

x 2 = x1

y = x2

y = x1 + x3

..
.
Esercizio C.33 Verificare che se A `e una matrice n n in forma compagna e b = , allora il
0

sistema x = Ax + bu `e completamente controllabile.


Esercizio C.34 Verificare che il sistema definito dalle matrici

1
A = 1
0

2
0
0

0
1
1

1
B = 0
1

`e completamente controllabile.
Esercizio C.35 Si consideri il sistema lineare con ingresso scalare

2
dove A = 1
0
Determinare

x = Ax + ub

0 k
0
1 0 e b = 0 .
2 3
2
i valori di k R per cui il sistema risulta completamente controllabile.

Esercizio C.36 Si consideri il sistema con ingresso scalare definito da

x = Ax + ub
y = ct x

x R3

0
0
1 1 2
con A = 0 2 1 , b = 0 , c = 0 .
1
1
1 1 0
a) Verificare che tale sistema `e completamente controllabile ma non completamente osservabile.
b) Scrivere la forma compagna C di A (non `e richiesto trovare esplicitamente il cambiamento
` vero che A e C sono simili?
di coordinate). E

186
Esercizio C.37 Si consideri il sistema lineare

x = 2y 2z

y = 2x + 2z
z = 3x 3y + u

con ingresso scalare u.


a) Determinare, per mezzo della matrice di controllabilit`
a, la dimensione dello spazio degli stati
raggiungibili dallorigine. Quindi indicare una base per tale spazio.
b) Scrivere la forma di Jordan e la forma compagna della matrice A che definisce il sistema.

C.3.2

Forma di Kalman

Esercizio C.38 Ridurre a forma di Kalman il sistema definito dalla matrice

A=

3
4

1
2

B=

1
1

` dato il sistema lineare con ingresso scalare


Esercizio C.39 E

x = 3x1 y + u
y = 4x + 3y + 2u .

a) Verificare che il sistema non `e completamente controllabile.


b) Determinarne la forma di Kalman.

C.3.3

Stabili`
a BIBS

Esercizio C.40 Si consideri il sistema con ingresso scalare definito dalle equazioni

x = x + y + z + u

y = 4x + y + 3z + u
z = 2x y 2z u .

a) Verificare che tale sistema non `e completamente controllabile.


b) Mettere il sistema in forma di Kalman.
c) Dire se il sistema possiede la propriet`
a di stabilit`
a BIBS, giustificando la risposta.
Esercizio C.41 Si consideri il sistema lineare con ingresso scalare
x = Ax + ub

0
2 0 0
dove A = 1 1 0 e b = 0 .
2
0 2 3
`
Verificare che il sistema non `e completamente controllabile, e scriverne la forma di Kalman. E
possibile stabilizzare il sistema? Possiamo affermare che il sistema `e stabile in senso BIBO?

187
Esercizio C.42 Dire se il seguente sistema inizializzato a zero `e esternamente stabile

x 1 = 3x1 + x2 + u1

x = x1 2x2 + 8x3
2
x 3 = x3 + u2

Esercizio C.43 Si consideri il sistema inizializzato a zero

x 1 = 2x1 + x3 + u1

x = x2 + u2
2
x 3 = 2x3

Dire se `e esternamente stabile.


Esercizio C.44 Dire se il seguente sistema, con inizializzazione arbitraria, `e esternamente stabile

x 1 = x1 + x3 + u1

x = 2x2 + 2u2
2

x 3 = x2 x3 + u3

C.3.4

Stabilizzabilit`
a, assegnabilit`
a dei poli

` dato il sistema lineare con ingressi


Esercizio C.45 E

x = 2x + y + u
y = 2x y 2u .

a) Determinare in modo che il sistema non sia completamente controllabile;


b) Per tale valore di , mettere il sistema nella forma di Kalman;
c) Sempre per lo stesso valore di , determinare una retroazione stabilizzante.

Esercizio C.46 Siano A = 0


0
(a) Provare che il sistema

0
1
3

1
1
0

1 , b =
0 , c = 1 .
1
1
1

x = Ax + ub
y = ct x

`e completamente controllabile ma non completamente osservabile.


(b) Verificare che il sistema
x = Ax + ub
con u = 0 non `e stabile, e spiegare perche pu`
o essere stabilizzato.
` dato il sistema a ingresso scalare
Esercizio C.47 E

(3)

x = Ax + ub

188

dove A = 0
2

3
0
1

0
0

1 e b = 0 .
2
1

a) Verificare che il sistema `e completamente controllabile.


b) Mettere il sistema in forma di Brunovski
c) Verificare che il sistema, con u = 0, non `e stabile, e determinare una retroazione stabilizzante
per il sistema (3).
` dato il sistema
Esercizio C.48 E

x = 2x1 + x3 + u

x 2 = x2 x3

x = 2x2 + x3 2u

y = x2 + x3 .

a) Provare che il sistema `e completamente controllabile ma non completamente osservabile.


b) Verificare che il sistema con u = 0 non `e stabile. Possiamo affermare che il sistema `e stabilizzabile? (giustificare la risposta).
Esercizio C.49 Sia dato il sistema

a)
b)
c)
d)

x 1
x 2

2
1

4
1

x1
x2

+u

1
1

Verificare che il sistema non forzato (con u = 0) non `e stabile.


Verificare che il sistema non `e completamente controllabile.
Mettere il sistema nella forma di Kalman.
Determinare una retroazione stabilizzante (se esiste).

Esercizio C.50 Si consideri il sistema x = Ax + ub con

A=

2
4

1
3

b=

1
4

1) Verificare che lorigine non `e stabile per il sistema libero (con u = o).
2) Verificare che il sistema non `e completamente controllabile, e metterlo in forma di Kalman.
3) Dire se `e possibile stabilizzare il sistema e, in caso afferamtivo, indicare una retroazione stabilizzante.
Esercizio C.51 Dato il sistema

x = x + y
y = 2x y + u

determinare una controreazione u = ax + by in modo che:


(1) il sistema controreazionato abbia lautovalore = 1 con molteplicit`
a2
(2) il sistema controreazionato abbia gli autovalori = 1 i 2

189
(3) il sistema controreazionato abbia autovalori con parte reale minore di 3
[si suggerisce di effettuare il cambiamento di coordinate X = x , Y = x + y]
` dato il sistema a ingresso scalare
Esercizio C.52 E
x = Ax + ub
dove x = (x1 , x2 ),

A=

1
1

1
2

b=

1
2

1. Verificare che il sistema non forzato `e instabile;


2. Verificare che il sistema `e completamente controllabile;
3. Determinare una matrice R tale che R1 AR si presenti in forma compagna;
4. Determinare una retroazione stabilizzante della forma u = k1 x1 + k2 x2 .
Esercizio C.53 Dato il sistema a ingresso scalare definito dalle matrici

1
A= 0
0

0
2
0

2
1 ,
1

3
B = 1
3

dire se `e stabilizzabile e, in caso positivo, indicare una controreazione stabilizzante. Dire inoltre se
il sistema `e superstabilizzabile.

C.4

Esercizi su trasformata di Laplace e applicazioni alle equazioni differenziali

Esercizio C.54 Scrivere la trasformata delle seguenti funzioni


a) f (t) = 2 + t 3t3
b) f (t) = e2t + tet
c) f (t) = tei t
Esercizio C.55 Scrivere la trasformata delle seguenti funzioni

a)

f (t) =

b)

f (t) =

1
1
t
2

se t 4
se t > 4 ,
se t 2
se t > 2 .

Esercizio C.56 Scrivere le trasformate delle funzioni


a)

f (t) = sin2 3t

b)

f (t) = sin(2t + 4 ) .

190
Esercizio C.57 Scrivere le trasformate delle funzioni f (t) = sinh t e f (t) = cosh t.
Esercizio C.58 Sia f (t) una funzione continua a tratti e coincidente, per t 0, con una funzione
periodica di periodo T > 0. Provare che
L[f (t)] =

1
1 esT

Z T
0

f (t)est dt .

Esercizio C.59 Determinare lantitrasformata delle seguenti funzioni


es
s
s
F (s) = 2
s +s6
1
F (s) =
s(s + 2)2
1
F (s) =
.
s(s2 + s + 1)

2s 1
,
s2
1
F (s) = 2
,
s s
2s 1
,
F (s) =
(s 1)2
1
F (s) = 2
,
s +s+1

F (s) =

F (s) =

Esercizio C.60 Utilizzando la regola della trasformata del prodotto di convoluzione, trovare lantitrasformata di
F (s) =

1
,
(s 1)2

F (s) =

1
.
+ 4)

s(s2

Esercizio C.61 Risolvere i seguenti problemi ai valori iniziali, utilizzando la trasformata di Laplace:
a)

6x00 5x0 + x = 0,

x(0) = x0 (0) = 1

b)

x00 10x0 + 21x = t,

x(0) = 0, x0 (0) = 1

c)

x00 + 7x0 + 12x = et ,

x(0) = 1, x0 (0) = 0

d)

x00 3x0 10x = tet ,

x(0) = x0 (0) = 0.

Esercizio C.62 Si consideri lequazione scalare di ordine 2


x00 + 3x0 + 5x = et .
Utilizzando il metodo della trasformata di Laplace, calcolare la soluzione tale che x(0) = 0 e
x0 (0) = 1.
Esercizio C.63 Utilizzando la trasformata di Laplace, trovare la soluzione del problema
00
x + 4x = 1

x(0) = 0, x0 (0) = 1 .
Esercizio C.64 Si consideri lequazione scalare di ordine 2
x00 + 5x0 + 4x = t .
Utilizzando il metodo della trasformata di Laplace, calcolare la soluzione tale che x(0) = 0 e
= 2.

x0 (0)

You might also like