You are on page 1of 107

Teoria dei Segnali

DISCLAIMER: Nellanno accademico 2003/2004 alcuni studenti hanno compilato queste dispense che ricalcano le linee essenziali di quanto insegnato nel corso. Tali dispense sono disponibili sul sito del corso in formato elettronico pdf. Si noti che: queste dispense non sono i testi uciali del corso stesso; i testi uciali sono indicati qui sotto e coincidono con quelli riportati sulla guida dello studente il contenuto delle dispense non ` esaustivo di quanto trate tato nel corso e e il contenuto non ` stato rivisto n corretto dal docente e dunque pu` contenere un numero elevato di errori/ ino esattezze e/o errate interpretazioni di quanto esposto dal docente in aula Le dispense sono dunque da intendersi come un possibile ausilio per gli studenti per seguire pi` agevolmente quanto u trattato in aula, ma a rischio e pericolo e sotto la responsabilita degli studenti stessi. I testi uciali del corso sono: Letizia Lo Presti, Fabio Neri: Lanalisi dei segnali, CLUT. Letizia Lo Presti, Fabio Neri: Introduzione ai processi casuali, CLUT.

Indice
I Analisi dei segnali e Trasformata di Fourier
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . con la delta . . . . . . . . . . . . . . . . . . . . . . . . . di Dirac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

9
11 11 11 11 12 13 14 17 17 18 19 19 21 23 26 28 29 30 32 32 33 34 35 35 36 38 39 40 41 45

1 Introduzione ai segnali 1.1 Che cos` un segnale . . . . e 1.2 Alcuni segnali notevoli . . . 1.2.1 Funzione porta . . . 1.2.2 Funzione triangolo . 1.2.3 Delta di Dirac . . . 1.2.4 Soluzione di integrali

2 Spazi lineari 2.1 Richiami di algebra dei vettori . . . . . . . . . . 2.1.1 Descrizione di vettori rispetto ad una base 2.2 Spazi di segnali . . . . . . . . . . . . . . . . . . . 2.3 Operazioni vettoriali sui segnali . . . . . . . . . . 2.4 Rappresentazione di un segnale tramite una base 2.5 Serie di Fourier . . . . . . . . . . . . . . . . . . . 2.5.1 Propriet` dei coecienti di Fourier . . . . a 2.5.2 Interpretazione dei coecienti di Fourier . 3 Trasformata di Fourier 3.1 Propriet` della trasformata di Fourier . . . a 3.1.1 Linearit` . . . . . . . . . . . . . . . a 3.1.2 Scalamento nel tempo . . . . . . . . 3.1.3 Ritardo nel tempo . . . . . . . . . . 3.1.4 Modulazione in frequenza . . . . . . 3.1.5 Trasformata di Fourier del complesso 3.1.6 Derivazione nel tempo . . . . . . . . 3.2 Segnali ad energia innita . . . . . . . . . . 3.3 Invertibilit` della trasformata di Fourier . . a 3.4 Trasformata di Fourier e prodotto scalare . 3.5 Simmetria della trasformata di Fourier . . . 3.6 Banda e supporto . . . . . . . . . . . . . . . 4 Cenni sulla trasformata di Laplace

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . coniugato . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

II

Sistemi lineari

47
49 49 51

5 Sistemi Lineari Tempo Invarianti 5.1 Sistemi lineari (L) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Sistemi Tempo Invarianti (TI) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

INDICE

6 Integrale di convoluzione 6.1 Funzione di trasferimento e risposta allimpulso di un sistema LTI 6.2 Interpretazione dellintegrale di convoluzione . . . . . . . . . . . . 6.3 Trasformata di Fourier della convoluzione . . . . . . . . . . . . . . 6.4 Propriet` della convoluzione . . . . . . . . . . . . . . . . . . . . . . a 6.5 Cascata di sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . 6.5.1 Propriet` dei sistemi LTI . . . . . . . . . . . . . . . . . . . a 6.6 Stabilit` BIBO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . a

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

53 53 54 55 56 60 60 61 63 63 64 66 69 69 69 71 72 72 72

7 Segnali Periodici 7.1 Media temporale su un intervallo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2 Trasformata di Fourier di un segnale periodico . . . . . . . . . . . . . . . . . . . . . 7.3 Il Teorema del campionamento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 Caratterizzazione energetica dei segnali 8.1 Spettro di energia . . . . . . . . . . . . 8.2 Funzione di autocorrelazione . . . . . . 8.3 Funzione di mutua correlazione . . . . . 8.4 Segnali periodici . . . . . . . . . . . . . 8.4.1 Spettro di potenza . . . . . . . . 8.4.2 Funzione di autocorrelazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

III

Statistica delle variabili aleatorie e dei processi casuali


. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

75
77 79 79 81 82 82 82 83 83 83 85 85 86 86 86 87 89 91 92 93 95 95 97 97

9 Probabilit` a 9.1 Probabilit` Condizionata . . . . . . . . . a 9.2 Teorema della probabilit` totale . . . . . a 9.3 Variabili casuali . . . . . . . . . . . . . . . 9.4 Distribuzione cumulativa . . . . . . . . . . 9.5 Coppie di variabili casuali . . . . . . . . . 9.5.1 Densit` di probabilit` condizionata a a 10 Medie e valori attesi 10.1 Momenti non centrali . . . . . . . 10.2 Momenti centrali . . . . . . . . . 10.3 Generalizzazione del valore atteso 10.4 Momenti congiunti . . . . . . . . 10.5 Momenti congiunti centrali . . . 10.6 Media condizionata . . . . . . . . 10.7 Coeciente di correlazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

11 Processi casuali 11.1 Momenti principali di un processo casuale 11.2 Processi quasi determinati . . . . . . . . . 11.3 Stazionariet` di un processo casuale . . . a 11.4 Autocorrelazione dei processi WSS . . . .

12 Processi casuali ltrati 12.1 Momenti dei processi ltrati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.2 Rumore gaussiano bianco . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.3 Combinazione di processi casuali . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

INDICE

13 Caratterizzazione energetica di processi casuali 99 13.1 Spettro di energia di processi ltrati . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 13.2 Energia e potenza di processi casuali WSS . . . . . . . . . . . . . . . . . . . . . . . . 100 14 Ergodicit` a 101 14.1 Rumore gaussiano bianco . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 14.2 Rumore bianco ltrato . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 15 Esercizi riassuntivi sui processi casuali ltrati 103

INDICE

Elenco delle gure


1.1 1.2 2.1 2.2 3.1 5.1 7.1 7.2 9.1 Funzione porta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Funzione triangolo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Approssimazione di un segnale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Approssimazione di un segnale in serie di Fourier . . . . . . . . . . . . . . . . . . . . Trasformata di Fourier della porta . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sistemi tempo-invarianti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Spettro a righe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Segnale sinusoidale campionato . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Densit` di probabilit` congiunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . a a 12 13 22 25 37 51 65 68 82 88

11.1 Esercizio 43 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

ELENCO DELLE FIGURE

DISCLAIMER: Nellanno accademico 2003/2004 alcuni studenti hanno compilato queste dispense che ricalcano le linee essenziali di quanto insegnato nel corso. Tali dispense sono disponibili sul sito del corso in formato elettronico pdf. Si noti che: queste dispense non sono i testi uciali del corso stesso; i testi uciali sono indicati qui sotto e coincidono con quelli riportati sulla guida dello studente il contenuto delle dispense non ` esaustivo di quanto trate tato nel corso e e il contenuto non ` stato rivisto n corretto dal docente e dunque pu` contenere un numero elevato di errori/ ino esattezze e/o errate interpretazioni di quanto esposto dal docente in aula Le dispense sono dunque da intendersi come un possibile ausilio per gli studenti per seguire pi` agevolmente quanto u trattato in aula, ma a rischio e pericolo e sotto la responsabilita degli studenti stessi. I testi uciali del corso sono: Letizia Lo Presti, Fabio Neri: Lanalisi dei segnali, CLUT. Letizia Lo Presti, Fabio Neri: Introduzione ai processi casuali, CLUT.

Parte I

Analisi dei segnali e Trasformata di Fourier

Capitolo 1

Introduzione ai segnali
1.1 Che cos` un segnale e

Nelle applicazioni elettroniche, si dice segnale una funzione del tempo del tipo f : R C. In generale, un segnale pu` avere qualsiasi forma donda. Un segnale rappresenta levolversi nel o tempo di una grandezza, sica o matematica: ad esempio, lapplicazione forse pi` comprensibile a u tutti ` quella della trattazione del suono. In questo caso, il segnale pu` esprimere il valore della e o pressione sonora in funzione del tempo, oppure pu` indicare una qualsiasi altra grandezza da cui o dipenda la produzione delleetto sonoro studiato (ad esempio, la tensione tra due precisi morsetti dellaltoparlante). In generale, il segnale pu` avere qualsiasi caratteristica riguardo a continuit`, derivabilit`, dominio, o a a codominio e simili propriet`. Come abbiamo detto, per`, un segnale rappresenta spesso una grandeza o za sica, quindi i segnali che studieremo godranno spesso di propriet` che ne semplicheranno lo a studio. Tratteremo comunque il caso generale, indicando di volta in volta se utilizzeremo precise convenzioni.

1.2

Alcuni segnali notevoli

Prima di iniziare ad analizzare i segnali in generale, ` opportuno denire alcune particolari funzioni e che incontreremo molto spesso. Queste sono: la funzione porta, la funzione triangolo e la delta di Dirac ((t)).

1.2.1

Funzione porta
0 p D (t) = 1 |t| > D 2

La funzione porta ` cos` denita: e

(1.2.1)

D |t| 2

Si tratta di una funzione discontinua il cui graco ` riportato in gura 1.1. e Pi` in generale, si considera la porta traslata: u 0 |t t | > D 0 2 p D (t t0 ) = 1 |t t0 | D 2

(1.2.2)

12

Introduzione ai segnali

1.5

0.5

0.5 5

Figura 1.1: Graco della funzione porta p 5/2 (t).

Da questa denizione notiamo come il parametro D, detto durata della porta, rappresenti la lunghezza del supporto1 della funzione, mentre t0 indica il punto centrale della porta. Come ` naturale pensare, la scrittura ApD (t) indica una porta centrata nellorigine di durata D la cui e ampiezza ` pari ad A. e Un caso particolare di porta ` quello del rettangolo causale2 , indicato spesso con rD (t). Si tratta di e una porta che inizia nellorigine, anzich essere simmetrica rispetto allasse delle ordinate. Si pu` e o scrivere: D r D (t) = p D t . 2

1.2.2

Funzione triangolo
0 t +1 T riD (t) = D/2 t 1 D/2 0 D t< 2 D t<0 2 D 0t< 2 D t 2

La funzione triangolo ` cos` denita: e

(1.2.3)

1 Si chiama supporto linsieme dei punti in cui una funzione non ` nulla. Il concetto, molto intuitivo, di lunghezza e del supporto (o di un insieme compatto di punti) diventa ancor pi` evidente pensando al graco della porta: si tratta u della distanza tra gli estremi dellinsieme stesso. 2 Sul concetto di causalit` si torner` pi` avanti (cfr. 6.2). a a u

1.2 Alcuni segnali notevoli

13

1.5

0.5

0.5 5

Figura 1.2: Graco della funzione triangolo T ri 7 (t).

Si tratta di una funzione continua in ogni suo punto, ma non derivabile nellorigine, in x1 = D/2 e in x2 = D/2. Il suo graco ` riportato in gura 1.2: ` un triangolo di base D e altezza unitaria. e e Come per la porta, ` possibile denire un triangolo traslato T riD (t t0 ) che ha il vertice nellistante e di tempo t0 , e una forma amplicata del segnale, indicata con A T riD (t), che ` ridimensionata e verticalmente in modo da avere altezza A. Un caso particolare di triangolo amplicato ` quello del e triangolo equilatero D T ri2D (t).

1.2.3

Delta di Dirac

La delta di Dirac ` una funzione molto particolare. Essa infatti non ha una descrizione analitica, ma e viene denita attraverso le sue propriet`. La sua caratteristica principale ` la capacit` di estrarre a e a da un integrale il valore della funzione integranda in un punto:
+

f (x)(x x0 )dx = f (x0 ),

(1.2.4)

dove f : R R ` una funzione che esiste nel punto x0 . In particolare, se applichiamo questa e propriet` alla funzione che vale 1 su tutto R, otteniamo: a
+ +

(x)dx =

(x x0 )dx = 1.

La delta di Dirac viene rappresentata con una freccia di altezza unitaria centrata nel punto in cui il suo argomento si annulla. Il supporto della delta ` costituito da un solo punto, dove essa vale e innito. Si dice quindi che, integrando su tutto lasse reale, i contributi di tutti i punti diversi da quello della delta diventano trascurabili rispetto al valore della funzione nel punto, che quindi

14

Introduzione ai segnali

diventa pari al valore stesso dellintegrale. Tale comportamento pu` essere meglio compreso se cerchiamo di capire come si pu` arrivare alla o o delta di Dirac. Consideriamo allora una funzione porta normalizzata, cio` una porta la cui ampiezza e ` inversamente proporzionale alla durata. Abbiamo dunque: e
+

1 1 p T (t)dt = T T

T /2

1dt =
T /2

1 T =1 T

T R,

come era necessario che fosse per ottenere una delta. Perch valga la propriet` (1.2.4), studiamo il e a comportamento della porta normalizzata per T 0; abbiamo infatti stabilito che T sia la durata della porta, cio` la lunghezza del suo supporto, e quindi vogliamo avvicinarci alla situazione della e delta, che ha supporto di lunghezza nulla.
+ T 0

lim

1 1 f (t) p T (t)dt = lim T 0 T T

T /2

f (t)dt
T /2

Siamo giunti ad un punto morto: il primo fattore tende ad innito, mentre il secondo tende a zero (integrale su intervallo di ampiezza nulla). Cerchiamo allora di risolvere il problema pensando al concetto di integrazione: integrare su tutto lasse reale una funzione f (t) signica sommare tutti gli inniti contributi dati dal valore della funzione in ciascun punto. Moltiplicando una funzione per una porta normalizzata, sopprimiamo la forma donda in tutto lintervallo in cui la porta vale zero, e la scaliamo in altezza per tutta la durata della porta. Se ora questa durata fosse dimezzata, avremmo una forma donda alta il doppio rispetto alla precedente, ma ristretta ad un intervallo pi` u corto. Se poi considerassimo una durata innitesima della porta, arriveremmo ad una situazione estrema in cui la funzione integranda sarebbe nulla su tutto lasse reale, tranne che nellorigine, dove avrebbe valore innito. Quindi, lunico contributo utile sarebbe quello di f (0), e otterremmo:
+ T 0

lim

1 f (t) p T (t)dt = f (0), T

che ` il risultato a cui volevamo arrivare. Possiamo quindi aermare: e


T 0

lim

1 p T (t) = (t), T

ricordando per` che il limite dellespressione appena scritta non ` il limite nel senso delle funzioni, o e ma piuttosto indica il comportamento di una famiglia di funzioni al variare di un certo parametro. In realt`, questa non ` la denizione rigorosa della delta di Dirac, che, come abbiamo detto ` denita a e e tramite le sue propriet`. In eetti, esistono innite altre famiglie di funzioni che, per certi valori a di un parametro, assumono comportamenti simili a quello della delta di Dirac: un esempio che dovrebbe essere noto ` quella della funzione gaussiana, tale per cui: e
0

lim

1 2 2

et

/(2 2 )

= (t).

1.2.4

Soluzione di integrali con la delta di Dirac

La delta di Dirac rende molto semplice la soluzione degli integrali in cui essa compaia, in quanto non ` necessario ricercare la primitiva della funzione integranda (cosa che, a volte, ` notevolmente e e complicata). Baster` infatti valutare la funzione stessa nel punto in cui largomento della delta si a annulla, come risulta dalla propriet` (1.2.4). Tuttavia, spesso la presenza di pi` funzioni delta, che a u possono anche avere argomenti completamente diversi, potrebbe generare confusione. Ecco allora un modo semplice per risolvere un integrale del tipo
+

f (t)(t h)dt.

1.2 Alcuni segnali notevoli

15

1. Per prima cosa, si individua la variabile di integrazione (nel nostro esempio, t); 2. poi si trova il valore della variabile di integrazione per cui largomento della delta si annulla (nel nostro caso, avremmo t h = 0 e quindi t = h); 3. inne si valuta la funzione integranda nel punto appena trovato (trovando cio` f (t)|t=h ). e Questo metodo di soluzione permette di semplicare un integrale con la delta. Nel caso si dovesse risolvere:
+

x(t)(t f )(f f0 )dtdf ,

potremmo prima integrare in t e poi in f , ottenendo:


+

x(f )(f f0 )df = x(f0 ).

In denitiva, la delta di Dirac svolge la stessa funzione della delta di Kronecker, di cui ` lequivalente e per gli integrali. La delta di Kronecker, denita come nm = 1 0 n=m , n=m

viene utilizzata nelle sommatorie per estrarre un singolo elemento m. Infatti:


+

an nm = am .
n=

Useremo molto spesso le propriet` di queste due funzioni per semplicare alcuni calcoli. a
Esercizio 13 Si calcoli il seguente integrale:
Z
+

sin(2f0 t) (t t0 ) dt

Soluzione Per il calcolo dellintegrale basta semplicemente sostituire a t il valore di t che annulla la delta, in questo caso t = t0 ; il risultato ` quindi: e
Z
+

sin(2f0 t) (t t0 )dt = sin(2f0 t0 )

16

Introduzione ai segnali

Capitolo 2

Spazi lineari
Denizione 2.1 Si dice spazio lineare o vettoriale un insieme di elementi, detti vettori, allinterno del quale ` possibile denire le operazioni di somma e moltiplicazione per scalare con le e seguenti propriet` : a x + y = y + x (propriet` commutativa della somma); a x + (y + z) = (x + y) + z (propriet` associativa della somma); a x + 0 = x (esistenza dellelemento neutro per la somma (vettore nullo)); x + (x) = 0 (esistenza e unicit` del vettore opposto); a (x) = x (propriet` associativa della moltiplicazione per scalare); a 1x = x (esistenza dellelemento neutro per la moltiplicazione per scalare); 0x = 0 (esistenza dellelemento assorbente per la moltiplicazione per scalare); ( + )(x + y) = x + y + x + y (propriet` distributiva della moltiplicazione per scalare); a dove x, y, z sono elementi dello spazio vettoriale, mentre , C sono detti scalari.

2.1

Richiami di algebra dei vettori

Dalla denizione di spazio lineare, risulta evidente che un semplice esempio ` quello dei vettori intesi e in senso geometrico. Infatti Cn e il suo sottoinsieme Rn sono spazi lineari vettoriali, in quanto ` noto e che valgono le propriet` appena elencate per i loro elementi. Ad essi ci riferiremo per richiamare i a concetti di prodotto scalare, norma e base. Denizione 2.2 Siano v, w Cn due vettori. Indichiamo con vi lelemento i-esimo di v. Si dice prodotto scalare di due vettori il numero reale cos` denito:
n

vw =
i=1

vi wi

Probabilmente, si ricorda la denizione geometrica di prodotto scalare data da v w = |v| |w| cos , dove ` langolo compreso tra i due vettori. Le due denizioni sono equivalenti, ma utilizzando la e prima sar` pi` agevole generalizzare il concetto in seguito. a u Il prodotto scalare gode di alcune propriet`: a a (v + w) z = v z + w z (propriet` distributiva);

18

Spazi lineari

n i=1

ai vn

n k=1 bk wk

n i=1

n k=1

a a ai b vn wn (propriet` di linearit`); k

dove v, w Cn e a, b C. Denizione 2.3 Sia v Cn un vettore. Si denisce norma del vettore v un numero reale positivo cos` denito:
n 1/2

v =
i=1

|vi |

Geometricamente, si noter` che la norma di un vettore ` il valore della sua lunghezza (modulo). a e Se calcoliamo il prodotto scalare di un vettore con se stesso, otteniamo:
n n vi vi = i=1 i=1

vv =

|vi | = v

Deniamo ora una classe particolare di vettori. Denizione 2.4 Sia v Cn un vettore. Esso si dice versore se e solo se esso ha norma unitaria. Ci ` ora possibile arrivare a uno dei concetti fondamentali di questa prima parte. e Denizione 2.5 Sia {uk }k=1 Cn un insieme di n vettori. Esso si dice base di Cn se e solo se vale: ua ub = ab , cio` se i vettori che lo compongono sono ortogonali tra di loro e hanno tutti norma unitaria. e ` E possibile comprendere meglio lespressione appena scritta se si ricorda che due vettori si dicono ortogonali quando il loro prodotto scalare ` nullo; geometricamente, essi deniscono un angolo retto. e Se quindi consideriamo due vettori distinti di una base, il loro prodotto scalare sar` nullo, mentre se a consideriamo il prodotto scalare di un vettore per se stesso ne otterremo la norma al quadrato, cio` e 1 (avendo richiesto che tutti i vettori di una base siano versori). Un insieme i cui elementi godano di queste propriet` viene anche detto ortonormale. a
n

2.1.1

Descrizione di vettori rispetto ad una base

Cerchiamo ora di capire come sfruttare il concetto di base di uno spazio lineare. Consideriamo un vettore v e una base {un }; supponiamo di lavorare in R3 , quindi la nostra base sar` composta da a tre versori. Come dovrebbe essere ben noto, una base (la pi` semplice) di R3 ` quella costituita dai u e vettori = [1, 0, 0], = [0, 1, 0] e k = [0, 0, 1]; ` possibile scrivere un generico vettore v = [v1 , v2 , v3 ] i j e come combinazione lineare dei tre versori della base: v = v1 + v2 + v3 k. i j Ricordiamo che le componenti del vettore sono il prodotto scalare tra il vettore stesso e il corrispondente versore, ad esempio: v1 = v geometricamente, signica che v1 ` la proiezione di v su i; e i. Ci` che ` interessante per la nostra trattazione ` che queste considerazioni si possono applicare a o e e qualsiasi base ortonormale: ` cio` possibile scrivere: e e v = a1 u1 + a2 u2 + a3 u3 , con ai = v ui . Se ssiamo una base di R (ma questo vale in generale per qualsiasi spazio lineare), possiamo dunque indicare in modo univoco un vettore con i suoi coecienti ai , scrivendo v = [a1 , a2 , a3 ]; del resto ` ci` che gi` facevamo quando indicavamo un vettore per mezzo delle sue componenti cartesiane e o a (riferite cio` ai versori k). e i, j,
3

2.2 Spazi di segnali

19

2.2

Spazi di segnali

I concetti appena richiamati trovano la loro pi` naturale applicazione nella geometria, quindi nei u vettori di R3 . Tuttavia, abbiamo visto allinizio del capitolo che esiste unampia classe di spazi lineari accomunati soltanto dalle propriet` elencate a pag. 17. In realt`, si possono denire vettori a a (intesi come elementi di uno spazio lineare) molti oggetti anche assai diversi tra loro. Un vettore pu` essere un qualcosa anche molto distante dal concetto di segmento che normalmente viene aso sociato a questo nome, purch con esso si possano denire operazioni di somma e di prodotto per e scalare tali da soddisfare le propriet` degli spazi lineari. Un esempio di questa estensione ` quello a e degli spazi di segnali. Abbiamo gi` visto che cosa si intende per segnale. Come ` possibile estendere agli spazi di segnali a e le operazioni appena viste per i vettori geometrici? In realt`, ci` non ` dicile, dal punto di vista a o e matematico; la dicolt` maggiore di questo salto concettuale sta forse nella capacit` di astrazione a a che esso richiede. Per fare un esempio, il prodotto scalare tra due vettori ` qualcosa che riusciamo e ad immaginare, che riusciamo a vedere; invece il prodotto scalare tra due segnali sar` un oggetto a completamente astratto, un valore che apparentemente non avr` nessuna relazione con i due sega nali considerati. Tuttavia, lanalogia con i vettori geometrici ci sar` di grande aiuto per rendere a facilmente comprensibili certi risultati che altrimenti risulterebbero ostici.

2.3

Operazioni vettoriali sui segnali

Come per i vettori, iniziamo dal prodotto scalare. Denizione 2.6 Si dice prodotto scalare tra due segnali v(t) e w(t) il seguente integrale:
+

v(t) w(t) = (v(t), w(t)) =

v(t)w (t)dt.

(2.3.1)

Nel caso i due segnali assumano soltanto valori reali, tale integrale si riduce ovviamente al seguente:
+

(v(t), w(t)) =

v(t)w(t)dt.

Osservazione

Il prodotto scalare pu` anche essere denito solo su un intervallo I = [t0 , t1 ]: o (v(t), w(t))I =
I

v(t)w (t)dt.

Cerchiamo di comprendere il passaggio dai vettori ai segnali. Immaginiamo il segnale v(t) come un vettore di innite entrate, corrispondenti ai valori assunti dalla funzione v in punti separati da intervalli innitesimi. La serie che denisce il prodotto scalare diventa dunque un integrale, cio` e una sommatoria continua di inniti numeri. Rimane invece invariato ci` che viene sommato, cio` il o e prodotto tra un segnale e il complesso coniugato dellaltro. ` E facile notare che esso mantiene la fondamentale propriet` di linearit` che caratterizza il prodotto a a scalare tra vettori:
+

an vn (t),
n m

bm wm (t)

=
n

an vn (t)
m +

bm wm (t)
vn (t)wm (t)dt =

dt =

=
n m

an b n

=
n m

an b (vn (t), wm (t)). n

20

Spazi lineari

Denizione 2.7 Si dice norma di un segnale v(t) la radice quadrata del prodotto scalare del segnale per se stesso:
+

v(t) =

(v(t), v(t)) =

|v(t)| dt.

Denizione 2.8 Si dice energia di un segnale v(t) il quadrato della sua norma: E {v(t)} = v(t) Osservazione intervalli limitati.
2 +

|v(t)| dt.

(2.3.2)

Come per il prodotto scalare, norma ed energia possono essere valutati su

Lenergia di un segnale coincide spesso con lenergia sica che viene dispersa dal segnale, a meno eventualmente di qualche fattore moltiplicativo.
Esercizio 13 Si consideri un segnale x(t) ad energia nita pari ad E {x}. Sia dato il segnale y = 2 x(t/2). Quanto vale E {y(t)}? Soluzione Si applica la denizione di energia, ovvero si fa lintegrale del segnale y(t) al quadrato:
Z
+

E { y} =

2x

 2

t 2

  2

dt =

2 x

t 2

  2

dt = 2

t 2

dt.

Applico una sostituzione, ovvero t/2 = e dt = 2 d:


Z
+

E { y} = 2

x2 ()2d

Perci` si ricava che: o E { y} = 4 E { x}

Possiamo ora denire la base di segnali. Denizione 2.9 Si dice base di segnali un insieme ortonormale {un (t)} di segnali, tale cio` che e valga: (ui (t), uj (t)) = ij . I segnali di una base devono dunque essere ortogonali fra di loro (cio` il loro prodotto scalare deve e essere nullo) e avere tutti norma unitaria.
Esercizio 4 Si considerino 10 segnali un (t) = An cos(2nt/T + ), 1 n 10, nellintervallo temporale [0, T ], con T e costanti positive nite. Anch i segnali siano ortonormali che condizioni e devono soddisfare queste costanti? Soluzione Inizio considerando due segnali e ne calcolo lintegrale tra 0 e T:
Z
T

un (t), um (t) =
0

un (t) um (t)dt =
Z Z
0 T 0 T

An cos
0

= An Am = An Am

1 cos 2 1 cos 2

 

2 nt + + Am cos T
 Z
T 0

2 mt + dt = T


2 2 nt + + nt + dt + T T 2 [n + m] t + 2 dt + T
 Z
T 0

1 cos 2


2 2 mt + mt dt = T T
 

 

1 cos 2

2 [n m] t + 2 dt T

2.4 Rappresentazione di un segnale tramite una base

21

Da questultimo passaggio si nota che il primo integrale si annulla nellintervallo [0,T]; il secondo integrale d` 1 se n = m ed ` nullo se n = m. a e Perci` considero il caso n = m: o A2 = n 1 2
Z
0 T

1 dt = un (t) un (t) = un 1 T =1 2
r

=1

A2 n

An =

2 T

Questo ` quindi il valore di An che deve esser utilizzato per soddisfare la condizione di ortonormalit`. La e a invece non ha alcun peso sul risultato, perci` si deduce che il suo valore ` arbitrario. o e

2.4

Rappresentazione di un segnale tramite una base

Vogliamo vedere se sia possibile denire le componenti di un segnale rispetto ad una base ssata, cos` come accadeva per un vettore. Ci aspettiamo che la risposta sia aermativa, in quanto, se ci` o ` possibile per uno spazio lineare, dovrebbe esserlo anche per quello dei segnali; potremmo allora e procedere per analogia. Fissata una base {ui (t)} composta da n segnali, potremmo scrivere:
n

v(t) =
i=1

vi ui (t),

per opportuni coecienti vi deniti come: vi = (v(t), ui (t)). Eventualmente, il nostro segnale potrebbe richiedere inniti versori, ed essere rappresentato con una serie, anzich con una somma nita. e Torniamo a pensare ai segnali come vettori algebrici: se consideriamo il prodotto scalare tra due vettori che hanno innite entrate, esso converge? In simboli, ci chiediamo se converga la serie
+

vw =
n=1

vn wn .

In generale, niente ci assicura che essa converga. Si pu` per` dimostrare che, se i quadrati delle o o norme dei due vettori sono entrambi niti, allora la serie converge. Consideriamo ancora la base di segnali {ui (t)} e il segnale v(t). Ciascun versore della base soddisfa lipotesi appena imposta, avendo norma unitaria; dobbiamo per` imporre anche che lenergia del o segnale v(t) sia nita. In tal caso, il prodotto scalare tra il segnale e un versore della base converger` a ad un numero nito, e quindi sar` possibile scrivere v(t) come combinazione lineare dei vettori della a base. Dora in poi, ci occuperemo di segnali a energia nita, a meno che non sia indicato diversamente. In tal caso, potremo sempre scomporre il segnale nelle sue componenti; va comunque ricordato che ci` pu` accadere anche per alcuni segnali a energia innita. Questo caso sar` analizzato pi` o o a u avanti. Procediamo ora con un esempio. Esempio Sia data una base di quattro segnali un (t) deniti come segue: un (t) = p1 t 1 n , 2

22

Spazi lineari

1.5

0.5

0.5 1

Figura 2.1: Graco dellapprossimazione del segnale v(t) con una base di porte.

con n [0; 3]. Essa ` costituita da quattro porte di durata unitaria, aancate luna allaltra a e partire dallorigine. Cerchiamo di trovare le componenti del segnale v(t) = 1 t/4, con t [0; 4], rispetto alla base assegnata. Secondo la denizione, sar`: a
+

v0 =

v(t)u (t)dt = 1

1
0

t 4

dt =

7 8

Completando gli altri semplici calcoli, risulta: vn = vapp (t) = 7 1 p1 t 8 2 7 5 3 1 , , , 8 8 8 8

5 1 3 1 1 1 + p1 t 1 + p1 t 2 + p1 t 3 , 8 2 8 2 8 2

Come ` possibile vedere dal graco riportato in gura 2.1, i due segnali non sono aatto coincidenti: e questo accade perch la base data ` inadeguata al segnale da rappresentare. In realt` ci` non ` del e e a o e tutto corretto, in quanto sarebbe stato possibile rappresentare il segnale come combinazione lineare di un numero innito di porte aventi durata innitesima. Tuttavia, laver scelto un numero nito N di versori ci porta ad ottenere un segnale vapp (t) e un errore verr (t) = v(t) vapp (t):
+ N +

v(t) =
i=1

vi ui (t)

vapp (t) =
i=1

vi ui (t)

verr (t) =
i=N

vi ui (t)

` E possibile valutare lerrore in vari modi, al ne di stabilire se la rappresentazione che abbiamo ottenuto sia soddisfacente. Il sistema che adotteremo ` quello della valutazione dellenere gia: vorremo cio` che lenergia dellerrore tenda a zero. In questo modo, avendo E {v(t)} = e

2.5 Serie di Fourier

23

E {vapp (t)} + E {verr (t)} (come ` facile vedere ricorrendo alla denizione di energia), lenergia del e segnale approssimato tender` allenergia del segnale originale. a Calcoliamo dunque lenergia di v(t) e di vapp (t) per valutarne la dierenza:
4

E {v(t)} =
0

t 4

dt =
0 4

1
2

t t2 + 2 16 63 . 48

dt =

4 3

E {vapp (t)} =
0

|vapp (t)| dt =

Come si pu` vedere, lo scarto di energia ` di 1/48, pari al 2,083%. Nonostante il segnale abo e bia sostanzialmente cambiato forma donda, dal punto di vista energetico lapprossimazione che otteniamo non ` rozza come ci aspettavamo. e Osservazione Pu` essere interessante notare che lapprossimazione di un segnale e lerrore o dellapprossimazione sono ortogonali. Infatti:
+ N

(verr (t), vapp (t)) =


I n=N +

vn un (t)
m=1 N

vm um (t)

dt =

=
I n=N m=1 + N

vn vm un (t)u (t)dt = m + N vn vm nm = 0 n=N m=1

=
n=N m=1

vn vm (un (t), um (t)) =

2.5

Serie di Fourier

Abbiamo parlato della necessit` di utilizzare basi composte da inniti segnali al ne di ottenere una a riproduzione perfetta di un segnale dato. Tali basi prendono il nome di basi complete. Come abbiamo visto dallesempio precedente, una base pu` non essere adatta a rappresentare fedelo mente un certo segnale. Ci si pu` chiedere se esista allora una base tale che qualsiasi segnale v(t) o possa essere scritto come combinazione lineare dei suoi segnali: tale base esiste, e si tratta dalla base di Fourier. Essa ` cos` denita1 : e 1 1 un (t) = ej2nt/T = cos T T 2 nt + j sin T 2 nt T . (2.5.1)

In breve, ciascun versore ` un esponenziale complesso moltiplicato per un fattore di normalizzazione; e la seconda eguaglianza discende dallespressione trigonometrica dellesponenziale complesso (formula di Eulero). Lasciamo allo studente il compito di vericare che questo insieme di segnali ` ortonore male. Si pu` dimostrare (ma non lo faremo in questa sede) che qualsiasi segnale a energia nita o pu` essere scritto come serie di Fourier, utilizzando la base appena descritta. o Spesso useremo per comodit` dei coecienti leggermente diversi da quelli considerati nora. Scrivera emo: + + 1 n ej2nt/T vn un (t) = v(t) = T n= n=
+

vn = (v(t), un (t)) =

1 v(t)u (t)dt = T

n v(t)ej2nt/T dt = , T

1 Indicheremo con j lunit` immaginaria j 2 = 1, secondo luso diuso in ingegneria; in questo modo si eviteranno a confusioni con la lettera i, utilizzata in matematica pura, che viene in genere riservata ad altre variabili.

24

Spazi lineari

I coecienti n , per cos` dire, inglobano il fattore di normalizzazione dellesponenziale di Fourier. Tale correzione pu` sembrare superua, ma vedremo che ci risulter` comoda per trattare con alcune o a delle grandezze che abbiamo denito. Esempio Consideriamo una porta di ampiezza unitaria e durata D, centrata nellorigine; + calcoliamone lo sviluppo in serie di Fourier p D (t) = n= xn un (t).
D/2

xn = (p D (t), un (t)) =
D/2

ej2nt/T dt = T 1 1 2j n/ T ejnD/T + ejnD/T

1 1 = ej2nt/T j2n/T T

D/2 D/2

nD T T. = n Nel caso n = 0, lespressione precedente ci porterebbe ad una forma indeterminata. Possiamo procedere per sostituzione: sin
+

x0 =

p D (t)

ej T nt dt T

D/2 n=0

=
D/2

D 1 dt = . T T

Il graco 2.2 riporta in blu la forma donda della porta, mentre in rosso viene disegnato landamento della serie di Fourier quando la si tronca ai primi N termini. Come si pu` ben vedere, la serie di Fourier approssima ecacemente il segnale gi` con N relativao a mente basso, nonostante la funzione che vogliamo rappresentare sia abbastanza brutta, essendo ` discontinua in due punti. E interessante notare che ` possibile scrivere in serie di Fourier qualsiasi e segnale, anche se apparentemente non ha niente a che fare con una combinazione lineare di seni e coseni.
Esercizio 2 Calcolare lenergia del segnale: x( t) = cos(2fo t) + 2sin(4f0 t) +
1 denito nellintervallo [0,T], con fo = T . Suggerimento: sviluppare il segnale in serie di Fourier.

2cos(8f0 t),

Soluzione Lesercizio pu` esser risolto in due modi: o Applicando direttamente la formula dellenergia di un segnale:
Z
T 0

E {x(t)} =

|x(t)|2 dt

Purtroppo questo metodo risulterebbe troppo complesso e lungo, perci` ` preferibile evitarlo oe Sviluppando il segnale con la serie di Fourier e elevando al quadrato i termini. Successivamente si fa la somma di tali valori e si ottiene cos` lenergia del segnale E {x(t)} = x(t) x(t) =
X
n

|xn |2 =

+ X n=

|cn |2 = T

+ X n=

|n |2

Utilizzando le formule di Eulero per il seno ed il coseno: 1 j 1 j e + e 2 2 1 j 1 j sen() = e e 2j 2j cos() =

2.5 Serie di Fourier

25

1.2 N=1 N=3 N=5 N=15 N=50

0.8

0.6

0.4

0.2

0.2 1

0.8

0.6

0.4

0.2

0.2

0.4

0.6

0.8

Figura 2.2: Graco dellapprossimazione della porta con la serie di Fourier troncata ai primi N termini.

Si sviluppa la x(t): x(t) =

1 j8f t 1 j8f t 1 j2f0 t 1 j2f0 t 1 j4f0 t 1 j4f0 t 0 0 e + e + 2 e e + 2 e + e . 2 2 2j 2j 2 2 1 2

Raggruppando i termini si ottiene: 0 = 0 3 = 3 = 0




1 = 1 = 4 = 4 =

2 2 Ora non rimane altro che fare la somma del quadrato di ciascun termine preso in valore assoluto: T
+ X n=

|n |2 = T

1 1 1 1 7 + +1+1+ + = T. 4 4 2 2 2

Esercizio 3

Siano dati i segnali: x(t) = 1 cos(2fo t) + 2 sin(2f0 t) + cos(4f0 t) + 2 sin(8f0 t) 2 1 1 y(t) = cos(2fo t) sin(2f0 t) cos(4f0 t), 2 3

26

Spazi lineari

deniti nellintervallo [0,T], conf0 =

1 T

. Calcolare il prodotto scalare fra le due funzioni.

Soluzione I passaggi iniziali sono simili a quelli dellesercizio precedente: x(t) = 1 j2f0 t 1 j2f0 t 1 j2f0 t 1 j2f0 t e + e + e + e + 4 4 j j 1 1 j8f0 t 1 j8f0 t 1 e + e + ej4f0 t + ej4f0 t + 2 2 j j

y(t) =

1 j2f0 t 1 j2f0 t 1 j2f0 t 1 j2f0 t 1 j4f0 t 1 j4f0 t e e e + e e e 4 4 2j 2j 6 6

Raccogliendo i termini delle due funzioni si ha: x0 = 0 1 1 x1 = + 4 j 1 1 x 1 = 4 j 1 x2 = 2 1 x 2 = 2 x3 = x 3 = 0 1 x4 = x 4 = j y0 = 0 1 1 = 4 2j 1 1 = + 4 2j 1 y2 = 6 1 y 2 = 6

y1 y 1

Ora applichiamo la regola del prodotto scalare, ovvero: x(t), y(t) =



+ X (xn yn ) T

n=

x(t), y(t) = T

1 1 + 4 j

 

1 1 + 4 2j

1 1 4 j

 

1 1 4 2j

1 + 12

1 + 12



31 T. 24

2.5.1

Propriet` dei coecienti di Fourier a


+ +

Consideriamo un segnale s(t) a energia nita: esso avr` uno sviluppo in serie di Fourier del tipo: a s(t) = 1 1 cn ej2nt/T = T T n= n ej2nt/T .
n=

Indichiamo ora qualche propriet` particolare dei coecienti di Fourier. a Teorema 2.1 Sia s(t) : R R un segnale reale a energia nita. Allora, valgono le seguenti relazioni: cn = c , n n = . n (2.5.2)

Dimostrazione Ricordando la relazione che intercorre tra cn e n = cn T , baster` dimostrare a una delle due relazioni perch anche laltra risulti giusticata. Per semplicit`, dimostreremo il teorema sui e a coecienti normalizzati. Per denizione: n = 1 T
Z

s(t)ej2nt/T dt =
I

1 T

s(t) cos(2nt/T )dt + j


I

1 T

s(t) sin(2nt/T )dt;


I

2.5 Serie di Fourier

27

analogamente: n = 1 T

s(t) cos(2nt/T )dt + j


I

1 T

s(t) sin(2nt/T )dt.


I

Il teorema discende dalle relazioni trigonometriche cos(x) = cos(x) e sin(x) = sin(x): le parti reali sono uguali, mentre le parti immaginarie sono opposte, il che coincide con la denizione di complesso coniugato. c.v.d.

Notiamo che quando parliamo di segnali reali non imponiamo nessuna restrizione al loro dominio, che pu` essere linsieme dei numeri complessi; richiediamo soltanto che i valori che essi assumono, o e cio` il loro codominio, siano reali. e Questo teorema ci permette di rendere pi` veloce il calcolo dei coecienti, in quanto ci baster` u a trovare solo quelli con n 0, completando la lista con i relativi complessi coniugati. Abbiamo anche un ecace sistema di controllo per vericare lesattezza dei nostri conti. Vogliamo vedere se sia possibile facilitarci anche altre operazioni, in particolare il prodotto scalare. Teorema 2.2 Siano x(t) e y(t) due segnali a energia nita. Siano xn , n i coecienti della serie di Fourier per x(t) e yn , n i coecienti per y(t). Vale la seguente formula:
+ + xn yn = T n= n= n n .

(x(t), y(t)) =

(2.5.3)

Dimostrazione

Dalla propriet` di linearit` del prodotto scalare discende: a a (x(t), y(t)) =


+ X n=

xn un (t),
+ X

+ X m=

ym um (t)

+ X

xn ym (un (t), um (t)) =

n= m=

+ X

+ X

xn ym nm = + X n=

n= m=

+ X n=

xn ym = T

n m

c.v.d.

Corollario 2.2.1 Sia x(t) un segnale a energia nita. Vale:


+ +

E {x(t)} =
n=

|xn | = T
n=

|n | .

(2.5.4)

Dimostrazione

Dal Teorema precedente risulta: E {x(t)} = (x(t), x(t)) =


+ X n=

xn x = n

+ X n=

|xn |2 .

Analogamente, si pu` ottenere lespressione con i coecienti normalizzati n . o c.v.d.

Osservazione Le formule (2.5.3) e (2.5.4) valgono per i coecienti dello sviluppo rispetto a una qualsiasi base completa di segnali, non soltanto per la base di Fourier. In generale, laddove venga richiesta una base completa, dora in poi si utilizzer` la base di Fourier. a

28

Spazi lineari

Queste propriet` ci permettono di introdurre unulteriore semplicazione. Consideriamo due segnali a x(t) e y(t) entrambi reali; ricordando che z + z = 2 e{z}, avremo:
+ + xn yn n= + (xn yn n=1

(x(t), y(t)) =

x0 y0

xn yn )

x0 y0

+2
n=1

e{xn yn }.

2.5.2

Interpretazione dei coecienti di Fourier

Nella denizione di un (t) compare un esponente piuttosto particolare; cerchiamo di analizzarlo per comprendere se i coecienti della serie di Fourier possano avere un signicato sico. A tal ne, utilizziamo la formula di Eulero: un (t) = cos 2 nt + j sin T 2 nt . T

Lesponenziale complesso, come dimostra il suo sviluppo in seni e coseni, ` loscillatore per eccellenza. e Chiamiamo la pulsazione che lo caratterizza nella base di Fourier: = 2 n. T

Ricordando che la pulsazione ` pari alla frequenza moltiplicata per 2, otteniamo: e fn = n = . 2 T

Il nome di frequenza ` in eetti appropriato, in quanto essa risulta pari ad un rapporto tra un e numero puro ed il periodo T , che si misura in secondi: fn si misura dunque in Hertz (Hz=s1 ). Ciascuno dei segnali che compongono la base di Fourier rappresenta dunque unoscillazione ad una precisa frequenza fn , direttamente proporzionale a n; quindi, il coeciente cn (o equivalentemente n = cn / T ) rappresenta il peso della frequenza n-esima per il segnale considerato. In altre parole, possiamo dire che il graco di |cn | in funzione di n ` lo spettro in frequenza del segnale. e Questa applicazione sica rende la serie di Fourier (e la trasformata di Fourier, che verr` introdotta a poco pi` avanti) molto adatta per lo studio di segnali audio, in quanto ` possibile scomporre un u e suono nelle sue componenti in frequenza proprio attraverso questi semplici strumenti.

Capitolo 3

Trasformata di Fourier
Consideriamo un segnale v(t) : C C a energia nita. Esiste allora il suo sviluppo in serie di Fourier: v(t) = 1 T
+

n ej2fn t ,
n=

(3.0.1)

dove fn =

n , secondo la denizione di frequenza appena introdotta, e con T


T /2

n = (v(t), un (t)) =
T /2

v(t) ej2fn t dt.

Sappiamo che i coecienti n rappresentano il contenuto in frequenza del segnale v(t) a certe frequenze uniformemente distribuite sullasse reale. In particolare, tra il valore di fn e quello del successivo fn+1 c` un intervallo f che vale e f = fn+1 fn = n+1 n 1 = . T T T

Se sostituiamo questa relazione nella (3.0.1), otteniamo:


+

v(t) = f
n=

n ej2fn t .

(3.0.2)

Ci chiediamo se sia possibile inttire la partizione dellasse delle frequenze, al ne di ottenere uninformazione maggiore sullo spettro del segnale. Facciamo un esempio concreto per renderci conto del problema: poniamo T = 1 s; f sar` dunque pari a 1 Hz. Calcolando lo sviluppo in serie a di Fourier, sapremo che nel segnale v(t) larmonica corrispondente a 440 Hz viene moltiplicata per un coeciente a e quella con frequenza 441 Hz per un coeciente b; se per` volessimo conoscere la o componente relativa alla frequenza di 440,5 Hz, non potremmo risolvere il problema. Se facciamo tendere T ad innito, f 0; la variabile discreta fn tende quindi a diventare una variabile continua, che chiamiamo semplicemente f . La serie diventa quindi una sommatoria di inniti termini separati da intervalli innitesimi: diventa cio` un integrale. Scriviamo dunque: e
+

f =

v(t)ej2f t dt = (f )
+

(3.0.3)

v(t) =

(f )ej2f t df

(3.0.4)

30

Trasformata di Fourier

x(t)

X(f ) sin(f ) f 1 + j2f sin(f ) f 2 2 e2


2

p (t) et u(t)

T ri (t) e 22
t2

f 2 2

Tabella 3.1: Alcuni segnali notevoli e la loro trasformata di Fourier.

Lespressione (3.0.3) ` la denizione della trasformata di Fourier del segnale v(t), mentre la e (3.0.4) ` lantitrasformata di Fourier. In simboli: e (f ) = F {v(t)} v(t) = F 1 {(f )} .

Per convenzione si usa la lettera maiuscola per indicare la trasformata di Fourier, ad esempio X(f ) = F {x(t)}. La tabella 3 riporta alcune funzioni e le loro trasformate di Fourier. Il concetto di trasformata di Fourier richiede un notevole sforzo al ne di dimostrarne lesistenza, lunicit` o leettiva cora rispondenza tra x(t) e F 1 {F {x(t)}}; tuttavia noi non ci soermeremo su questi aspetti, che sono invece argomento centrale dei corsi di Analisi Matematica. Abbiamo preferito privilegiare in questa sede la facilit` di comprensione, scegliendo unesposizione pi` intuitiva rispetto al rigoroso processo a u matematico.

3.1

Propriet` della trasformata di Fourier a

Restringiamo la nostra analisi al caso di segnali reali. Sotto questa condizione, la trasformata di Fourier gode di alcune interessanti propriet`. a Teorema 3.1 Sia s(t) : C R un segnale reale, e sia S(f ) = F {s(t)}. Valgono le tre seguenti relazioni: S(f ) = S (f ) (3.1.1) |S(f )| = |S(f )| S(f ) = S(f ), cio` il modulo della trasformata ` pari, mentre la sua fase ` dispari. e e e
Dimostrazione Per prima cosa dimostreremo (3.1.1). Sar` suciente ricorrere alla denizione: a
Z
+

(3.1.2) (3.1.3)

S(f ) = =

s(t) ej2(f )t dt =


s(t) ej2f t dt =

Z +

s(t) ej2f t dt

= S (f ),

3.1 Propriet` della trasformata di Fourier a

31

dal momento che s(t) = s (t) essendo un segnale reale. A questo punto non ` dicile dimostrare la (3.1.2): e |S(f )| = |S (f )| = |S(f )| . Per dimostrare la (3.1.3), scriviamo S(f ) in coordinate polari: S(f ) = |S(f )| ej \S(f ) = |S(f )| ej \S(f ) ; la seconda diseguaglianza discende dalla parit` del modulo della trasformata espressa dalla (3.1.2). Scrivia amo ora unespressione analoga di S (f ): S (f ) = |S(f )| ej \S(f )
 

= |S(f )| ej \S(f ) = |S(f )| ej \S(f ) .

Ma abbiamo dimostrato che S(f ) = S (f ); eguagliando le due espressioni otteniamo:

\S(f ) = \S(f ).
c.v.d.

Corollario 3.1.1 Dalla (3.1.1) discende che la parte reale della trasformata di Fourier di un segnale reale s(t) ` pari, mentre quella immaginaria ` dispari. e e e{S(f )} = e{S(f )} m{S(f )} = m{S(f )} Queste prime propriet` ricordano molto da vicino le propriet` dei coecienti della serie di Fourier, a a di cui in eetti la trasformata di Fourier ` unestensione concettuale. Le particolarit` di simmetria e a della trasformata rispetto allasse delle ordinate fanno s` che si possa semplicare di molto lanal isi dei segnali; per esempio, unimmagine familiare a molti ` quella dello spettro di una canzone e memorizzata in un le .wav. Il graco del modulo della trasformata o dei coecienti di Fourier si estende infatti anche nel campo delle frequenze negative; tuttavia, possiamo disegnarne soltanto la parte con f > 0, proprio per via della parit` di |S(f )|. a Enunciamo ora un teorema particolarmente importante. Teorema 3.2 Sia s(t) : C R un segnale reale. Valgono le seguenti aermazioni: 1. se s(t) ` pari, S(f ) = F {s(t)} ` reale e pari; e e 2. se s(t) ` dispari, S(f ) ` immaginaria pura e dispari. e e Non scenderemo nei dettagli della dimostrazione, che non presenta particolari dicolt`. Osserviamo a solo che, tramite la formula di Eulero, possiamo scrivere:
+ +

F {s(t)} =

s(t) cos(2f t)dt + j

s(t) sin(2f t)dt = S (f ) + jS (f ).

Se il segnale da trasformare fosse pari, nel primo integrale avremmo una funzione integranda pari, essendo il prodotto di due funzioni entrambe pari, mentre nel secondo avremmo una funzione dispari. Ricordando che lintegrale di una funzione dispari tra estremi simmetrici rispetto allorigine ` nullo, e si vede che sopravvive solo S (f ). Al contrario, se s(t) fosse dispari sarebbe il primo integrale ad annullarsi, e quindi S(f ) sarebbe immaginaria pura.
Esercizio 9 ` E dato il segnale: x(t) = sin (2f0 t) et Come risulta essere la sua trasformata di Fourier? Soluzione Si ricorda che:
2

32

Trasformata di Fourier

se f (x) = f (x) se f (x) = f (x)

allora f (x) ` una funzione pari e allora f (x) ` una funzione dispari e

Si deduce facilmente che x(t) ` una funzione dispari. Per il Teorema appena esposto, la trasformata di e Fourier di x(t) sar` immaginaria pura e dispari. a Esercizio 10 ` E dato il segnale: x(t) = sin (2f0 t) t e|t| Come risulta essere la sua trasformata di Fourier? Soluzione Lesercizio ` molto simile a quello precedente. Il segnale x(t) risulta essere reale pari, quindi il Teorema e precedente ci dice che la trasformata di Fourier di x(t) ` reale e pari. e

3.1.1

Linearit` a

Ci soermiamo ora brevemente sulle principali operazioni di manipolazione dei segnali. Per prima cosa, notiamo che la trasformata di Fourier gode delle propriet` di linearit` che abbiamo gi` incona a a trato pi` volte. Per rendersene conto, ` suciente pensare alla denizione: essendo lintegrale un u e operatore lineare, anche la trasformata di Fourier lo `. Possiamo quindi scrivere: e F {x(t) + y(t)} = F {x(t)} + F {y(t)} (3.1.4)

Questa propriet` viene utilizzata nei processi di amplicazione di un segnale. A livello concettuale, a per amplicare un suono possiamo aumentare lampiezza della sua forma donda nel tempo, oppure ` moltiplicare per un coeciente tutte le sue componenti in frequenza. E quello che succede ad esempio con lamplicazione digitale su computer, dal momento che i suoni vengono memorizzati attraverso metodi che sfruttano la scomposizione del segnale nelle sue componenti in frequenza.

3.1.2

Scalamento nel tempo


1 X || f

Teorema 3.3 Sia x(t) un segnale che ammette trasformata di Fourier X(f ) = F {x(t)}. Allora: F {x(t)} =
Dimostrazione

(3.1.5)

Distinguiamo il caso di positivo da quello di negativo. Per > 0 abbiamo:


Z
+

F {x(t)} =

x(t) ej2f t dt =

1 1 x() ej2f / d = X
 

 

per mezzo del cambio di variabili = t. Per < 0 possiamo scrivere = ||, e quindi abbiamo:
Z
+

F {x ( || t)} =

x( || t) e

j2f t

dt =
+

x()

j2f || e

1 ||

1 d = X ||

 

Per unicare i due casi possiamo dunque adottare la scrittura: 1 X F {x(t)} = ||


 

. c.v.d.

Lo scalamento nel tempo ha quindi due conseguenze sulla trasformata di Fourier. Innanzitutto riduce lampiezza del segnale in frequenza di un fattore ||. In secondo luogo, se chiamiamo banda il supporto della trasformata, essa risulta ampliata volte: ci` signica che il nostro segnale raggiunge o

3.1 Propriet` della trasformata di Fourier a

33

una frequenza maggiore o minore a seconda del valore di . Per avere unidea di che cosa signichi, basta pensare a cosa succede quando comprimiamo una canzone di 3 minuti in 1 minuto e mezzo ( = 2): essa viene riprodotta pi` acuta, cio` a frequenza maggiore. Se invece rallentiamo un suono, u e esso ci sembrer` pi` grave. a u Un caso particolare di scalamento ` linversione, cio` la riproduzione di un segnale in senso inverso, e e per rimanere nel campo dellapplicazione audio. Si tratta infatti di uno scalamento con = 1: F {x(t)} = X(f ), se x(t) R = F {x(t)} = X (f ). Se consideriamo |X(f )|, ` evidente che per segnali reali linversione non modica lo spettro del e segnale; questo trova ancora riscontro nella realt`, in quanto, intuitivamente, un suono riprodotto a al contrario non cambia il suo contenuto in frequenza.
` Esercizio 8 E dato il segnale y(t) = x(2t), dove x(t) ` un segnale reale a banda limitata. Confrontare e la banda e lenergia del segnale y(t) con quella del segnale x(t). Soluzione Per la propriet` di scalamento si ha: a 1 F {y(t)} = F {x(2t)} = X 2
 

(3.1.6)

f 2

Da questa formula si pu` notare che y(t) ` a banda limitata maggiore di quella di x(t), per lesattezza larga o e il doppio. Rimane ora da calcolare lenergia di y(t):
Z
+

E {y(t)} =

y(t) y (t) dt =

|x(2t)|2 dt

Applicando la sostituzione = 2t e dt = d/ 2 allintegrale si ottiene: E {y(t)} = 1 2


Z
+

|x()|2 d =

1 E {x(t)} . 2

Da questultimo integrale si osserva che lenergia di y(t) ` minore rispetto a quella di x(t). e

3.1.3

Ritardo nel tempo

Applicare ad un segnale x(t) un ritardo T nel tempo signica considerare il segnale x(t T ). Teorema 3.4 Sia x(t) un segnale che ammette trasformata di Fourier X(f ) = F {x(t)}. Allora: F {x(t T )} = X(f ) ej2f T .
Dimostrazione F {x(t T )} =

(3.1.7)

Applicando la denizione di trasformata di Fourier e ponendo = t T abbiamo:


Z
+

x(t T ) ej2f t dt =

x() ej2f (+T ) d = ej2f T F {x()} . c.v.d.

La propriet` dimostrata coincide con quello che ci aspetteremmo: infatti ritardare un segnale sonoro a non signica alterarne le componenti in frequenza (il suono prodotto ` sempre lo stesso), ma solo e ` cambiarne la fase. E facile vedere che si ha |F {x(t T )}| = X(f ) ej2f T = |X(f )| ,

34

Trasformata di Fourier

F {x(t T )} = X(f ) + ej2f T = X(f ) j2f T. Come si vedr` in corsi successivi, un amplicatore ideale deve avere unamplicazione con modulo a costante (almeno nella banda passante) e sfasamento lineare rispetto alla frequenza; ci` corrisponde o alle relazioni precedenti. Infatti, un amplicatore ideale applica al segnale soltanto un ritardo temporale (oltre, naturalmente, ad un fattore moltiplicativo).
Esercizio 7 Sia data la seguente trasformata di Fourier: F eat u(t) = Calcolare: F 1


1 a + j2f

, con


a>0

ej2f T a + j2(f f0 )

= x(t).

Soluzione Per la propriet` di modulazione della trasformata di Fourier ils egnale richiesto `: a e x(t) = ea(t+T ) u(t + T ).

3.1.4

Modulazione in frequenza

La modulazione in frequenza ` la traslazione del segnale in frequenza. Vogliamo cio` sapere cosa e e succede se consideriamo X(f F ) e la antitrasformiamo; percorriamo cio` il percorso inverso rispetto e al ritardo nel tempo. Teorema 3.5 Sia x(t) un segnale che ammette trasformata di Fourier X(f ) = F {x(t)}. Allora: F x(t) ej2F t = X(f F ).
Dimostrazione

(3.1.8)

La dimostrazione della propriet` di modulazione ` del tutto analoga alla precedente: a e F x(t) ej2F t
n o Z
+

x(t) ej2(f F )t dt = X(f F ). c.v.d.

Osserviamo come tra le due propriet` di traslazione in tempo e in frequenza ci sia una certa sima metria: traslare un segnale in un dominio signica moltiplicarlo per un esponenziale complesso nellaltro. In eetti, le due propriet` sono identiche, a meno del segno dellesponente; vedremo pi` a u avanti altre importanti propriet` di simmetria della trasformata di Fourier. a La propriet` di modulazione ` estremamente importante nel campo delle telecomunicazioni via raa e dio. Per poter inviare pi` segnali tramite un solo canale ` infatti necessario che le bande di ciascun u e segnale non si sovrappongano; in caso contrario si otterrebbe la somma dei segnali trasmessi, dalla quale non si riuscirebbe a risalire alla trasmissione originale. Si osservi per` che lo spettro che otteniamo nellespressione (3.1.8) non ` pari; questo accade perch o e e il segnale x(t) ej2F t non ` reale. Nella pratica non ` possibile utilizzare segnali complessi; si usa e e dunque la moltiplicazione per un coseno di frequenza F . Si ottiene: F {x(t) cos 2F t} = F 1 x(t) ej2F t 2 +F 1 x(t) ej2F t 2 = 1 1 X(f F ) + X(f + F ). 2 2

Lo spettro di frequenza viene cio` sdoppiato in due spettri identici, dei quali uno viene traslato e a sinistra di F e laltro a destra della stessa quantit`. a

3.1 Propriet` della trasformata di Fourier a

35

Esercizio 6

Sia data la seguente trasformata di Fourier: F eat u(t) = 1 a + j2f




, con

a>0

Calcolare: F 1

1 a + j2f

= x(t).

Soluzione Per la propriet` di modulazione della trasformata di Fourier la funzione richiesta ` semplicemente: a e x(t) = eat u(t) ej2f0 t .

3.1.5

Trasformata di Fourier del complesso coniugato

Se il segnale x(t) ` un segnale complesso, ci chiediamo quale sia la trasformata di Fourier del suo e complesso coniugato x (t). Teorema 3.6 Sia x(t) un segnale che ammette trasformata di Fourier X(f ) = F {x(t)}. Allora: F {x (t)} = X (f ).
Dimostrazione sinistra.

(3.1.9)

Procediamo al contrario, partendo dal membro di destra per arrivare a quello di


Z

X (f ) =

x(t) ej2(f )t dt

x (t) ej2(f )t dt = F {x (t)} . c.v.d.

Non utilizzeremo spesso questa propriet` , dal momento che dora in poi ci occuperemo per lo pi` a u di segnali reali.

3.1.6

Derivazione nel tempo

La trasformata di Fourier ha unimportante propriet` rispetto alloperazione di derivazione. a Teorema 3.7 Sia x(t) un segnale che ammette trasformata di Fourier X(f ) = F {x(t)}. Allora: F
Dimostrazione

dx(t) dt

= X(f )j2f.

(3.1.10)

Ricordando la denizione di antitrasformata, possiamo scrivere: d d x(t) = dt dt


Z

X(f ) ej2f t df .

Sia la derivazione sia lintegrazione sono operazioni lineari, inoltre esse riguardano due diverse variabili (infatti stiamo integrando in f e derivando su t): ` quindi possibile scambiarne lordine. Inoltre, X(f ) e non dipende da t, e quindi possiamo escluderla dalla derivazione come se fosse una costante. Lespressione precedente diventa:
Z
+

X(f )

d j2f t e df = dt

X(f )j2f ej2f t df = F 1 {X(f )j2f } .

A questo punto ` suciente trasformare entrambi i membri per ottenere lespressione cercata: e


d x(t) dt

= X(f )j2f.

36

Trasformata di Fourier

c.v.d.

In pratica la trasformata di Fourier ci permette di trasformare loperazione di derivazione in una ben pi` semplice moltiplicazione. Questa propriet` ` particolarmente utile nella risoluzione di equazioni u ae dierenziali: si consideri ad esempio lequazione: x(t) + 3x(t) = y(t). Applicando la trasformata di Fourier (o la pi` utilizzata trasformata di Laplace, che gode di una u propriet` del tutto analoga) si ottiene unequazione lineare in X(f ): a (j2f )2 X(f ) + 3X(f ) = 4 2 f 2 X(f ) + 3X(f ) = Y (f ), dalla quale si pu` ottenere lespressione di X(f ); ` inne suciente antitrasformare questultima o e per risalire a x(t). Ecco quindi che con questi nuovi strumenti ` possibile risolvere unequazione e dierenziale (il che, in generale, ` dicile) riducendola ad una ben pi` semplice equazione algebrica, e u a patto di saper trasformare e antitrasformare tutte le funzioni che compaiono nellequazione.

3.2

Segnali ad energia innita

Allinizio di questo capitolo abbiamo esteso il concetto di serie di Fourier arrivando a denire la trasformata di Fourier. La stretta relazione fra le due forme ci porta a pensare che entrambe abbiano le stesse richieste: appare cio` chiaro, almeno intuitivamente, che tutte le funzioni che potevano e essere scritte in serie di Fourier ammettano anche una trasformata. In eetti, la serie di Fourier era applicabile a qualsiasi segnale x(t) a energia nita, e nora abbiamo considerato anche per la trasformazione soltanto segnali con E {x(t)} < . Tuttavia, la trasformazione di Fourier ` uno strumento ben pi` potente della serie. Vedremo infatti, e u pur senza dimostrarlo, che ` possibile trasformare segnali ad energia innita, come costanti o gradini e unilateri. Iniziamo questo studio dalla funzione pi` strana che abbiamo visto nora, la delta di u Dirac. In eetti, la sua trasformata ` estremamente facile da calcolare: e
+

F {(t)} =

(t) ej2f t dt = ej2f 0 = 1.

(3.2.1)

Se si pensa al signicato sico della trasformata di Fourier, questo risultato ` sorprendente. Infatti e un segnale che ` nullo ovunque tranne che in un punto ha uno spettro in frequenza costante, cio` ` e ee composto dalla somma di tutte le sinusoidi prese tutte con la stessa ampiezza unitaria. Ci potremmo chiedere che cosa succederebbe se facessimo lapplicazione inversa, se cio` conside erassimo solo la sinusoide a frequenza nulla con ampiezza innita. Se la frequenza della sinusoide fosse nulla, allora si tratterebbe di una costante. Quello che abbiamo fatto corrisponde a cercare lantitrasformata di Fourier della delta di Dirac; vediamo che cosa otterremmo con la denizione di antitrasformata: F 1 {(f )} =
+

(f ) ej2f t df = ej2t0 = 1.

(3.2.2)

Potremmo quindi dire che lantitrasformata della delta sia 1, o, in altre parole, che la trasformata di 1 sia la delta. Cerchiamo tuttavia di vericare questo risultato percorrendo unaltra via, pi` u rigorosa: vediamo dunque la funzione costante di valore 1 come unestensione della porta: 1 = lim pT (t).
T

(3.2.3)

Dalla tabella 3 possiamo ricavare lespressione della trasformata di Fourier della porta. Se applichiamo dunque ad entrambi i membri della (3.2.3) la trasformazione, possiamo scrivere: F {1} = lim sin f T . T f

3.2 Segnali ad energia innita

37

Il graco della trasformata della porta ` riportato in gura 3.2. Come si pu` vedere, si tratta di e o unoscillazione pari smorzata verso |f | grande; in particolare, nellorigine assume il valore T . Al variare di T , la curva diventa pi` stretta e pi` alta nellorigine, mentre loscillazione rimane limiu u tata dalla curva 1/f . Intuitivamente, sembrerebbe che questa funzione tenda ad assumere valore innitamente grande nellorigine e nullo altrove, per T . Questo ricorda il comportamento della delta di Dirac, ma per stabilire una corrispondenza tra le due forme dobbiamo vericare che abbiano le stesse propriet`. a
6

T = 0,5 T = 1 T = 5

2 5

2
sin f T f

Figura 3.1: Graco della trasformata di Fourier della porta T.

, con alcuni valori del parametro

Anch valga la propriet` fondamentale della delta di Dirac (1.2.4), ` necessario che lintegrale su e a e tutto linsieme delle frequenze della trasformata della porta valga 1. Ponendo = f T abbiamo:
+

sin f T dt = f

sin 1 1 d = /T T

sin d = A

T,

cio` larea sottesa assume un valore costante che non dipende dallampiezza della porta T , come e avevamo gi` visto nel caso della porta normalizzata (cfr. 1.2.3). Si pu` dimostrare che la costante a o A vale esattamente 1, e che, pi` in generale, vale esattamente la relazione (1.2.4). Quindi possiamo u scrivere: F {1} = (f ). (3.2.4) Questo risultato ci permette di ottenerne un altro di fondamentale importanza. Applichiamo alla relazione appena dimostrata la propriet` di modulazione: a F ej2f0 t = F {1} (f f0 ) = (f f0 ). Questo ci permette di enunciare una regola di integrazione che ha carattere assolutamente generale:
+

ej2 (xx0 ) d = (x x0 ).

(3.2.5)

38

Trasformata di Fourier

Si noti limportanza della regola illustrata: nora infatti non eravamo in grado di integrare un esponenziale complesso, mentre ora abbiamo una semplice formula che pu` essere utilizzata in o qualsiasi caso. Si noti anche che non ` rilevante il segno dellesponente: infatti luno o laltro e caso discendono dalla modulazione della trasformata o dellantitrasformata di Fourier, come ` facile e vericare. Laver scoperto la trasformata di Fourier di una costante ci mette nelle condizioni di formalizzare la trasformazione del coseno e del seno: F {cos(2f0 t)} = F F {sin(2f0 t)} = F ej2f0 t + ej2f0 t 2 = (f f0 ) + (f + f0 ) ; 2

ej2f0 t ej2f0 t 2j

1 1 = j (f f0 ) + j (f + f0 ). 2 2

Possiamo anche determinare la trasformata della funzione segno: sign(t) =


0

1 1

t<0 , t>0
+ 0

F {sign(t)} =

ej2f t dt +

ej2f t dt =

1 , jf

e quella del gradino unilatero: u(t) = 0 1 t<0 1 1 = sign(t) + , 2 2 t>0

F {u(t)} =

1 1 1 1 F {sign(t)} + F {1} = (f ) + . 2 2 2 j2f

3.3

Invertibilit` della trasformata di Fourier a

Finora abbiamo sempre assunto che la trasformata di Fourier sia invertibile. In altre parole, abbiamo sempre considerato valida la coppia di relazioni:
+

S(f ) = F {s(t)} =

s(t) ej2f t dt S(f ) ej2f t df .

s(t) = F 1 {S(f )} =

Cerchiamo ora di dimostrare che ci` ` vero, dimostriamo cio` che s(t) = F 1 {S(f )} esiste sempre. oe e Procediamo dalla denizione di antitrasformata di Fourier e applichiamo lunica ipotesi, cio` S(f ) = e F {s(t)}: F 1 {S(f )} = =
+ + +

S(f ) ej2f t df =
+

s( ) ej2f ej2f t d df =

s( )

ej2f (t ) df d =

s( )(t )d = s(t),

ricordando che ` possibile scambiare lordine dellintegrazione negli integrali multipli. Risulta quindi e dimostrata linvertibilit` delloperazione di trasformazione. a

3.4 Trasformata di Fourier e prodotto scalare

39

3.4

Trasformata di Fourier e prodotto scalare

Consideriamo i versori della base di Fourier. Se facciamo il prodotto scalare tra due di questi versori otteniamo: (un (t), um (t)) = nm . Se per` considerassimo i due segnali senza il fattore di normalizzazione, avremmo: o ej2fn t , ej2fm t = nm T. Facciamo un analogo prodotto scalare con gli esponenziali non normalizzati che compaiono nellespressione della trasformata di Fourier: ej2f1 t , ej2f2 t =
+

ej2(f1 f2 )t dt = (f1 f2 ) = (f2 f1 ).

Cerchiamo una corrispondenza tra i due risultati. Passare dalla serie alla trasformata di Fourier signica far tendere T ad innito: tenendo presente ci`, si vede che i due risultati vengono a o coincidere. Infatti, la delta di Kronecker viene ad avere supporto nullo (per denizione) e ampiezza T (perch ` moltiplicata appunto per T ), il che coincide con la rappresentazione della delta ee di Dirac. Consideriamo inoltre una delle propriet` della serie di Fourier, espressa dalla (2.5.3): a
+ +

(x(t), y(t)) =

x(t)y (t)dt =
n=

xn yn ;

potremmo pensare di riproporre questa equivalenza in termini di trasformata di Fourier, passando da una somma discreta a un integrale continuo. Ci chiediamo cio` se valga: e
+

(x(t), y(t)) =

x(t)y (t)dt =

X(f )Y (f )df .

Teorema 3.8 Siano x(t), y(t) due segnali che ammettono trasformata di Fourier rispettivamente X(f ), Y (f ). Vale la seguente relazione: (x(t), y(t)) = (X(f ), Y (f )).
Dimostrazione Come prima, utilizzeremo la denizione di trasformata:
Z
+

(X(f ), Y (f )) =
Z +

X(f )Y (f )df =
Z
+

 Z

=
ZZZ
+

x() e

j2f

y(t) e

j2f

df =

=
ZZ
+

x()y ( ) ej2f ( ) dd df =

=
Z
+

x()y ( )( )dd =

= La tesi risulta dimostrata.

x()y ()d = (x(t), y(t)).

c.v.d.

Ci` signica che, allo scopo di determinare il prodotto scalare di due segnali, possiamo svolgere o loperazione indierentemente nel dominio del tempo o in quello della frequenza. Inoltre, il teorema 3.8 ha un corollario:

40

Trasformata di Fourier

Corollario 3.8.1 Sia X(f ) = F {x(t)}. Vale la seguente relazione: E {x(t)} = E {X(f )} . La dimostrazione ` immediata e quindi viene tralasciata. Questo risultato, sebbene molto intuitivo, e ` molto importante. Signica che lenergia di un segnale rimane invariata sia che lo guardiamo nel e tempo sia che lo guardiamo in frequenza. Possiamo quindi concepire lesistenza del segnale x indipendentemente dalla sua rappresentazione nelluno o nellaltro dominio; addirittura, lo possiamo concepire indipendentemente da una qualsiasi rappresentazione analitica (anche se questo, ovviamente, non ci permetterebbe di svolgere alcuna analisi su di esso. . . ). Aldil` di considerazioni ontologiche sullessenza dei segnali, possiamo comunque notare che non ci a occorre conoscere la forma donda del segnale per valutarne lenergia. Questo ci torner` utile nei a capitoli successivi, quando analizzeremo processi casuali, cio` segnali non determinati di cui non e conosciamo levoluzione nel tempo.

3.5

Simmetria della trasformata di Fourier

Lanalogia tra la trasformata e lantitrasformata di Fourier porta ad una notevole propriet`. Essa a ` espressa dal seguente Teorema. e Teorema 3.9 Sia a(t) un segnale qualsiasi. Supponiamo che esso ammetta trasformata di Fourier, e che sia b(f ) = F {a(t)}. Allora, lantitrasformata di a ` espressa da b con largomento cambiato e di segno: F 1 {a(f )} = b(t). (3.5.1)
Dimostrazione Per dimostrare la (3.5.1) basta ricorrere alla denizione di antitrasformata: F 1 {a(f )} = daltronde, b(f ) = F {a(t)} =

a(f ) ej2f t df =

a() ej2(t) d;

a(t) ej2f t dt =

a() ej2f d.

Confrontando le due espressioni, si ottiene: F 1 {a(f )} = b(t). c.v.d.

Questo Teorema ha due chiavi di lettura principali: 1. la trasformata e lantitrasformata di una funzione sono uguali, a meno del segno dellargomento; 2. una funzione e la sua trasformata seconda (cio` la trasformata della trasformata) sono uguali, e a meno del segno dellargomento. In particolare, dal punto 2. possiamo ricavare che la trasformata (o lantitrasformata) quarta di una funzione ` uguale alla funzione stessa. e Esempio Consideriamo la porta di durata T . Sappiamo che F {p T (t)} = Dal Teorema precedente risulta: F sin(tT ) t =F sin tT t = p T (t). sin f T ; f

3.6 Banda e supporto

41

Analogamente: F u(t) eat = F 1 a j2f

1 ; a + j2f

= u(f )eaf .

3.6

Banda e supporto

Enunciamo ancora una propriet` della trasformata di Fourier, la cui importanza ` forse pi` losoa e u ca che puramente matematica. Teorema 3.10 La trasformata di Fourier di un segnale a supporto limitato nel tempo ha supporto illimitato in frequenza. Invece, se la trasformata di Fourier di un segnale ha supporto limitato in frequenza, allora il segnale ha supporto illimitato nel tempo. Tralasciamo la dimostrazione per niente ovvia di questo Teorema. Cerchiamo per` di capire bene che o cosa esso ci dice: se il supporto del segnale in uno dei due domini ` limitato, allora necessariamente e nellaltro dominio esso ha supporto illimitato, cio` ` diverso da zero su tutto lasse reale (escluse ee intersezioni locali in corrispondenza degli zeri). Dobbiamo fare attenzione a non invertire il Teorema: in generale non ` vero che se un segnale ha supporto illimitato in un dominio, esso ha e supporto limitato nellaltro. Pensiamo a che cosa ci` signichi riprendendo lesempio della porta: si tratta di una funzione che o nel tempo ha supporto limitato, mentre in frequenza si estende su tutto lasse reale. Supponiamo di rendere la trasformata della porta a supporto limitato: consideriamo cio` la funzione: e sin f D |f | < K f Q D (f ) = . 0 altrove Per il Teorema precedente, essa ammette unantitrasformata a supporto illimitato. Per immaginare la forma donda di F 1 {Q D (f )} ricordiamo che troncare la trasformata di Fourier al punto K equivale a considerare la somma parziale della serie di Fourier troncata al K-esimo termine (ovviamente, per K N). Quello che otteniamo ` quindi loscillazione riportata in gura 2.2: come e vediamo, essa ha supporto illimitato. Ci` che facciamo quando memorizziamo un suono (ad esempio, una canzone) in formato digitale o ` riassumibile come segue: per prima cosa si calcolano le componenti in frequenza del segnale, e dopodich le si memorizzano con una certa precisione nita predeterminata. Ecco cosa si intende e quando si indica che una canzone ` registrata a 32 bit: signica che ciascuna singola componente e in frequenza viene registrata con una stringa di 32 bit. Tuttavia, una canzone ` chiaramente un e segnale che inizia e nisce, cio` ` un segnale a supporto limitato; ci` signica che la sua banda e e o ` innita. Quindi per registrare fedelmente un suono dovremmo registrare inniti numeri ad ine nite frequenze. Questo dovrebbe stupire: signica infatti che anche quando parliamo, o quando emettiamo un qualsiasi suono, stiamo generando oscillazioni su tutto lasse delle frequenze, quindi produciamo oltre alle onde sonore anche frequenze nel campo delle onde radio, o della luce visibile, o dei raggi X, no alle frequenze innite dei raggi cosmici. Dovrebbe per` essere chiaro che questi o contributi sono innitesimi, e quindi tali emissioni sono praticamente trascurabili. Questa osservazione, oltre al fatto che a noi interessa registrare soltanto ci` che il nostro orecchio o pu` percepire, fa s` che si tronchi lo spettro di frequenza ad una banda opportuna: ad esempio, o nelle comunicazioni telefoniche tale frequenza di taglio ` di 4 KHz, mentre nei sistemi audio ad alt` e a fedelt` si arriva ai 20 KHz per ridurre la distorsione1 . Otteniamo quindi uno spettro in frequena
1 Si vedr` successivamente, arontando il problema del campionamento, che in realt` le frequenze di taglio sono a a leggermente pi` elevate. u

42

Trasformata di Fourier

za con supporto limitato, a cui corrisponde, per il Teorema precedente, un segnale con supporto illimitato nel tempo. Lo abbiamo visto bene con lesempio della porta. Questo per` non sembra o sicamente possibile: signica che, quando premo il tasto che avvia la riproduzione, il suono sta gi` oscillando. Si tratterebbe infatti di un suono che esiste da meno innito a innito, cio` dala e linizio alla ne dei tempi. Questo fatto, che pu` apparire un trucchetto ingannevole, ` in realt` o e a rigorosamente dimostrato (` un Teorema), e mette in discussione il nesso causa-eetto, un problema e non indierente in campo di losoa della scienza. Torniamo ad occuparci di problemi pi` comuni ed enunciamo un ultimo risultato, che lega la u regolarit` di una forma donda alla banda del suo spettro. a Teorema 3.11 Sia x(t) una funzione di classe C n , tale cio` che le sue prime n derivate siano e 1 continue. Allora, la sua trasformata di Fourier decresce per |f | come n+2 . |f | Ci` signica che pi` una funzione ` liscia, pi` velocemente il suo spettro va a zero. Dalla tabella 3 o u e u si pu` vericare quanto appena enunciato: la funzione triangolare ` di classe C 1 , e la sua trasformata o e va come 1/f 3 ; la gaussiana, che ` di classe C , ammette invece una trasformata che ` ancora una e e gaussiana, e quindi decresce come un esponenziale, pi` velocemente di qualsiasi potenza di f . Di u contro, la porta, che ` discontinua (il che, convenzionalmente, si indica dicendo che ` di classe C 1 ), e e ha una trasformata che decresce come 1/f , e quindi molto pi` lentamente rispetto alle altre. Sapere u quanto velocemente uno spettro si azzera ci ` utile per sapere quale banda abbia un contenuto in e frequenza sucientemente basso da non provocare distorsioni qualora la troncassimo. Si pu` infatti o vedere che, a parit` di N , la somma parziale della serie di Fourier troncata ai primi N termini di a una gaussiana approssima la funzione originale molto meglio di quanto accada con il triangolo, che a sua volta ` approssimato meglio della porta. e
Esercizio 11 Sia dato il segnale x(t) e la sua trasformata di Fourier X(f ). Dire quale delle seguenti aermazioni ` vera: e A. Se x(t) ha supporto limitato, X(f ) ha supporto limitato B. Se x(t) ha supporto illimitato, X(f ) ha sempre supporto limitato C. La trasformata di Fourier di x(t) vale X(f ) D. La trasformata di Fourier di x (t) vale X (f ) E. La trasformata di Fourier di x(at) vale |a| X(f /a) F. Se x(t) ` reale e dispari, X(f ) ` reale pari e e Soluzione Le prime due aermazioni si possono subito scartare poich` per denizione la trasformata di Fourier di un e segnale a supporto limitato nel tempo ` a supporto illimitato in frequenza. e Per la terza aermazione si deve ricordare la propriet` dinversione della trasformata: a F {X(at)} = ponendo a = 1 si ottiene F {X(t)} = 1 X | 1| 1 X |a|
  

f a

f 1

= X(f ).

Perci` laermazione C risulta essere vera. o La quarta aermazione ` sbagliata perch` F {x (t)} vale X (f ) e non X (f ). e e La quinta aermazione ` sbagliata perch per la propriet` di scalamento si ha: e e a F {X(at)} = 1 X |a|
 

f a

con a< 0

3.6 Banda e supporto

43

e non: F {X(at)} = |a| X

 

f a

Anche lultima aermazione risulta sbagliata, perch` se x(t) ` reale e dispari, allora X(f ) ` immaginaria e e e dispari.

44

Trasformata di Fourier

Capitolo 4

Cenni sulla trasformata di Laplace


Trattiamo brevemente una trasformazione simile a quella di Fourier: la trasformata di Laplace. Essa viene largamente utilizzata nelle applicazioni ingegneristiche, quindi ` opportuno che si accenni alle e sue propriet`, e alle relazioni che intercorrono tra la due trasformazioni. a La Trasformata di Laplace di una funzione x(t) ` denita come: e
+

L {x(t)} =

x(t) est dt

(4.0.1)

Come si vede, la denizione di L {x(t)} ricorda molto da vicino quella di F {x(t)}. Molto meno simili sono invece le espressioni dellantitrasformata: L 1 {X(s)} = 1 2
0 +j 0 j

X(s) est ds;

per trovare lantitrasformata di Laplace ` infatti necessario integrare lungo un cammino particolare, e cio` lungo la retta del piano complesso denita da e {x} = 0 , dove 0 ` scelto in modo che tutti e e i poli (cio` gli zeri del denominatore) di X(s) stiano alla sua sinistra. e Comunque, le due forme appaiono abbastanza simili: in entrambi i casi si tratta infatti di integrare x(t) dopo averlo moltiplicato per un esponenziale. Verrebbe quasi da pensare che, in generale, si possa ottenere la trasformata di Fourier sostituendo nellespressione della trasformata di Laplace s = j2f : F {x(t)} = L {x(t)} . (4.0.2)
s=j2f

In eetti, alcune delle trasformate che gi` conosciamo sembrano confermare questa ipotesi. Ad a esempio: L e|a|t u(t) = 1 ; s + |a| F e|a|t u(t) = 1 . |a| + j2f

In realt` questo non ` vero in generale. Si pu` dimostrare che la (4.0.2) vale se e solo se il luogo di a e o punti s = j2f , cio` lasse immaginario, ` compreso nella regione di convergenza di X(s) (cio` la e e e regione del piano complesso per la quale lintegrale di Laplace converge). Quindi ` possibile usare e questa relazione se tutti i poli di X(s) hanno parte reale negativa, cio` stanno nella parte sinistra e del piano complesso. Negli altri casi, compresi quelli in cui lasse immaginario si trovi sul bordo del dominio di X(s), la corrispondenza non sussiste: L e|a|t u(t) = 1 ; s |a| F e|a|t u(t) = 1 . |a| + j2f

46

Cenni sulla trasformata di Laplace

In particolare, si pu` vedere che in situazioni di conne come quella del gradino (il cui polo si o trova nellorigine, come si pu` dedurre dallespressione della sua trasformata di Laplace) le due o trasformate dieriscono per lo pi` per la presenza di una o pi` funzioni delta: u u L {u(t)} = 1 ; s F {u(t)} = 1 (f ) + . j2f 2

Parte II

Sistemi lineari

Capitolo 5

Sistemi Lineari Tempo Invarianti


Un sistema ` un operatore che applica una trasformazione S ad un certo numero N di ingressi e xn (t), restituendo un certo numero M di uscite ym (t). In generale, gli ingressi e le uscite possono essere una qualsiasi funzione del tempo (costanti, treni di impulsi, o forme donda qualsiasi). Noi ci occuperemo soltanto di sistemi con un ingresso e un uscita, che indicheremo rispettivamente x(t) e y(t) = S{x(t)}.

5.1

Sistemi lineari (L)


Denizione 5.1 Un sistema si dice lineare se: S


n=0

an xn (t)

=
n=0

an S{xn (t)}

(5.1.1)

Teorema 5.1 Se un sistema ` lineare, allora vale: e S{0} = 0


Dimostrazione Supponiamo per assurdo che S sia lineare e S{0} = cost = 0 allora: S{0 + 0} = S{0} = cost. Ma varrebbe anche: S{0 + 0} = S{0} + S{0} = 2cost. Questo ` assurdo; quindi lipotesi che S sia lineare risulta sbagliata. e c.v.d.

(5.1.2)

Consideriamo per esempio il sistema: y(t) = 5 + x(t); se si impone lingresso x(t) pari al segnale nullo, otteniamo: s{0} = 5 + 0. Abbiamo in uscita un segnale y(t) = 5, quindi il sistema y(t) = 5 + x(t) non ` lineare. Consideriamo e ora il sistema y(t) = x2 (t) e imponiamo nuovamente lingresso x(t) = 0: y(t) = S{0} = 0.

50

Sistemi Lineari Tempo Invarianti

Ci` non implica per` che il sistema sia lineare; se infatti applichiamo le denizione di linearit` o o a otteniamo il risultato opposto. Dobbiamo infatti vericare che il sistema applicato ad una somma di segnali dia la stessa uscita della somma dei sistemi applicati ai singoli segnali. In simboli: S{x1 (t) + x2 (t)} = S{x1 (t)} + S{x2 (t)}. In realt` abbiamo: a S{x1 (t)+x2 (t)} = (x1 (t) + x2 (t)) = x2 (t)+2x1 (t)x2 (t)+x2 (t) = x2 (t)+x2 (t) = S{x1 (t)}+S{x2 (t)}. 1 2 1 2 Questi due esempi mostrano che la (5.1.2) ` una condizione necessaria ma non suciente per stabilire e la linearit` di un sistema. Alcuni esempi di sistemi lineari sono: a
t 2

y(t) =
t

x( )d

y(t) =
tT

x( )d

Al contrario esempi di sistemi sicuramente non lineari sono: y(t) = x3 (t) y(t) = x(t)

y(t) = 2x(t) + cos(t)


T

y(t) =

x(t)dt

Vediamo ora altre caratteristiche che un sistema pu` assumere. o Denizione 5.2 Un sistema viene detto senza memoria se luscita al tempo t dipende solo dallingresso al tempo t. Ad esempio y(t) = 5x(t) ` un sistema senza memoria, in quanto per determinare luscita in un e istante t ` necessario conoscere soltanto lingresso nel corrispondente istante t. e Denizione 5.3 Un sistema viene invece detto con memoria se luscita al tempo t dipende dallingresso che si ha in uno o pi` istanti tk = t. u Ad esempio il sistema y(t) = 4x(t t0 ), secondo la nostra denizione, ` un sistema con memoria, e in quanto deve ricordarsi i valori che x(t) ha assunto negli ultimi t0 secondi. Questo sistema, che viene chiamato ritardatore, viene a volte considerato senza memoria, perch luscita dipende e dallingresso in un solo istante di tempo; tuttavia, se dovessimo realizzarlo materialmente, avremmo bisogno di memorizzare in qualche modo lingresso per un certo periodo di tempo. Preferiamo quindi considerare un concetto di memoria pi` aderente allaspetto tecnico e pratico. u Il tipico esempio di sistema con memoria ` loperatore di integrazione. In particolare, un sistema e pu` avere memoria innita, come quello denito come segue (che nella pratica ` per` irrealizzabile): o e o
t

y(t) =

x( )d.

5.2 Sistemi Tempo Invarianti (TI)

51

Figura 5.1: Schema a blocchi di un sistema tempo-invariante: le due uscite devono coincidere.

5.2

Sistemi Tempo Invarianti (TI)


S{x(t T )} = y(t T )

Denizione 5.4 Dato un sistema y(t) = S{x(t)}, esso si dice tempo-invariante (TI) se:

Possiamo dedurre da questa denizione che un sistema risulta tempo-invariante se i due schemi a blocchi di gura 5.1 sono equivalenti, danno cio` la stessa uscita per ogni ingresso x(t). Proviamo e a vericare la tempo-invarianza di y(t) = x2 (t), seguendo gli schemi a blocchi appena visti. x(t) x2 (t) x2 (t T ), x(t) x(t T ) x2 (t T ). Come possiamo vedere i risultati ottenuti sono equivalenti, quindi il sistema che abbiamo considerato ` tempo invariante (TI). e Applichiamo ora lo stesso metodo al sistema y(t) = x(t)u(t): x(t) x(t)u(t) x(t T )u(t T ), x(t) x(t T ) x(t T )u(t). In questo caso i risultati sono dierenti; quindi si pu` concludere con certezza che il sistema non ` o e TI. Esistono per` dei casi, come quello che aronteremo ora, nei quali non si pu` vericare immeo o diatamente la tempo-invarianza. t Consideriamo il sistema denito da y(t) = tT0 x( )d ; operando sempre nello stesso modo abbiamo: x( )
tT0 T S t T S S T T S S T

x( )d
tT T0 S t

tT

x( )d, x( T )d.

x( ) x( T )
tT0

Apparentemente avremmo trovato un sistema non TI. Ma se poniamo = T troviamo


t tT0

x( T )d
tT T0

= T

tT

x()d,

che ` esattamente identico al primo risultato trovato. In questo caso perci` il sistema considerato e o ` TI. Situazione di questo genere si vericano abbastanza spesso quando si lavora con gli integrali; e in generale ` per` suciente operare un opportuno cambio di variabili. e o

52

Sistemi Lineari Tempo Invarianti

Capitolo 6

Integrale di convoluzione
6.1 Funzione di trasferimento e risposta allimpulso di un sistema LTI

Il problema che ci poniamo ora ` quello di trovare una formula che leghi il segnale di uscita y(t) di e un sistema LTI con il segnale di ingresso x(t). Indichiamo con: y(t) = L{x(t)} una trasformazione LTI sul segnale x(t), denito come:
+

x(t) =

x( )(t )d.

Per le note propriet` della delta, si pu` facilmente vericare lidentit` appena scritta. Possiamo a o a scrivere il segnale di uscita come:
+

y(t) = L

x( )(t )d

Dato che sia loperatore L sia loperatore di integrazione sono lineari, possiamo scambiarne lordine e riscrivere il segnale di uscita y(t) nella forma:
+

y(t) =

x( )L{(t )}d

perch x( ) non varia col tempo, e quindi per L ` una costante. Possiamo quindi denire la risposta e e allimpulso del sistema, che scriviamo come: h(t) = L{(t )} = L{(t)}, avendo posto che il sistema fosse TI. Inoltre h(t ) = L{(t )}; sostituendo nellespressione del segnale di uscita troviamo:
+

y(t) =

x( )h(t )d

54

Integrale di convoluzione

Questa relazione molto importante prende il nome di integrale o prodotto di convoluzione e viene indicato nel seguente modo:
+

y(t) =

x( )h(t )d = x(t) h(t)

(6.1.1)

Ogni sistema LTI ` quindi completamente caratterizzato dalla sua risposta allimpulso, cio` dallee e spressione delluscita quando allingresso viene posto un impulso (t). Teorema 6.1 Lintegrale di convoluzione gode della propriet` commutativa; vale cio`: a e x(t) h(t) = h(t) x(t).
Dimostrazione Sostituendo nella (6.1.1) = t otteniamo:
Z
+ +

y(t) =
Z

x( )h(t )d
+

=t

x(t )h()d =

= quindi x(t) h(t) = h(t) x(t).

x(t )h()d = h(t) x(t),

c.v.d. Esercizio 14 Si calcoli il seguente prodotto di convoluzione: sin(2f0 t) (t t0 ) Soluzione Chiamiamo sin(2f0 t) = x1 (t) e (t t0 ) = x2 (t). Il prodotto di convoluzione risulta per denizione:
Z
+

x1 (t) x2 (t) =

x1 ( ) x2 (t ) d

Applicandolo ora alle due funzioni del testo:


Z
+

x1 (t) x2 (t) =

sin(2f0 )(t t0 ) d

Ora risolviamo lintegrale nella maniera standard degli integrali con delta di Dirac; si mette in evidenza : t t0 = 0 Il risultato ` quindi: e x1 (t) x2 (t) = sin [2f0 (t t0 )] . = t t0

6.2

Interpretazione dellintegrale di convoluzione

Cerchiamo di dare uninterpretazione al risultato che abbiamo ottenuto nel paragrafo precedente. Spezzando infatti la (6.1.1) in due termini e sostituendo = t troviamo:
0 +

y(t) =

x(t )h()d +
0

x(t )h()d.

Possiamo dire che y(t) ` la somma di due contributi: e


+

yp (t) =
0

x(t )h()d.

6.3 Trasformata di Fourier della convoluzione

55

e yf (t) =

x(t )h()d =
0

x(t + )h()d,

Si pu` osservare che il primo di questi due contributi tiene conto di tutti i valori che il segnale ha o assunto no allistante in cui lo stiamo analizzando; il secondo integrale ` invece sensibile a tutti i e valori che il segnale assumer` in un tempo successivo rispetto allistante in cui lo stiamo analizzando. a Possiamo allora denire il concetto di causalit` di un sistema: a Denizione 6.1 Un sistema ` detto causale se luscita al tempo t0 dipende dallingresso per t t0 e per qualunque valore di t0 . Quindi un sistema LTI ` causale se e solo se yf (t) = 0, cio` se e solo se la sua risposta allimpulso e e h(t) ` nulla per t < 0. e Il concetto di causalit` si riferisce al fatto che un sistema reale non pu` conoscere i valori che il a o suo ingresso assumer` nel futuro; questo perch tutti gli oggetti reali sono sottoposti al nesso di a e causa-eetto. In altri termini, avere h(t) = 0 per t < 0 signica che il sistema non reagisce prima che gli venga fornita uneccitazione, ma solo dopo (o tuttal pi` a partire da quello stesso istante). u

6.3

Trasformata di Fourier della convoluzione


+ +

Proviamo ora ad applicare la trasformata di Fourier allintegrale di convoluzione, quindi: F {x(t) h(t)} = F
+

x()h(t )d

F {x()h(t )} d =

=
+

x()h(t ) ej2f t dtd =


+ +

=
+

x()

h(t ) ej2f t dt d = x()H(f ) ej2f d =

x()F {h(t )} d =
+

= H(f )

x()ej2f d = H(f )X(f ).

Abbiamo trovato un risultato molto importante: F {x(t) h(t)} = H(f )X(f ) (6.3.1)

cio` la trasformata di Fourier del prodotto di convoluzione ` il prodotto ordinario delle trasformate e e di Fourier. Proviamo a calcolare invece la trasformata di Fourier del prodotto ordinario:
+

F {x1 (t)x2 (t)} =


+

x1 (t)x2 (t)ej2f t dt =
+

=
+

X1 (f1 ) ej2f1 t df1

X2 (f2 ) ej2f2 t df2 ej2f t dt =

=
+

X1 (f1 )X2 (f2 ) ej2(f1 +f2 f )t dt =

=
+

X1 (f1 )X2 (f2 )(f1 + f2 f )df2 df1 = X1 (f1 )X2 (f f1 )df1 = X1 (f1 ) X2 (f2 ).

56

Integrale di convoluzione

Abbiamo trovato che la convoluzione di due segnali in frequenza corrisponde alla trasformata di Fourier del loro prodotto nel dominio del tempo: F {x1 (t)x2 (t)} = X1 (f ) X2 (f ). (6.3.2)

Per riassumere, abbiamo ancora una volta trovato una propriet` di simmetria della trasformata di a Fourier: il prodotto ordinario in uno dei due domini (tempo o frequenza) ` il prodotto di convoluzione e nellaltro.
Esercizio 16 Il segnale x(t) = + i r(t iT ), con i costanti note, r(t) segnale che vale 1/T i = per t [0, T ] e 0 altrove, viene posta allingresso di un sistema LTI con risposta allimpulso h(t) che vale 1 per t [0, T ], 1 per t [T, 2T ] e 0 altrove. Sia y(t) il segnale in uscita. Quanto vale y(kT )? Soluzione Luscita y(t) ` data dal prodotto di convoluzione tra x(t) e h(t), perci`: e o
" P

y(t) =

+ X i=

i r(t iT ) h(t) =

+ X i=

i [r(t iT ) h(t)]

Considerando la funzione w(t) = r(t) h(t) si ha che w(t T ) = r(t T ) h(t). Sostituendo questa funzione nellespressione della y(t) si ha: y(t) =
+ X i=

i w(t iT )

Ora si scrive la y(kT ) e ponendo alcuni valori a k ed a i si osserva cosa accade alla funzione: y(kT ) = con k = 10 , i = 100 con k = 10 , i = 10 con k = 10 , i = 9 con k = 10 , i = 8 con k = 10 , i = 7 con k = 10 , n < 7
+ X i=

i w(kT iT ) =

+ X i=

i w [(k i) T ]

si ha w (90T ) = 0 poich` il supporto ` 3T e e si ha w (0T ) = 0 si ha w (1T ) = 1 si ha w (2T ) = 1 si ha w (3T ) = 0 si ha w (nT ) = 0

Da questo si pu` capire che luscita `: o e y(kT ) = k1 w(kT T [k 1]) + k2 w([k k + 2]T ) e si ricava: y(kT ) = k1 + k2

6.4

Propriet` della convoluzione a

La convoluzione gode di alcune propriet` che enunciamo senza dimostrare. La prima riguarda il a concetto intuitivo di lunghezza di supporto di cui avevamo gi` parlato nella sezione 1.2.1. a Teorema 6.2 Siano x1 (t) e x2 (t) due segnali aventi supporto lungo rispettivamente L1 e L2 . Allora, la loro convoluzione x1 (t) x2 (t) ha supporto lungo L1 + L2 . La seconda invece riguarda linizio del supporto, cio` il primo istante di tempo in cui il segnale ` e e diverso da zero.

6.4 Propriet` della convoluzione a

57

Teorema 6.3 Siano x1 (t) e x2 (t) due segnali il cui supporto inizia rispettivamente in t = I1 e t = I2 . Allora, il supporto della loro convoluzione inizia in t = I1 + I2 .

Esercizio 15 Il segnale PT (t T /2)` posto allingresso di un sistema LTI con risposta allimpulso e h(t) = te( t)u(t), producendo alluscita un segnale y(t).Quale delle seguenti aermazioni ` falsa? e A. y(t) non ` a supporto limitato e B. y(t) assume valori positivi e negativi C. y(t) ` reale, n pari, n dispari e e e D. Y (f ) ha modulo pari e fase dispari E. y(t) ` nulla per t < 0 e Soluzione La risposta A ` vera poich luscita y(t) a supporto illimitato in quanto il risultato di unoperazione tra e e una funzione illimitata con una a supporto illimitato(h(t)). La risposta C ` vera; infatti, se svolgiamo i calcoli per la verica dellaermazione, si osserva che la y(t) e non ` n pari, n dispari. e e e Il modulo della Y (f ) ` pari mentre la fase ` dispari, perci` la risposta D ` vera. e e o e Per la risposta E si ipotizza di considerare il punto 0 e considero la funzione y(t) in questo punto la funzione vale zero, come in tutti gli altri punti che lo precedono, perci` anche questa risposta ` vera. o e Per esclusione rimane la risposta B che ` sicuramente falsa: infatti, i due segnali coinvolti sono positivi, e e quindi la loro convoluzione non pu` dare valori negativi. o Esercizio 18 Sia dato un sistema LTI la cui risposta allimpulso vale: h(t) = (t) + T riT (t T ). Allingresso di questo sistema viene posto il segnale x(t) = pT (t T ).La funzione pT (t) vale 1 per |t| < T e 2 2 zero altrove. La funzione T riT (t) vale 1 |t| per |t| < T e zero altrove. La risposta del sistema allingresso T x(t) ` denominata y(t). Dire quali delle seguenti aermazioni ` VERA: e e y(t) ` causale e nulla per t > 3T . e y(t) non ` causale ed ` nulla per t > 2T . e e y(t) ` causale e non ` nulla per t > 4T . e e y(t) non ` causale e non ` nulla per t > 2T . e e Soluzione Luscita del sistema ` causale; infatti il supporto di x(t) inizia nellorigine, come quello di h(t). Inoltre, la e porta ` larga T , il triangolo T /2, e h(t) ha supporto lungo 3 T ; sommando le lunghezze dei due supporti e 2 abbiamo la durata delluscita cio` 5 T , perci` laermazione vera ` la prima. e 2 o e Esercizio 19 Sia dato un sistema LTI. Al suo ingresso vengono posti i segnali x1 (t) ed x2 (t),che forniscono rispettivamente le uscite y1 (t) ed y2 (t).Calcolare luscita y(t) del medesimo sistema quando allingresso venga posto il segnale x(t) = 3x1 (t 2) + 4jx2 (t 1 ). 2 Soluzione Essendo il sistema LTI, basta applicarne le propriet` di linearit`. Si ha di conseguenza: a a


y(t) = 3y1 (t 2) + 4jy2 t

1 2

58

Integrale di convoluzione

Esercizio 17 Sia x(t) lingresso di tre trasformazioni lineari e tempo-invarianti, ognuna caratterizzata da una risposta allimpulso hi (t). Sia yi (t) luscita corrispondente. Si consideri
(

x=

1 |t| 0

1 < t < +1 altrove

1.5

0.5

0.5

1 3

h1 =

1 0

0<t<1 altrove

h2 =

8 >t < > :

2t 0

0<t<1 1<t<2 altrove

h3 =

1/2 0

0<t<2 altrove

1.5

1.5

1.5

0.5

0.5

0.5

0.5

0.5

0.5

1 3

1 3

1 3

Soluzione Osserviamo che per ciascuno dei tre sistemi luscita massima si ha quando la sovrapposizione tra le forme donda ` massima. Nel primo sistema, questo si ottiene con t = 1/2: e
Z
1/2

yM 1 =
0

(t + 1/2)dt +
1/2

(t + 3/2)dt =

3 . 4

Nel secondo sistema, scegliamo t = 1:


Z
1 0

yM 2 =

t2 d +

Z
1

(2 t)2 dt =

2 ; 3

inne, nel terzo sistema il massimo si trova in t = 1:


Z
1 0

yM 3 =

1 tdt + 2

Z
1

1 1 (2 t)dt = . 2 2

` E facile vedere che luscita massima si ha col primo sistema. Esercizio 20 ` E data la seguente trasformazione:
Z
t

y(t) =
a

[b + d x( )]d + c cos(2f0 t)

Per quali valori dei parametri a,b,c e d tale trasformazione ` lineare e tempo-invariante? e

6.4 Propriet` della convoluzione a

59

Soluzione Ricordando che la condizione necessaria ma non suciente per la linearit` ` che ad ingresso nullo x(t) = 0 ae corrisponde uscita nulla, questo implica che d pu` assumere qualsiasi valore, mentre bisogna imporre c = o b = 0. Z t Z t y(t) = b d + d 0 d + c cos(2f0 t) = 0
a a

Il sistema deve anche essere TI: y(t) =

Z
a

d x( )d
Z
tT

y(t) =
a

d x( )d

y(t T ) =
a

d x( )d .

(6.4.1)

tT

x(t)

x(t T )

y (t) =
a

d x( T )d ;

sostituendo = T si ottiene:
Z
tT

y (t) =
aT

d x()d

(6.4.2)

Perch i due integrali (6.4.1) e (6.4.2) siano uguali bisogna imporre a = . e

Esercizio 22 Discutere linearit` e invarianza temporale del sistema specicato dalla seguente rea lazione tra entrata e uscita: y(t) = 4 + ex(t) . Soluzione Imponendo x(t) = 0 luscita che si ottiene non ` nulla y(t) = 5, il sistema non ` quindi lineare. e e Bisogna ora vericare la sua tempo-invarianza. y(t T ) = 4 + ex(tT ) ; y1 (t) = 4 + ex(tT ) . Il sistema risulta TI. Esercizio 23 Discutere il seguente sistema:
Z
t

y(t) =
t4T

x()cos(2)d.

Soluzione Il sistema ` caratterizzato da un integrale il quale ` lineare per denizione; bisogna vericare se ` TI: e e e
Z
t

y(t) =
t4T

x()cos(2)d

y(t t0 ) =
Z

tt0 t4T t0

x()cos(2)d.

(6.4.3)

x(t)

x(t t0 )

y1 (t) =
t4T

x( t0 )cos(2)d.

Sostituendo = t0 si ottiene:
Z

y1 (t) =

tt0

x( )cos(2( + t0 ))d .

(6.4.4)

t4T t0

60

Integrale di convoluzione

I due integrali (6.4.3) ed (6.4.4) risultano diversi perci` non ` vericata la TI. o e Esercizio 26 Sia dato il sistema:
Z
tT

y(t) = x(t 3T ) +

x( 2T )d ;

si esprima luscita ritardata di un tempo .

Soluzione Lesercizio richiede semplicemente di scrivere y(t ); si ottiene:


Z
tT

y(t ) = x(t 3T ) +

x( 2T )d

Esercizio 27 Sia dato un sistema LTI. Quando al suo ingresso viene posto il segnale x(t) = (t), luscita vale y(t) = et u(t). Quanto vale luscita quando allingresso del medesimo sistema viene posto il segnale x(t) = ej2t ? Soluzione Luscita y(t) = et u(t) ` la risposta allimpulso, applicando la trasformata di Fourier si trova H(f ): e H(f ) = F et u(t) = 1 . 1 + j2f

Luscita richiesta viene calcolata come y(t) = F 1 {Y (f )} = F 1 {X(f )H(f )}: y(t) = ej2t . 1 + j2f

6.5

Cascata di sistemi lineari

Denizione 6.2 Si parla di connessione in cascata di due o pi` sistemi quando luscita del u primo viene posta allingresso dei successivi. Mettendo in cascata N sistemi LTI otteniamo ancora un sistema LTI; in particolare si ha:
N

Y (f ) = X(f )H1 (f )H2 (f )...HN (f ) = X(f )


i=1

Hi (f ),

dove y(t) ` il segnale in uscita dallultimo sistema, e hi (t) ` la risposta allimpulso delli-esimo e e sistema. Dato che il prodotto gode della propriet` commutativa si nota che lordine in cui vena gono applicati i sistemi non ha importanza. Analogamente, osservando la cascata di sistemi nel dominio del tempo si ottiene lo stesso risultato, dato che anche la convoluzione gode della propriet` a commutativa.

6.5.1

Propriet` dei sistemi LTI a

Poniamo ora allingresso di un sistema LTI il segnale x(t) = ej2f0 t e calcoliamo la trasformata di Fourier delluscita: F {y(t)} = F {x(t) h(t)} = F h(t) ej2f0 t = H(f )F ej2f0 t = H(f )(f f0 )

6.6 Stabilit` BIBO a

61

Quindi possiamo anche scrivere Y (f ) = H(f0 )(f f0 ); ritornando nel dominio del tempo, applicando cio` lantitrasformata di Fourier, abbiamo y(t) = H(f0 )ej2f0 t . e Siamo giunti alla conclusione che, ponendo allingresso di un sistema LTI un esponenziale complesso, cio` una frequenza pura, alluscita abbiamo ancora la stessa frequenza. Con questo importante e risultato troviamo che i sistemi lineari tempo invarianti non creano nuove frequenze, tuttal pi` le u possono moltiplicare per delle costanti. ` Un tipico esempio di sistemi LTI sono i circuiti RLC. E facile vericare che nei circuiti elettrici ideali (cio` privi di rumore) non si ottengono frequenze diverse da quelle date allingresso; ` comunque e e possibile che esse vengano soppresse (cio` moltiplicate per zero). e

6.6

Stabilit` BIBO a

Tra le varie possibili denizioni di stabilit` prendiamo ora in considerazione quella BIBO (acronimo a di Bounded Input Bounded Output). Denizione 6.3 Un sistema LTI ` stabile BIBO se, dato in ingresso un segnale x(t) tale che e |x(t)| < A t R, allora luscita y(t) ` tale che |y(t)| < B t R. e Teorema 6.4 Dato un sistema con risposta allimpulso h(t), questo risulta stabile BIBO se e solo se lintegrale della sua risposta allimpulso risulta nito:
+

|h(t)| dt < C <

Dimostrazione
Z

Dimostriamo innanzitutto che se il sistema ` stabile BIBO vale la tesi del teorema: e
+

|y(t)| =
Z
+

x()h(t )d

|x()h(t )| d =

|x()| |h(t )| d

A |h(t )| d.

Se il sistema ` stabile BIBO, |y(t)| devessere nito; perch ci` sia vero, ` evidente che lintegrale di h(t) e e o e devessere nito. Daltro canto, resta facilmente dimostrata anche limplicazione inversa. c.v.d.

` Se accade questo il sistema ` stabile BIBO. E inoltre necessario (ma non suciente) che |H(f )| < e a qualsiasi valore di frequenza. Al contrario, un sistema ` certamente stabile BIBO se la trasformata di Laplace della sua risposta e allimpulso ha poli unicamente nella parte sinistra del piano complesso ( e {s} < 0).

62

Integrale di convoluzione

Capitolo 7

Segnali Periodici
Denizione 7.1 Un segnale si dice periodico di periodo T se: y(t T ) = y(t) t R.

Se consideriamo il segnale su un solo periodo non lo chiameremo pi` x(t) ma xT (t), dove T indica u sempre il periodo. Il segnale periodico pu` infatti essere visto come una successione di periodi: o
+

y(t) =
n=

r(t nT )

(7.0.1)

Possiamo gi` aermare che in generale un segnale periodico pu` avere energia nita su un periodo, a o ma innita se guardiamo tutto lasse dei tempi. Basti pensare al segnale periodico per eccellenza, la sinusoide, la cui energia complessiva ` data dalla somma innita dei valori niti dellenergia di e ciascun periodo.

7.1

Media temporale su un intervallo


1 t1 t0
t1

Denizione 7.2 Si dice media temporale su di un intervallo il seguente valore: < w(t) >[t0 ,t1 ] = w(t)dt.
t0 2

Partendo invece dal concetto di potenza istantanea1 Px (t) = |x(t)| , deniamo la potenza media di un segnale: t1 1 Px (t)dt. < Px (t) >t0 ,t1 = t1 t0 t0 Essendo inoltre: E {x(t)} =
+

Px (t)dt,

` chiaro che in un segnale periodico la potenza media si calcola conoscendo lenergia del segnale in e un solo periodo: E {xT (t)} Px =< Px >= . T
1 La

denizione di potenza istantanea discende da quella di energia, secondo la relazione sica P = dE/dt.

64

Segnali Periodici

7.2

Trasformata di Fourier di un segnale periodico

Come ` noto un segnale periodico pu` essere sviluppato in serie di Fourier. Partendo da tale sviluppo e o calcoliamo la trasformata di Fourier dei segnali periodici:
+

y(t) =
n=

n ej T

nt

Considerando la stessa funzione dopo un periodo T abbiamo:


+ +

y(t T ) =
n=
2

n ej T

n(tT )

=
n=

n ej T

nt j 2 nT T

ma ej T nT ` una funzione circolare che se calcolata su un intero periodo, come in questo caso, e risulta pari ad 1, quindi abbiamo:
+ +

y(t T ) =
n=

n ej T

nt j2n

=
n=

n ej T

nt

= y(t)

Troviamo perci` che per esprimere un segnale periodico basta sviluppare un solo periodo in serie di o Fourier.
+ +

F {y(t)} = F
n= +

n ej T n f

nt

=
n= +

n F ej T

nt

=
n=

n T

n Xtr ( T ) n (f ) = f0 Xtr (nf0 )(f nf0 ), T T n= n=

con f0 = 1/T . Riportando il risultato trovato su un graco si pu` notare che lo spettro risulta o essere formato solamente da righe. Siamo giunti quindi ad un importante risultato: lo spettro di potenza di un qualunque segnale periodico ` a righe (gura 7.1). Cerchiamo adesso di calcolare la e Trasformata di Fourier del segnale formato da un treno di Delta.
+

x (t) =
n=

(t nT ).

Lo possiamo scrivere come:


+

x (t) =
n=

xtr (t nT ),

dove xtr (t) = (t). Allora,


+ +

X (f ) = F {x (t)} = f0
n=

Xtr (nf0 ) (f f0 ) = f0
n=

(f f0 );

questo perch e Xtr (nf0 ) = F {xtr (t)} = 1.

7.2 Trasformata di Fourier di un segnale periodico

65

1.5

0.5

0.5

10

Figura 7.1: Congurazione a righe dello spettro di un segnale periodico x(t). La prima frequenza con componente non nulla viene detta fondamentale o portante, le altre sono le armoniche.

Esercizio 28

Sia dato il segnale: x(t) =


X n=

e(tnT ) u(t nT );

Il segnale x(t) viene posto in ingresso ad un sistema LTI che ha come funzione di trasferimento H(f ) = b T P 1 (f f0 ), con fa = 10 . Calcolare luscita y(t) del sistema LTI. Nota: il segnale Pb (f ) vale 1 per f b , 2 T 2 T e zero altrove. Soluzione Innanzitutto scriviamo il segnale dato come: x(t) =
X n=

w(t nT )

con

w(t) = et u(t).

Trasformiamo utilizzando la regola dei segnali periodici: X(f ) = f0 essendo: W (f ) = F u(t)et = Sostituendo: X(f ) = f0
X X

W (nf0 )(f nf0 ),

1 , 1 + j2f

f0 =

1 . T

1 (f nf0 ) 1 + j2nf0

66

Segnali Periodici

Luscita ` Y (f ) = X(f )H(f ); la funzione di trasferimento ` semplicemente una porta che lascia passare solo e e una parte del segnale X(f ) (si comporta cio` come un ltro passa banda). e Y (f ) = X(f )H(f ) = H(10f0 )X(10f0 ) = Si ottiene y(t) = F 1 {Y (f )} = 1 1 1 f0 (f 10f0 ) = (f 10f0 ). f0 1 + j20f0 1 + j20f0 ej20f0 t . 1 + j20f0

Esercizio 29

Si consideri il segnale: x(t) =


P
k=

P 1 (t k)
2

dove il segnale P 1 (t) vale 1 per 2 funzione di trasferimento:

1 1 ,4 4

e zero altrove. Il segnale x(t) viene immesso in un ltro lineare con


(

W (f ) = Quanto vale luscita del ltro, y(t), per t=0?

1 0

|f |2 altrove

Soluzione Secondo la regola di trasformazione dei segnali periodici, denendo m(t) il segnale troncato ad un periodo, si ottiene: X(f ) = f0
X k=

M (kf0 )(f kf0 ) = f0

X sin(kf0 1 ) 2 k=

f0 k

X sin(k 1 ) 2 k=

Luscita del sistema avr` spettro di ampiezza: a Y (f ) = sin( ) sin( ) sin() sin(0) sin() 2 2 (f + 2) + (f + 1) + (0) + (f 1) + (f 2) = 2 0 2 1 1 1 1 = (f 1) + (f 1) + (f + 1) (f ). 2

A questo punto ` suciente antitrasformare: e y(t) = F 1 {y(f )} = 1 1 1 1 2 + ej2t t + ej2t t = + cos(2t). 2 2

Il problema ci chiede inne di valutare luscita al tempo t = 0: y(t) = 2 1 + . 2

t=0

7.3

Il Teorema del campionamento


x(t)(t t0 ) = x(t0 )(t t0 )

Supponiamo di avere un segnale x(t) continuo nel tempo e di compiere la seguente operazione.

Troviamo un impulso nel punto t0 di valore pari a quello che assume il segnale x(t). Se ora invece di considerare un solo impulso, facciamo la convoluzione tra il segnale x(t) ed un treno di Delta otteniamo:
+ +

xc (t) = x(t)
n=

(t ntc ) =
n=

x(ntc )(t ntc ).

7.3 Il Teorema del campionamento

67

Abbiamo quindi un segnale discreto nel tempo, formato da impulsi equidistanti tra loro, la cui ampiezza segue fedelmente quella del segnale di partenza. Questa operazione prende il nome di campionamento di un segnale. Osserviamo anche cosa succede nel dominio della frequenza, calcolando la trasformata di Fourier del segnale campionato:
+

F {xc (t} = F
n=

x(ntc )(t ntc )


+

= X(f )
n= +

f0 (f nf0 ) X(f nf0 ).

= f0
n=

Si pu` facilmente vedere che lo spettro in frequenza del segnale campionato ` formato da copie o e dello spettro del segnale x(t) attorno alle frequenze multiple di quella di campionamento. Questo comporta che per riottenere il segnale di partenza basta applicare un ltro Passa-Basso di banda pari a quella del segnale x(t). Questo per` introduce una dicolt`: infatti, dal momento che i o a ltri reali hanno una funzione di trasferimento trapezoidale anzich rettangolare (come assumiamo e quando utilizziamo la porta), utilizzando esattamente fc come frequenza di taglio del ltro rischiamo di non riuscire ad isolare adeguatamente lo spettro del segnale in banda base. Questo fenomeno prende il nome di aliasing. Al ne di evitarlo si usano due ltri: uno prima del campionamento, per tagliare le frequenze indesiderate, laltro dopo il campionamento, per isolare una sola copia dello spettro. Possiamo quindi enunciare il teorema del campionamento (per un approfondimento si rimanda allesercizio 34). Teorema 7.1 Si consideri il segnale reale x(t). Lo si faccia passare in un ltro Passa-Basso con frequenza di taglio f0 , dopodich lo si campioni con frequenza di campionamento f1 . Allora, per rie costruire il segnale x(t) ` suciente ltrare il segnale campionato con un Passa-Basso con frequenza e di taglio f0 , purch sia soddisfatta la seguente condizione: e f0 2B = 2 f1 , dove B ` la larghezza di banda del segnale x(t). e Il teorema del campionamento ` di fondamentale importanza, in quanto aerma che per trasmettere e tutta linformazione contenuta in un segnale ` suciente trasmetterne dei campioni equispaziati nel e tempo. Ci` signica che una forma donda pu` essere adeguatamente rappresentata da una serie di o o numeri, il che rende possibile le applicazioni digitali su cui si basa la moderna tecnologia audio-video.

Esercizio 34 Un segnale x(t) viene posto in ingresso ad un sistema LTI la cui funzione di trasferimento H0 (f ) ` diversa da zero per f [f0 , f0 ] ed ` zero altrove. Sia v(t) luscita di tale sistema. Si ricava e e successivamente un segnale w(t) come segue: w(t) = v(t)
n 1 X (t ). f1 n= f1

Inne, il segnale w(t) viene fatto transitare attraverso un sistema LTI con funzione di trasferimento H2 (f ) = 1 per f app [f2 , f2 ] e zero altrove, ottenendo in uscita il segnale y(t). Che relazione si deve porre tra i valori di f0 , f1 e f2 ? Soluzione Il lato teorico della convoluzione del segnale col treno di Delta ` gi` stato trattato nel testo. Vediamo e a

68

Segnali Periodici

1.5

0.5

0.5

1.5

10

Figura 7.2: Esempio di campionamento di un segnale sinusoidale.

brevemente soltanto i problemi che nascono nel trattare il segnale in modo da poterlo campionare nella maniera migliore possibile. Come ` stato detto nel testo, il campionamento vero e proprio d` origine a innite copie spettrali del e a segnale, traslate in frequenza di una quantit` fc pari alla frequenza di campionamento (nel nostro caso, a f1 ). Tuttavia, se il segnale ha banda B > fc , allora queste copie si sovrappongono, dando luogo ad uno spettro che, nelle code, ` in realt` la somma di due spettri. Si introduce cio` una distorsione nel segnale, e a e nota come aliasing. Per evitare questo problema, si ltra precedentemente il segnale da campionare con un passabasso con frequenza di taglio f0 < 2fc ; in questo modo, si perde una parte dello spettro del segnale, ma si evita la distorsione dovuta al campionamento pur senza cambiare la frequenza di campionamento. Unaltra soluzione, che ` preferibile laddove non si voglia perdere parte dello spettro del segnale, ` quella di e e scegliere una frequenza di campionamento pi` alta: ci` signica allontanare le copie spettrali generate. u o Inne, si ltra il segnale campionato con un passabasso di frequenza f2 = B, dove B ` la banda del segnale. e ` E bene osservare che, mentre in via teorica sarebbe possibile scegliere f2 = fc , in realt` i ltri reali hanno a una funzione di trasferimento di forma trapezoidale; quindi si sceglie una frequenza di taglio pi` bassa, in u modo da escludere decisamente le copie spettrali successive. In conclusione, la risposta alla domanda dellEsercizio ` porre f1 2f0 , e f0 = f2 . e

Capitolo 8

Caratterizzazione energetica dei segnali


8.1 Spettro di energia

In questo paragrafo viene introdotto il concetto di spettro di energia. Consideriamo le componenti in frequenza X(f ) del segnale x(t) ad energia nita.
+

E {x(t)} =

|x(t)| dt =

|X(f )| df

Denizione 8.1 Si denisce spettro di energia SX del segnale x(t) la funzione cos` denita: Sx (f ) = |X(f )| , dove X(f ) = F {x(t)}. In altre parole, Sx (f ) rappresenta il contenuto di energia del segnale x(t) ad ogni frequenza f , nel senso che, se integrato su tutto lasse reale, restituisce il valore dellenergia.
2

8.2

Funzione di autocorrelazione
Rx ( ) = F 1 {Sx (f )} .

Denizione 8.2 Si denisce Rx ( ) come lantitrasformata di Fourier dello spettro di energia Sx (f ):

Si ha quindi: Rx ( ) = F 1 {Sx (f )} =
+

Sx (f )ej2f df .

Dalla denizione sappiamo che Sx (f ) ` uguale a |X(f )| : e Rx ( ) = F 1 {Sx (f )} = F 1 |X(f )|


2 +

|X(f )| ej2f df ;

70

Caratterizzazione energetica dei segnali

sostituiamo ora |X(f )| con X(f )X (f ) e poi inseriamo le loro espressioni come integrale di Fourier.
+

Rx ( ) = =

X(f )X (f )ej2f df = x(t1 )x (t2 )


+

x(t1 )ej2f t1 dt1

x (t2 )ej2f t2 dt2 ej2f df =

+ +

ej2f (t2 t1 + ) df dt1 dt2 =

x(t1 )x (t2 )(t2 t1 + )dt1 dt2 .

La Delta di Dirac ha come argomento t2 t1 + ; otteniamo cos` due possibili soluzioni: 1. possiamo integrare in t1 : da t2 t1 + = 0 otteniamo t1 = t2 + , quindi
+

Rx ( ) =

x(t2 + )x (t2 )dt2 =

x(t + )x (t)dt;

2. possiamo invece integrare in t2 : da t2 t1 + = 0 otteniamo t2 = t1 , da cui


+

Rx ( ) =

x(t1 )x (t1 )dt1 =

x(t)x (t )dt.

Abbiamo quindi due risultati assolutamente equivalenti, che ci permettono di riformulare la denizione di autocorrelazione. Denizione 8.3 Si denisce funzione di autocorrelazione Rx ( ) del segnale x(t) il seguente integrale:
+

Rx ( ) =

x(t)x (t )dt =

x(t + )x (t)dt =

(8.2.1) (8.2.2)

= (x(t), x(t )) = (x(t + ), x(t)).

Naturalmente, dato che dora in poi ci occuperemo quasi esclusivamente di segnali reali, potremo tralasciare il coniugio sul secondo termine dellintegrale. Per studiare alcune propriet` dellautocorrelazione bisogna richiamare la disuguaglianza di Schwartz a cos` denita: |v w| v w . Dalla disuguaglianza di Schwartz si ricava: |v w| 1. v w Togliendo il modulo al numeratore 1 se i due vettori v, w sono diversi da zero vale cos = vw , v w vw 1; v w

dove ` langolo compreso tra i due vettori. Si ottiene: e vw = v da cui |v w| = v w |cos | . w cos ,

8.3 Funzione di mutua correlazione

71

Il prodotto scalare ` massimo quando i due vettori sono paralleli cio` quando cos = 1; in generale e e lo sono quando v = aw. Applichiamo lo stesso concetto ai segnali: Rx ( ) = (x(t), x(t )). Quindi |Rx ( )| = |(x(t), x(t ))| x(t) La norma di x(t ) si calcola come:
+ +

x(t ) .

(8.2.3)

x(t )x (t )dt =

x(t)x (t)dt;

Le due norme che compaiono nella (8.2.3) risultano quindi uguali. Quindi: Rx ( ) x(t) x(t ) = x(t) x(t) = x(t)
2

= (x(t), x(t)) = Rx ( )

=0

Abbiamo quindi dimostrato che il massimo per lautocorrelazione si ottiene nellorigine. Inoltre, se il segnale x(t) ` reale lautocorrelazione risulter` pari e reale: e a
+

Rx ( ) =
+

x(t)x (t )dt = x(t + )x (t)dt =

x(t)x(t )dt =
+

x(t)x(t + )dt = Rx ( )

8.3

Funzione di mutua correlazione

Il concetto di correlazione si pu` estendere anche a due segnali. o Denizione 8.4 Si denisce funzione di mutua correlazione tra due segnali x(t) e y(t) la funzione Rxy ( ) cos` denita:
+

Rxy ( ) =

x(t)y (t )dt = (x(t), y(t )).

Valgono anche in queste condizioni le propriet` della funzione di autocorrelazione; quindi la mutua a correlazione pu` anche essere scritta come: o
+

x(t + )y (t)dt,

come ` facile vericare operando un semplice cambio di variabili; inoltre anche Rxy ` pari e ha il e e massimo nellorigine, dove equivale al prodotto scalare tra i due segnali: Rxy ( )
=0

= (x(t), y(t)).

In questo caso lo spettro di energia Sxy (f )risulta il prodotto delle componenti in frequenza X(f ), Y (f ) dei due segnali: Sxy (f ) = X(f )Y (f ) = F {Rxy ( )} .
Esercizio 32 Sono dati due segnali x(t) e y(t). x(t) vale 1 per |t| < 0.5, e 0 altrove. y(t) vale t per 1 < t < 2, 0 altrove. La funzione di mutua correlazione Rxy ( ) ha un massimo per quale valore di ? Soluzione Il massimo si ha quando le due gure sono completamente sovrapposte, cio` quando = 1. e

72

Caratterizzazione energetica dei segnali

8.4
8.4.1

Segnali periodici
Spettro di potenza

I segnali periodici sono caratterizzati da energia innita, in quanto essa ` pari alla somma innita e di valori niti che rappresentano lenergia su un singolo periodo. Per questo, non ` signicativo e caratterizzare un segnale periodico tramite la sua energia; si usa invece la potenza media del segnale cos` denita: 1 P x = lim T + T
T 2

T 2

|x(t)| dt =< Px (t) >[,+] .

Si tratta in pratica di considerare lenergia su un intervallo di ampiezza T centrato rispetto allorigine, e dividerla per lampiezza stessa T . Come per i segnali ad energia nita anche con i segnali periodici bisogna denire lo spettro di potenza del segnale Gx (f ) come distribuzione in frequenza della potenza media; varr` la seguente relazione: a
+

Px =

Gx (f )df ,

che discende dal concetto stesso di spettro.

8.4.2

Funzione di autocorrelazione

Denizione 8.5 Si denisce funzione di autocorrelazione x ( ) del segnale periodico x(t) il seguente limite: T 2 1 x ( ) = lim x(t)x(t )dt. T + T T 2 La denizione data ricorda molto da vicino la funzione di autocorrelazione per segnali qualsiasi, con la dierenza che lintegrale viene valutato su un intervallo di ampiezza non innita ma tendente ad innito; inoltre, tale integrale viene ancora compensato dal fattore 1/T . Come nel caso generale, vale anche per i segnali periodici la seguente relazione, che enunciamo senza dimostrare: Gx (f ) = F {x ( )} .
Esercizio 33 Sia dato un segnale x(t) = di autocorrelazione di x(t), ovvero x ( ). Soluzione Calcoliamo la R(f ): F {r(t)} = Valgono le seguenti relazioni: n =
n 2 2 n 2 2 R( T ) 1 = 2T e2 2 T 2 = 2e2 n ; T T T

(2T 2 ) .Trovare la funzione k= r(t nT ) dove r(t) = e

t2

2 2 2 2T 2 e2 f T .

la funzione di autocorrelazione pu` essere scritta come: o x ( ) = quindi risulta: x ( ) =


X

|un |2 ej2 T n ;

2e4

n2 j 2 n e T .

8.4 Segnali periodici

73

Esercizio 30

Il segnale: x(t) =

X k=

P 1 (t k)
2

viene ltrato con un passabasso ideale la cui funzione di trasferimento vale 1 per |f | < B = altrove. Quanto vale la potenza del segnale in uscita dal ltro? Soluzione Ricordando le seguenti relazioni: |Y (f )|2 =
Z

3 2T

e zero

Gy (f )df

Gy (f ) = F {y ( )} y ( ) = Gy (f ) = n =
X n=0 X n=0

|n |2 ej

2nt T

|n |2 f

n t

W(n) t , T

e considerando che, nel nostro caso, W (t) ` uguale a: e W (t) = e T . abbiamo W ( n ) pari a: t W
n
|t|

1 T

1 + + j2n T

1 T

1 2 =T . j2n 1 + 4 2 T

Il nostro segnale X(f ) viene ltrato tramite H(f ) che fa passare solo alcune frequenze: Y (f ) = P 3T (f )
2

 1 X n 2 T f . 2 T n=0 1 + 4 T

Sviluppando la sommatoria e ltrando il segnale otteniamo: Y (f ) = essendo n = possiamo scrivere Gy (f ) = 2 1 + 4 2 n2


2

2 1 f 1 + 4 2 T

2 1 f+ 1 + 4 2 T

+ 2(f );

W(n) 2 t = , T 1 + 4 2 n2 1 T


f+

2 1 + 4 2 n2

1 T

+ 4(f ).

La potenza del segnale in uscita dal ltro risulta essere:


Z

Py =

Gy (f )df = 4 +

8 (1 + 4 2 )2

74

Caratterizzazione energetica dei segnali

Parte III

Statistica delle variabili aleatorie e dei processi casuali

Capitolo 9

Probabilit` a
Ci occupiamo ora di variabili aleatorie, cio` variabili di cui a priori non conosciamo il valore. Lo e studio di queste grandezze ` reso possibile dal fatto che possiamo conoscerne una distribuzione di e probabilit`. Chiariamo il concetto con un esempio: se lanciamo un dado a sei facce, supponendo che a il dado non sia truccato avremo la stessa probabilit` di ottenere uno dei sei numeri. In sostanza, a non possiamo dire prima di lanciare il dado il risultato che otterremo, ma possiamo sapere che uno qualsiasi dei sei numeri avr` la stessa probabilit` di uscire di tutti gli altri. a a In generale, le variabili aleatorie sono il risultato di un esperimento casuale, cio` un processo non e deterministico. Si denisce S lo spazio di tutti i possibili risultati (eventi) di un esperimento casuale. Le caratteristiche degli elementi di S dipenderanno dal tipo di esperimento; in generale, essi potrebbero appartenere a R o a un qualsiasi spazio Rn , o ancora essere complessi.

Prima di proseguire con altri concetti ` consigliabile richiamare gli operatori usati nelle opere azioni fra insiemi. OPERATORE LOGICO oppure e OPERAZIONE NEGLI INSIEMI (Unione) (Intersezione)

Godono delle seguenti propriet`: a Commutativa Associativa Distributiva A B=B A A B=B A A (B C) = (A A (B C) = (A A (B C) = (A

B) C B) C B) ((A

C))

78

Probabilit` a

La probabilit` che avvenga un evento x in un determinato spazio S viene denita come: a Denizione 9.1 Si dice probabilit` di un evento x S il rapporto tra il numero di casi favorevoli a e il numero totale di casi che possono vericarsi; essa viene indicata con P (x). Naturalmente P (S) = 1, cio` la probabilit` totale dello spazio di eventi ` unitaria. Lo stesso vale e a e per la probabilit` di un evento certo; al contrario, se un evento ` impossibile, la sua probabilit` ` a e ae nulla: P (0) = 0. Se consideriamo inoltre il complemento x dellevento, cio` tutti i casi in cui levento non avviene, e otteniamo chiaramente: P (x) = 1 P (x). La seguente gura rappresenta due insiemi disgiunti, cio` due insiemi che non posseggono elementi e in comune:

Tale caratteristica semplica lespressione della probabilit` dellunione e dellintersezione dei due a insiemi: P A B = P (A) + P (B), P A B = 0.

Se invece i due insiemi risultano congiunti, si ha:

Dobbiamo in questo caso distinguere tra coppie di insiemi statisticamente indipendenti e coppie di insiemi tra loro correlate. Due eventi si dicono statisticamente indipendenti se e solo se la realizzazione di uno non inuisce sulla probabilit` dellaltro. In questo caso si ha: a P (C) = P A P A B = P (A)P (B), B = P (A) + P (B) P (C). (9.0.1)

B = P (A) + P (B) P A

9.1 Probabilit` Condizionata a

79

9.1

Probabilit` Condizionata a

a a Denizione 9.2 Si denisce probabilit` condizionata la probabilit` che avvenga levento A essendosi certamente vericato levento B e si indica con: P (A|B). Se ad esempio consideriamo il lancio di due dadi, e chiamiamo B levento esce 3 sul primo dado e A levento esce 3 sul primo dado e 4 sul secondo, la probabilit` P (A|B) vale 1/6, anzich 1/36. a e In pratica, lo spazio di eventi con probabilit` unitaria non ` pi` tutto S, ma si restringe al solo B. a e u In generale, la probabilit` condizionata segue la seguente legge: a Teorema 9.1 (di Bayes) Siano A, B S due eventi con probabilit` rispettivamente P (A), P (B). a Allora vale: P (A B) P (A|B) = . P (B)

Se imponiamo: P (A|B) = 1, allora P (A|B) = Da questa formula si pu` ricavare che: o P (A B) = P (A|B)P (B). P (A B) P (B) = = 1. P (B) P (B)

che a dierenza della (9.0.1) ` sempre valida sia che gli eventi siano statisticamente indipendenti e sia che non lo siano.

9.2

Teorema della probabilit` totale a

Lo spazio degli eventi S viene diviso in N insiemi, come mostrato in gura. Tutti questi insiemi sono statisticamente indipendenti. Chiaramente vale:
N

An = S.
n=1

Essendo statisticamente indipendenti vale anche: Ai se B ` un insieme di S, vale quindi: e


N N

Aj = 0

i, j;

P (B) =
n=1

P (B|An )P (An ) =
n=1

P (B

An ).

Esempio

80

Probabilit` a

S ` lo spazio di probalit` di un dado: e a S = {1, 2, 3, 4, 5, 6} . Calcolare la probabilita P (x) che esca un determinato numero. P (x) = (Il numero che ci interessa ` solo uno) e 1 = (Il numero di eventi che possono avvenire ` sei) e 6

Calcolare la probabilit` che esca un numero pari: a P (x) = (2, 4, 6) 3 1 = = (1, 2, 3, 4, 5, 6) 6 3

Lanciamo due dadi e verichiamo la probabilit` che esca una determinata combinazione: a A = {1} con il lancio del primo dado, B = {5} con il lancio del secondo dado.

Come prima cosa calcoliamo le probabilit` dei due lanci. a P (A) = P {P [1, 1], P [1, 2], P [1, 3], P [1, 4], P [1, 5], P [1, 6]} = 6 P (B) = P {P [5, 1], P [5, 2], P [5, 3], P [5, 4], P [5, 5], P [5, 6]} = 6 1 1 = ; 36 6

1 1 = . 36 6 I due eventi sono statisticamente indipendenti perci` possiamo calcolare la probabilit` serveno a doci della formula semplicata: P A B = P (A)P (B) = 1/6 1/6 = 1/36.

Per vericare il risultato possiamo fare il calcolo tramite la formula generale. P A B = P (A|B)P (B),

9.3 Variabili casuali 1 , 6 1 . 36

81

P (A|B) = P A

B =

Da questo semplice esercizio si pu` osservare che, se gli eventi sono S.I., vale la seguente o aermazione: P (A|B) = P (A).

9.3

Variabili casuali

Nello studio di variabili casuali lo spazio S di probabilit` coincide con lasse reale; normalmente a si indica con una variabile casuale. Un esempio di variabile casuale ` la misura di una temperatura. e Vogliamo ora cercare di descrivere la distribuzione di probabilit` della variabile con una funa zione tale che il suo integrale in un intervallo ci dia la probabilit` che assuma valori compresi in a quellintervallo. Questo equivale a richiedere che la funzione cercata sia la derivata della probabilit`: a P dP x0 = f (x) x dx Denizione 9.3 Si denisce densit` di probabilit` f (x), la funzione che rappresenta la proba a abilit` in un intervallo. a Ad esempio la variabile pu` avere probabilit` costante di cadere in un certo intervallo; in questo o a caso si parla di distribuzione di probabilit` uniforme e la sua densit` di probabilit` ` del tipo: a a ae 1 f (x) = Pa (x x ) , a dove a ` lampiezza dellintervallo di valori, mentre x ` la media, cio` il valore centrale dellintere e e vallo. Tutte le densit` di probabilit` sono positive e il loro integrale su tutto lasse reale vale uno. a a Ad esempio, la densit` di probabilit` di una distribuzione uniforme su un intervallo di ampiezza a a a 1 1 centrata sul valor medio ` data da f (x) = a pa (x ); la funzione porta ` moltiplicata per a per e e normalizzarla, in modo che risulti R f (x)dx = 1.

82

Probabilit` a

Figura 9.1: Densit` di probabilit` congiunta di 2 variabili come descritto nel testo. a a

9.4

Distribuzione cumulativa

Denizione 9.4 Si denisce distribuzione cumulativa la funzione integrale della densit` di probaa bilit`. a
x

F (x) =

f ()d = P ( [, x0 ])

La distribuzione cumulativa ha le seguente caratteristiche: F (x)0, F (x)1, F () = 1.

9.5

Coppie di variabili casuali

Trattando con sistemi reali, il pi` delle volte ci si trova a dover studiare numerose variabili casuali, u che talvolta interagiscono tra di loro. Il caso pi` semplice ` che le due variabili siano statisticamente u e indipendenti: consideriamo ad esempio che rappresenti il lancio di un dado e il lancio di un secondo dado. In tal caso, se vogliamo una funzione f (x, y) che rappresenti la densit` di probabilit` a a congiunta delle due variabili, cio` la probabilit` che contemporaneamente siano vericate entrambe e a le seguenti condizioni: = x, = y, sar` suciente moltiplicare le densit` di probabilit` delle due variabili considerate singolarmente; a a a infatti siamo nella situazione di valutare la probabilit` che due eventi statisticamente indipendenti a accadano contemporaneamente. Quindi f (x, y) = f (x)f (y). (9.5.1)

Tuttavia, accade spesso che le due variabili da studiare non siamo S.I.. In tal caso, la densit` di a probabilit` congiunta sar` unespressione che in generale non ha niente a che fare con le due densit` a a a delle singole variabili. Per fare un esempio, le due variabili possono essere le coordinate di un corpo nello spazio bidimensionale. Se, per qualche motivo, ci fossero tre punti in cui ` pi` probabile che il e u corpo si trovi, allora avremmo che la densit` f ` data dalla combinazione lineare di tre gaussiane a e (assumendo che la distribuzione intorno a quei punti sia gaussiana). Il graco di una funzione come quella descritta ` riportato in gura 9.1. e

9.5.1

Densit` di probabilit` condizionata a a

Anche nel caso di una coppia di variabili casuali possiamo studiare la probabilit` condizionata. a In questo caso possiamo denire una funzione di densit` di probabilit` condizionata, secondo una a a formula del tutto analoga al teorema di Bayes esposto nel paragrafo 9.1: f (x|y) = f (x, y) f (y) (9.5.2)

Si pu` facilmente vericare che se e solo se ed sono statisticamente indipendenti la (9.5.2) o diventa: f (x)f (y) = f (x). f (x|y) = f (y)

Capitolo 10

Medie e valori attesi


10.1 Momenti non centrali

Denizione 10.1 Si dice momento non centrale di ordine n rispetto ad una variabile casuale con densit` di probabilit` f (x)il seguente integrale: a a E { n } =
+

xn f (x)dx.

Loperatore E che compare nella denizione va sotto il nome di valore atteso. Tra i momenti non centrali, quello senzaltro pi` importante ` quello del primo ordine, chiamato u e anche media. Denizione 10.2 Si dice media di una variabile casuale con densit` di probabilit` f (x) il a a seguente integrale:
+

= E {} =

xf (x)dx.

Spesso si parla di valore atteso di una variabile casuale riferendosi esclusivamente alla media. La media cos` denita coincide col concetto intuitivo di media con valore pi` comunemente assunto u da una variabile casuale, e, in questo senso, atteso come risultato dellesperimento casuale. Questa denizione coincide anche con la pi` nota media aritmetica: u =
N n=0 n

dove N ` il numero di valori considerati. La dierenza principale sta nella presenza dellintegrale e invece della sommatoria discreta, giusticata dal passaggio dal campo del discreto al continuo. Dalla denizione data, ` facile vedere che loperatore di valore atteso ` lineare, in quanto denito e e come integrale.

10.2

Momenti centrali

Se volessimo studiare quanto una variabile casuale rimane vicina alla sua media, potremmo calcolare il valore atteso della dierenza , anzich semplicemente di . In questo caso si parla di momento e centrale rispetto alla media.

84

Medie e valori attesi

Denizione 10.3 Si dice momento centrale di ordine n rispetto ad una variabile casuale con densit` di probabilit` f (x) il seguente valore atteso: a a E {( )n } = dove ` la media E {}. e Anche in questo caso esiste un momento pi` importante degli altri; si tratta della varianza, denita u come momento centrale del secondo ordine. Dalla denizione, si nota che la varianza ` lintegrale e della densit` di probabilit` moltiplicata per la distanza al quadrato (quindi senza segno) dalla media: a a
2 = E ( )2 = + +

(x )n f (x)dx,

(x )2 f (x)dx.

Esempio

Calcoliamo la varianza di una variabile casuale con densit` di probabilit` uniforme. a a

La densit` di probabilit` f (x) ` data da: a a e 1 f (x) = Pa (x u ) . a Basta ora applicare la denizione: E ( )2 = Ponendo = x si ottiene: E ( )2 =
+ +

(x )2 f (x)dx =

1 (x )2 Pa (x )dx a

1 1 2 Pa ()d = a a

a/2 a/2

2 d =

2 a

a/2 0

2 d =

2 3 a 3

a/2

= a2 /12.
0

Esercizio 35 vale:

Sia data una coppia di variabili casuali ed . La loro densit` di probabilit` congiunta a a f, (x, y) =
6 1 1X (x n) pa (y b). 6 n=1 a

Calcolare E{} sapendo che a = 2, b = 1/2. Soluzione Lesercizio pu` essere risolto in due modi. Il metodo standard ` quello che vale in qualsiasi occasione: basta o e

10.3 Generalizzazione del valore atteso

85

ricorrere alla denizione di valore atteso:


ZZ
+

ZZ

E{} =

xyf, (x, y)dxdy =

xy

= = =

1 6a 1 6a 1 6a

6 X n=1 6 X n=1 6 X n=1

ZZ Z

6 1X 1 (x n) pa (y b)dxdy = 6 n=1 a

xy(x n)pa (y b)dxdy =


+

nypa (y b)dy =

y2 2

b+a/2

6 Z 1 X b+a/2 nydy = 6a n=1 ba/2

6 Z Z + 1 X xy(x n)pa (y b)dxdy = 6a n=1

;
ba/2

sostituendo i valori di a e b forniti dal testo, si ottiene: 7 . 4 Tuttavia ` possibile giungere a questo risultato in un altro modo. Osserviamo che la densit` di probabilit` e a a congiunta fattorizza in due termini, dei quali uno dipende solo da x e laltro solo da y. Quindi le due variabili sono statisticamente indipendenti; questo ci permette di scrivere: E{} = E{} = E{}E{}. Osserviamo ora le due probabilit` disgiunte. Da esse si nota che assume una distribuzione discreta, mentre a ha una distribuzione uniforme. Si ` gi` mostrato che la media di una distribuzione discreta ` la media e a e aritmetica dei valori che essa assume, mentre la media di una distribuzione uniforme ` pari al valore su cui e la distribuzione ` centrata. Quindi abbiamo: e 7 7 E{} = b = . 2 4

10.3

Generalizzazione del valore atteso


La

In generale, il valore atteso pu` essere usato anche per calcolare momenti non standard. o denizione pi` ampia del valore atteso ` la seguente: u e
+

E, {g(, )} =

g(x, y)f (x, y)dxdy,

dove si ` supposto che g fosse una funzione di due variabili, e che ciascuna di queste due variabili e fosse casuale.

10.4

Momenti congiunti

Il momento congiunto di ordine n di due variabili casuali ed con densit` di probabilit` congiunta a a f (x, y) ` denita come segue: e E { n n } = La media congiunta si ottiene ponendo n = 1:
+ +

xn y n f (x, y)dxdy.

= E {} =

xyf (x, y)dxdy.

Se le due variabili sono statisticamente indipendenti vale la (9.5.1); quindi si ha:


+ +

E {} =

xf (x)dx

yf (y)dy = = E {} E {} .

86

Medie e valori attesi

10.5

Momenti congiunti centrali


+

Lo stesso discorso si ripropone per i momenti congiunti non centrali di ordine n: E{( )n ( )n } = (x )n (y )n f, (x, y)dxdy,

dove e sono rispettivamente i valori attesi (medie) delle due variabili coinvolte. Anche in questo caso si denisce la varianza come lordine centrale di ordine n = 2.

10.6

Media condizionata
+

La media condizionata di due variabili ` denita come segue: e E| {g(, )} = Si ha: E {g(, )} = E E| {g(, )} = E E| {g(, )} ; da cui, osservando che la media condizionata ` una funzione di una sola variabile, e
+

g(x, h)f (x|y)dx.

(10.6.1)

E {g(, )} = E E| {g(, )} = E {w()} =


+ +

w(y)f (y)dy =
+

f (y)

g(x, y)f (x|y)dxdy =

g(x, y)f (y)f (x|y)dxdy

Se le due variabili sono statisticamente indipendenti il prodotto f (y)f (x|y) ` uguale a f (x)f (y); e inoltre, supponendo che g(x, y) = g1 (x)g2 (y), si ricava
+

E {g(, )} =
+

g(x, y)f (x)f (y)dxdy =


+

g1 (x)f (x)dx

g2 (y)f (y)dy = E {g1 (x)} E {g2 (x)} .

10.7

Coeciente di correlazione
E {( )( )} .
1

Denizione 10.4 Si denisce coeciente di correlazione il seguente numero: =

Il coeciente di correlazione ` compreso tra 1 ed 1, a causa della presenza del fattore e normalizza. Se ed sono statisticamente indipendenti si ha: = E {( )}E {( )} .

che

Si ottenie = 0; la dimostrazione ` semplice e pu` essere svolta per esercizio. e o

Capitolo 11

Processi casuali
Denizione 11.1 Si dice processo casuale X(t) un evento che produce un segnale la cui forma donda ed espressione non ` determinata, ma pu` variare secondo una certa distribuzione di e o probabilit`. Uno specico segnale prodotto da un processo casuale viene detto realizzazione del a processo casuale, e si indica con X(t; 0 ), dove 0 non ` un parametro, ma una semplice etichetta. e Un esempio di processo casuale pu` essere levoluzione della temperatura rilevata a intervalli regolari o per un mese o un anno in uno stesso posto: infatti non viene generato un solo valore, ma una serie di valori associati a momenti diversi. Abbiamo due possibili modi di studiare un processo casuale: il primo ` quello di cercare la probabilit` e a che venga generata una precisa forma donda. Questa via non ` per` facilmente percorribile, in e o quanto le forme donda che possono essere realizzate sono innite e dicilmente si pu` prevedere o luscita delluna o dellaltra. Il modo alternativo ` quello di considerare un istante di tempo t0 e studiare la distribuzione di e probabilit` di X(t; 0 ); in questo caso, si riduce lo studio del processo casuale allanalisi di una a variabile aleatoria, cosa che sappiamo arontare. Tale distribuzione di probabilit` viene indicata a con fX(t0 ) (x); se si conosce tale funzione per ogni istante t0 , allora si ha la densit` di probabilit` a a del primo ordine fX(t) (x), spesso indicata con fX (x; t), dove x ` una variabile di servizio usata e per esprimere la densit` di probabilit` , mentre t ` la variabile che compare nellespressione del a a e processo. Se volessimo conoscere la relazione tra la probabilit` in un istante t1 e in un istante t2 , avremmo a bisogno di conoscere la densit` di probabilit` congiunta del secondo ordine fX(t1 )X(t2 ) (x1 , x2 ) a a = fX (x1 , x2 ; t1 , t2 ). In generale si potr` denire la densit` di probabilit` delln-esimo ordine, cio` a a a e la relazione tra le probabilit` valutate in n istanti di tempo diversi. Ci si potrebbe chiedere se il a valore in ciascun istante sia statisticamente indipendente da quello di altri istanti; in questo caso, le relative densit` di probabilit` potrebbero fattorizzare, e si potrebbe scrivere per ln-esimo ordine: a a
n

fX (x; t) =
i=1

fX (xi ).

(11.0.1)

Per risolvere il problema riprendiamo lesempio della temperatura. Supponiamo di voler tracciare landamento della temperatura in un mese abbastanza caldo; presumibilmente, i valori rilevati saranno compresi tra i 25 e i 35 gradi centigradi, ma non si possono escludere casi pi` caldi o pi` u u freddi; ci` signica che la densit` di probabilit` del primo ordine avr` un andamento gaussiano, con o a a a valor medio di circa 30 gradi. Per ssare le idee, supponiamo che il giorno 10 si sia registrata una temperatura di 28 gradi; se i valori rilevati in tempi diversi fossero statisticamente indipendenti, dovremmo trarre la conclusione che il giorno 11 potremo avere qualsiasi valore di temperatura, anche molto distante da quello del giorno precedente. Tuttavia, si pu` supporre che la temperatura o reale non si discoster` molto da quei 28 gradi; potremmo ad esempio dire che in un giorno si possa a

88

Processi casuali

avere uno sbalzo di 5 gradi. ` E chiaro che i due eventi sono in qualche modo correlati: il valore assunto da una variabile casuale inuenza la distribuzione dellaltra. Del resto, cerchiamo di capire se esistano processi i cui punti siano statisticamente indipendenti cercando di tradurre questa condizione in unaltra propriet` a equivalente pi` facilmente vericabile. Se consideriamo intervalli di tempo pi` ristretti, ad esempio u u unora, tra una rilevazione e la successiva, la possibilit` di scarto passa verosimilmente a non pi` a u di un grado in pi` o in meno; se consideriamo un rilevamento al minuto, le variazioni non potranno u essere maggiori di decimi, se non centesimi, di grado. Dunque, se diminuisce lintervallo di tempo, diminuisce lintervallo di valori dellordinata; questa condizione ` quella che si impone per denire la e continuit` analitica di una funzione. In altre parole, un processo che generi forme donda continue a ` tale per cui i sui punti non sono statisticamente indipendenti. e In conclusione, lespressione (11.0.1), che ci avrebbe notevolmente semplicato la vita, non ` applie cabile nei casi di nostro interesse.
Esercizio 43 a: Si consideri un processo casuale X(t) con densit` di probabilit` del primo ordine pari a a fX (x; t) = 1 p2+|t| (x), 2 + |t|

dove py (x) vale 1 per |x| < y/2 e zero altrove. Quale dei seguenti segnali (gura 11.1) non pu` essere una o realizzazione di X(t)?
2.5 2.5

a)
2 2 1.5 1.5

b)

0.5

0.5

0.5

0.5

1.5 4

1.5 4

2.5

2.5

c)
2 2 1.5 1.5

d)

0.5

0.5

0.5

0.5

1.5 4

1.5 4

Figura 11.1: Possibili realizzazioni del processo dellesercizio 43.

Soluzione La densit` di probabilit` mostra che X(t) assume una distribuzione uniforme su un intervallo di valori la a a cui ampiezza varia linearmente con |t|. In particolare, si pu` denire una regione di possibili valori di X(t) o

11.1 Momenti principali di un processo casuale

89

compresa tra le due rette 1 + |t| e 1 |t|. In generale, infatti, valutare la funzione fX (x; t) in un istante t = t0 vuol dire stabilire quali valori potranno essere assunti dal processo casuale nellistante t0 ; nel nostro 1 o caso, per t = 0, si ha fX (x; 0) = 2 p2 (x), quindi il processo pu` assumere valori compresi tra -1 e 1. Si nota che lunico segnale tra quelli proposti che non soddisfa tale condizione ` il segnale c), che nellistante e considerato vale 2.

11.1

Momenti principali di un processo casuale

Come avevamo gi` fatto con le variabili casuali, deniamo ora i momenti di un processo casuale. a Introduciamo per prima cosa lestensione di un concetto gi` noto: a Denizione 11.2 Si dice valore atteso o media di un processo casuale X(t) con densit` di a probabilit` del primo ordine fX (x; t) il seguente integrale: a
+

E {X(t)} =

xfX (x; t)dx.

Osservazione Pi` in generale, se volessimo calcolare la media di un processo denito come u Y (t) = g[X(t)], conoscendo fX (x; t) ed essendo g : R R una funzione determinata, avremmo:
+ +

E {Y (t)} = E {g[X(t)]} =

g(x)fX (x; t)dx =


+

yfY (y; t)dy.

In generale, i momenti del tipo E {X(t)n } si dicono momenti non centrali di ordine n-esimo, mentre quelli del tipo E {[X(t) X ]n }, dove X = E {X(t)}, si dicono momenti centrali di ordine n-esimo. Di essi, il pi` importante ` la varianza: u e
2 X = E [X(t) X ]2 = E X(t)2 2 , x

` secondo le note propriet` di linearit` del valore atteso (cfr. 10.1). E importante notare che in a a generale la media e la varianza di un processo casuale sono funzioni del tempo. Parleremo pi` u avanti dei processi i cui momenti sono costanti rispetto a t.
Esercizio 44 a: Si consideri un processo casuale X(t) con densit` di probabilit` del primo ordine pari a a fX (x; t) =

1 1 pa (x)u(t) + p2a (x)u(t), a 2a dove py (x) vale 1 per |x| < y/2 e zero altrove. Quanto valgono la media e la varianza di X(t)? Soluzione ` E suciente applicare le denizioni appena date:
Z
+

a/2 a/2

X = E {X(t)} =

xfX (x; t)dx =


Z

x u(t)dx + a

a a

x u(t)dx = 0; 2a

2 X = E X 2 (t) =

Z Z

+ a/2 a/2

x2 pa (x)u(t)dx + a x2 u(t)dx + a
Z
a a

x2 p2a (x)u(t)dx = 2a

x2 1 a3 1 2a3 u(t)dx = u(t) + u(t) = 2a a 12 2a 3

a2 a2 a2 = [u(t) + 4u(t)] = [1 u(t) + 4u(t)] = [1 + 3u(t)] . 12 12 12

90

Processi casuali

Per il secondo ordine, nel caso dei processi casuali possiamo denire altre grandezze. Denizione 11.3 Si dice correlazione del processo casuale X(t) la funzione X denita come segue: E {X(t1 )X(t2 )} X (t1 )X (t2 ) X (t1 , t2 ) = . X (t1 )X (t2 ) Questa funzione in qualche modo rappresenta quanto stretta sia la dipendenza tra i vari istanti di tempo. Infatti, consideriamo i due casi estremi: se tutti i punti della realizzazione del processo fossero statisticamente indipendenti, avremmo: X (t1 , t2 ) = cio` e
t1 t2

E {X(t1 )} E {X(t2 )} X (t1 )X (t2 ) = 0, X (t1 )X (t2 ) lim X (t1 , t2 ) = 0.

Se invece ci` non fosse vero (cio` se la curva generata fosse continua, per i motivi che abbiamo gi` o e a esposto), non si potrebbe scomporre il valore atteso a numeratore; potremmo per` scrivere: o lim X (t1 , t2 ) = lim E X(t2 )2 2 (t2 ) E {X(t1 )X(t2 )} X (t1 )X (t2 ) X = = 1. 2 X (t1 )X (t2 ) X (t2 )

t1 t2

t1 t2

Denizione 11.4 Si dice autocorrelazione di un processo casuale X(t) la funzione RX cos` denita: RX (t1 , t2 ) = E {X(t1 X(t2 )} . Denizione 11.5 Si dice covarianza di un processo casuale X(t) la funzione kX cos` denita: kX (t1 , t2 ) = RX (t1 , t2 ) X (t1 )X (t2 ). Si ha:
2 X (t) = kX (t, t).

Esercizio 36

Portare avanti il pi` possibile il calcolo della media: u M (t, ) = E{X(t)Y (t)X(t ) cos((t)) + X(t)Y (t)Y (t + ) sin((t))}

sapendo che: X(t) e Y (t) sono processi reali, WSS, indipendenti fra loro e con media rispettivamente x e y ; (t) ` un processo casuale a media nulla statisticamente indipendente da X(t) ma non indipendente e da Y (t); (t) ` un processo casuale a media nulla statisticamente indipendente da X(t) e Y (t). e Soluzione Quello che lesercizio ci chiede ` di applicare, laddove ci` sia possibile, le propriet` del valore atteso, in e o a modo da semplicare al massimo lespressione data. Notiamo allora che possiamo sfruttare la propriet` di a linearit` del valore atteso; inoltre, tenendo conto delle indipendenze dichiarate tra i vari processi, possiamo a scrivere: M (t, ) = E{X(t)X(t )}E{Y (t) cos((t))} + E{X(t)}E{Y (t)Y (t + )}E{sin((t))} = = RX ( )E{Y (t) cos((t))} + x RY ( )E{sin((t))}. (11.1.1) (11.1.2)

11.2 Processi quasi determinati

91

Non ` possibile semplicare ulteriormente la media di Y (t) cos((t)), in quanto il processo (t) non ` e e indipendente da Y (t); non possiamo neanche calcolare il valore atteso di sin((t)), poich non conosciamo e la distribuzione di probabilit` del processo (t). La (11.1.1) ` quindi la massima semplicazione possibile. a e

Esercizio 37

Portare avanti il pi` possibile il calcolo della media: u

M (t, ) = E {X(t + )Y (t)X(t ) sin((t)) + X(t)X(t + )Y (t + ) cos((t))} sapendo che: X(t) ed Y (t) sono processi reali, WSS, indipendenti fra loro e con media rispettivamente X e Y ; (t) ` un processo casuale uniformemente distribuito fra [/2, pi/2], statisticamente indipendente e da X(t) ma non indipendente da Y (t); (t) ` un processo casuale uniformemente distribuito fra [/2, pi/2], statisticamente indipendente e da X(t) e da Y (t). Soluzione Questo esercizio ` analogo al precedente. Scriviamo: e M (t, ) = E {X(t + )Y (t)X(t ) sin((t))} + E {X(t)X(t + )Y (t + ) cos((t))} = = RX (2 )E {Y (t) sin((t))} + RX ( )Y E {cos((t))} . Come prima, non possiamo semplicare il termine E {Y (t) sin((t))}, in quanto (t) non ` statisticamente e indipendente da Y (t), e dovremmo quindi conoscere la loro probabilit` congiunta. Invece, il processo (t) a ` indipendente da entrambi gli altri due processi casuali, e quindi possiamo fattorizzarne la media. Inoltre, e il testo ce ne fornisce le caratteristiche statistiche; ` possibile calcolare esplicitamente quel valore atteso: e
Z
+

E {cos((t))} =
Z
+

cos f ()d = 1 1 cos p () d =


Z
+/2

= Quindi la forma semplicata ` la seguente: e

cos d =
/2

2 .

M (t, ) = RX (2 )E {Y (t) sin((t))} + RX ( )Y

2 .

11.2

Processi quasi determinati

Una classe particolare di processi casuali ` quella dei processi quasi determinati. Si tratta di forme e donda generate da una funzione determinata, al cui interno compaiono come parametri una o pi` u variabili casuali. Ad esempio, il processo X(t) = sin(t), dove ` una variabile aleatoria con e distribuzione (per esempio) gaussiana, ` un processo quasi determinato. e In questi casi particolari, i momenti possono essere calcolati come nel caso di variabili casuali singole, come mostra il seguente esercizio.
Esercizio 42 Sia dato il processo casuale X(t) = rT (t ), con variabile aleatoria uniformemente distribuita nellintervallo [0, T ], e r(t) impulso rettangolare, causale, di ampiezza unitaria e durata T . Si valuti la media mX = E {X(t)}. Dire quale delle seguenti aermazioni ` corretta: e mX (t) = 1 mX (t) = 0 t; t; t > T ;

mX (t) dipende dal tempo, e in particolare mX (T ) = 1; mX (t) dipende dal tempo, e in particolare mX (t) = 0

92

Processi casuali

nessuna delle precedenti. Soluzione Il processo in analisi ` quasi determinato, nel senso che ` un segnale ben denito allinterno del quale uno e e o pi` parametri dipendono da variabili aleatorie; per lesattezza, si tratta di un rettangolo il cui istante u centrale pu` variare casualmente tra 0 e T . Si pu` quindi utilizzare la denizione di media statistica o o o valore atteso:
Z
+

E {X(t)} = E {rT (t )} =

rT (t x)pT

T 2

1 1 dx = T T

Z
0

rT (t x)dx;

considerando che rT (t x) = 0 se e solo se t T x t, si ottiene:


8 >0 > > >t > <

t0 0<tT T < t 2T t > 2T = T ri2T (t T ).

mx (t) =

>2 t > > > T > :

In particolare, si osserva che mx (T ) = 1.

11.3

Stazionariet` di un processo casuale a

Abbiamo detto prima che i momenti di un processo casuale in generale dipendono dal tempo. Tuttavia, in certi casi particolari, tale dipendenza viene meno; in tal caso si parla di processo stazionario. Una denizione pi` precisa ` la seguente: u e Denizione 11.6 Un processo casuale X(t) si dice stazionario dellN -esimo ordine se e solo se la sua distribuzione di probabilit` dellN -esimo ordine pu` essere scritta come a o fX (x1 , . . . , xN ; t1 t2 , . . . , tN 1 tN ). In generale, si pu` dire che non ` la scelta di un preciso istante di tempo a condizionare la probabilit`, o e a ma la distanza tra i due istanti scelti. Diminuisce cio` il grado di libert` del processo stesso. e a Scendendo pi` nel dettaglio, diremo che un processo X(t) `: u e stazionario del primo ordine se la sua densit` di probabilit` del primo ordine non dipende dal a a tempo, cio` se fX (x; t) = fX (x); e stazionario per la media se la media ` una costante rispetto al tempo, cio` se X (t) = X ; e e analogamente, stazionario per la varianza se la varianza ` una costante rispetto al tempo, cio` e e 2 2 se X (t) = X ; e a a stazionario del secondo ordine se ` stazionario del primo ordine e la sua densit` di probabilit` del secondo ordine non dipende dalla scelta dei due istanti di tempo, ma solo dalla loro dierenza; cio` se fX (x1 , x2 ; t1 , t2 ) = fX (x1 , x2 ; ), con = t2 t1 ; e stazionario per lautocorrelazione se la sua funzione di autocorrelazione dipende solo dalla dierenza tra i due istanti di tempo, cio` se RX (t1 , t2 ) = RX ( ), con = t1 , t2 . e Viste queste denizioni, possiamo porre un altro concetto di stazionariet`. a Denizione 11.7 Un processo casuale si dice stazionario in senso lato o WSS ( wide sense stationary) se e solo se esso ` stazionario per la media e per lautocorrelazione. e

11.4 Autocorrelazione dei processi WSS

93

` E chiaro che se un processo ` stazionario del secondo ordine, allora ` anche WSS; infatti un tale e e processo ` sicuramente stazionario per lautocorrelazione. Non ` sempre vero il contrario, in quanto e e pu` accadere che un processo stazionario per lautocorrelazione non sia stazionario del secondo o ordine. Un concetto ancora pi` restrittivo ` quello di stazionariet` in senso stretto. u e a Denizione 11.8 Un processo casuale si dice stazionario in senso stretto o SSS ( strict sense stationary) se e solo se esso ` WSS e la sua densit` di probabilit` del primo ordine ` gaussiana. e a a e Chiaramente, dalla stessa denizione si vede facilmente che processi SSS sono anche WSS, mentre non ` vera limplicazione inversa. e

11.4

Autocorrelazione dei processi WSS

Consideriamo un processo casuale X(t) WSS; per denizione, esso ` stazionario per lautocorree lazione. Possiamo scrivere: RX ( ) = E {X(t1 )X(t1 )} = E {X(t2 + )X( )} ; ` chiaro che i due argomenti del valore atteso possono essere scambiati con la propriet` commutativa; e a per convincersene basta operare un cambio di variabili del tipo = t . In pratica otteniamo: RX ( ) = E {X(t)X(t )} = E {X(t)X(t + )} = RX ( ). Abbiamo mostrato quindi che la funzione di autocorrelazione di un processo WSS ` pari, cos` come e avevamo trovato per lautocorrelazione di due variabili casuali. In quel caso, avevamo anche trovato dei limiti a questa funzione (valeva infatti |R ( )| R (0)); vediamo se riusciamo a fare altrettanto con i processi WSS. Consideriamo il processo Y (t) = X(t)X(t ); si tratta di un segnale artefatto costruito sul processo X(t) che vogliamo analizzare. Avremo (grazie alla propriet` di stazionariet` a a di X(t)): E Y 2 (t) = E X 2 (t) + X 2 (t ) 2X(t)X(t ) = = E X 2 (t) + E X 2 (t ) 2E {X(t)X(t )} = = RX (0) + RX (0) 2RX ( ) = 2RX (0) 2RX ( ). Il valore atteso che abbiamo calcolato devessere senzaltro positivo, perch ` la media di un segnale ee sempre positivo in quanto ottenuto come elevamento al quadrato di Y (t). Quindi si ricava: 2RX (0) 2RX ( ) 0 cio` e |RX ( )| RX (0), come nel caso gi` analizzato in precedenza. a Notiamo che anche nello studio dei segnali determinati abbiamo parlato del concetto di funzione di autocorrelazione, utilizzando una scrittura del tutto analoga a quella dellautocorrelazione statistica, nonostante la diversit` formale e concettuale. Infatti, ora stiamo parlando di processi casuali, mentre a lautocorrelazione introdotta nel paragrafo 8.2 era riferita a segnali che di casuale non dovevano avere niente. Richiamiamo tuttavia le due denizioni (nel caso statistico consideriamo un processo WSS, e assumiamo che entrambi i segnali siano determinati):
+

RX ( ) RX (0),

Rx ( ) =

x(t)x(t )dt,

RX ( ) = E {X(t)X(t + )} .

94

Processi casuali

Osserviamo che le dierenze nella denizione sono dettate quasi esclusivamente dallindeterminazione del processo casuale: infatti il valore atteso non ` altro che un integrale, nel quale per` e o compare un termine assente nel caso determinato, cio` la densit` di probabilit`, assolutamente prie a a va di senso quando si tratta di segnali non statistici. Lanalogia tra le due funzioni ` evidente anche e da un altro caso di somiglianza nelle notazioni: Rx (0) = E {x(t)} , RX (0) = E X 2 (t) . Non si devono certo confondere i concetti di energia e di valore atteso; tuttavia ` interessante e notare come concetti che possiamo considerare paralleli (con le dovute distinzioni) siano espressi con notazioni molto simili.

Capitolo 12

Processi casuali ltrati


Si parla di processi casuale ltrati quando un processo casuale viene posto allingresso di un sistema, che d` in uscita un segnale Y (t). Tuttavia in generale non ` sempre detto che Y (t) sia anchesso un a e processo casuale. Si pone la seguente denizione: Denizione 12.1 Sia X(t) un processo casuale. Esso viene posto allingresso di un sistema che d` in uscita Y (t) = S {X(t)}. Y (t) si denisce processo casuale ltrato se e solo se a Y (t; 0 ) = S {X(t; 0 )} . Vale il seguente teorema, che non dimostriamo. Teorema 12.1 Dato un sistema LTI S con risposta allimpulso h(t) ed un processo casuale X(t) che viene posto al suo ingresso, allora luscita Y (t) = S {X(t)} ` un processo casuale, cio` lintegrale e e di convoluzione Y (t; 0 ) = X(t; 0 ) h(t) converge, se e solo se sono vericate le seguenti condizioni: 1. il sistema ` stabile BIBO; e 2. il processo X(t) ` tale che |X (t)| M < e |X (t)| S < e t R.

12.1

Momenti dei processi ltrati

Anche assumendo che un sistema dia in uscita un processo casuale, ancora non possiamo dire niente sulla distribuzione di probabilit` delluscita. Tuttavia possiamo tirare qualche conclusione sulla a media e sullautocorrelazione deluscita, note le rispettive propriet` dellingresso. a Teorema 12.2 Sia X(t) un processo casuale che viene posto allingresso di un sistema con risposta allimpulso h(t). Sia Y (t) luscita di tale sistema. Allora, si ha: Y (t) = X (t) h(t), dove X (t) = E {X(t)}. Se il processo X(t) ` WSS, allora si ha: e Y = X H(0), con H(f ) = F {h(t)}. (12.1.2) (12.1.1)

96

Processi casuali ltrati

Dimostrazione

Dimostriamo prima il caso generale espresso dalla (12.1.1). Si ha:


Z
+

Y (t) = E {X(t) h(t)} = E


Z
+

X()h(t )d

E {X()} h(t + )d = X (t) h(t).

Per ricavare la (12.1.2) ` suciente ricordare che la media di un processo WSS ` una costante rispetto al e e tempo, e quindi pu` essere portata fuori dallintegrale: o
Z
+

Y (t) = X

h()d = X

h() ej2f t d

f =0

= H(0)X

t R. c.v.d.

Cerchiamo un risultato analogo anche per la funzione di autocorrelazione. Teorema 12.3 Sia X(t) un processo casuale che viene posto allingresso di un sistema con risposta allimpulso h(t). Sia Y (t) luscita di tale sistema. Allora, si ha:
+

RY (t1 , t2 ) =

h(1 )h(2 )RX (t1 1 , t2 2 )dd 2 ,

(12.1.3)

dove RX (t1 , t2 ) ` lautocorrelazione di X(t). Se il processo X(t) ` WSS, allora si ha: e e RY ( ) = RX ( ) Rh ( ), con Rh ( ) funzione di autocorrelazione della risposta allimpulso. Prima di dimostrare il teorema, facciamo notare che la risposta allimpulso in generale ` un segnale e determinato, quindi Rh ` denita come autocorrelazione in senso determinato, non statistico. Si e faccia attenzione a non confondere i due concetti.
Dimostrazione Come prima iniziamo a dimostrare il caso generale espresso dalla (12.1.3). Si ha:
Z
+

(12.1.4)

RY (t1 , t2 ) = E {Y (t1 )Y (t2 )} = E


ZZ
+

h(1 )X(t1 1 )d1

h(2 )X(t2 2 )d2

=
Z Z +

h(1 )h(2 )E {X(t1 1 )X(t2 2 )} d1 d2 = h(1 )h(2 )RX (t1 1 , t2 2 )d1 d2 .

Lespressione dellautocorrelazione delluscita risulta notevolmente semplicata se il processo in ingresso ` e WSS. Ponendo = t1 t2 si ha:
ZZ
+

RY (t1 , t2 ) =
ZZ
+

h(1 )h(2 )E {X(t1 1 )X(t2 2 )} d1 d2 = h(1 )h(2 )RX (t1 1 t2 + 2 )d1 d2 =


Z Z +

= =

h(2 + )h(2 )RX ( )dd2 ,

avendo sostituito = 1 2 . Integrando ora in d2 si ottiene:


Z
+

RY (t1 , t1 ) =
Z +

RX ( ) [h() h()] d = RX ( )Rh ()d = RX ( ) Rh ( )

t1 R,

12.2 Rumore gaussiano bianco

97

come espresso dalla (12.1.4). Si nota in particolare che la dipendenza da t1 viene meno, quindi RY pu` o essere scritta come funzione della sola variabile . c.v.d.

In particolare, possiamo ora enunciare il seguente teorema: Teorema 12.4 Sia X(t) un processo casuale che viene posto allingresso di un sistema con risposta allimpulso h(t). Sia Y (t) luscita di tale sistema. Allora, Y (t) ` WSS se X(t) ` WSS. e e
Dimostrazione Dai teoremi precedenti, in particolare dalle espressioni (12.1.2) e (12.1.4), si nota che Y (t) risulta stazionario per la media e per lautocorrelazione, e quindi stazionario in senso lato. c.v.d.

Enunciamo inne questultimo teorema: Teorema 12.5 Sia X(t) un processo casuale che viene posto allingresso di un sistema con risposta allimpulso h(t). Sia Y (t) luscita di tale sistema. Allora, se X(t) ` gaussiano, anche Y (t) lo `. e e Corollario 12.5.1 Se X(t) ` SSS, anche Y (t) lo `. e e

12.2

Rumore gaussiano bianco

Si indica con N (t) un particolare processo casuale, noto come rumore gaussiano bianco. Esso ha densit` di probabilit` gaussiana, media nulla e funzione di autocorrelazione cos` denita: a a RN ( ) = N0 ( ). 2

La particolarit` del rumore bianco viene proprio da questa denizione. Si tratta infatti di un a processo che ` correlato a se stesso soltanto quando = 0; se invece lo si trasla anche di un e intervallo innitesimo, esso perde ogni correlazione, cio` ` discontinuo in ogni punto. Per tali e e caratteristiche esso viene usato per modellizzare il rumore nei circuiti elettrici. Vedremo pi` avanti u unaltra importante propriet` di tale rumore. a

12.3

Combinazione di processi casuali

La combinazione di variabili aleatorie gode di alcune interessanti propriet`. In particolare, se si a denisce = +, si ha che la densit` di probabilit` f (x) ` denita come il prodotto di convoluzione a a e tra le due densit` . a La relazione tra gli addendi e la combinazione risulta ancora pi` stretta nel caso le variabili coinvolte u abbiano una distribuzione gaussiana. Se sia sia sono infatti gaussiane, anche lo `, e questo e vero per una qualsiasi combinazione lineare di un numero nito di variabili gaussiane. Si hanno le seguenti relazioni:
N

=
n=1 N

a n n ,
N

=
n=1

an n

2 = n=1

2 an n .

Se due variabili sono statisticamente indipendenti, allora il loro coeciente di correlazione ` nullo; e limplicazione inversa ` vera solo se le due variabili sono anche gaussiane. e Vogliamo vedere se esistano simili relazioni anche per i processi casuali. Consideriamo due processi X1 (t) e X2 (t) statisticamente indipendenti di cui sono note la media e lautocorrelazione (che,

98

Processi casuali ltrati

essendo i due processi del tutto generici, sono rispettivamente funzioni di una e di due varibili), e deniamo un processo Y (t) = X1 (t) + X2 (t). Avremo: Y (t) = E {X1 (t) + X2 (t)} = X1 (t) + X2 (t), come facilissimo vedere. Inoltre, RY (t1 , t2 ) = E {(X1 (t1 ) + X2 (t1 )) (X1 (t2 ) + X2 (t2 ))} = = E {X1 (t1 )X1 (t2 )} + E {X1 (t1 )X2 (t2 )} + E {X2 (t1 )X1 (t2 )} + E {X2 (t1 )X2 (t2 )} = = RX1 (t1 , t2 ) + RX2 (t1 , t2 ) + X1 (t1 )X2 (t2 ) + X1 (t2 ) + X2 (t2 ).

Capitolo 13

Caratterizzazione energetica di processi casuali


Come nel caso dei segnali determinati, dato un processo X(t) stazionario in senso lato si denisce la densit` spettrale di potenza SX (f ) come trasformata di Fourier della funzione di autocorrea lazione: SX (f ) = F {RX ( )} . Notiamo che tale denizione ` applicabile solo ai processi WSS, altrimenti lautocorrelazione sarebbe e una funzione di due variabili. La propriet` principale dello spettro di potenza la seguente: a RX (0) = E X 2 (t) = F 1 {SX (f )}
+ f =0

SX (f )df ;

per questo motivo esso viene anche chiamato spettro del valor quadratico medio, dato che ne rappresenta appunto una distribuzione in frequenza. Si osservi che ancora una volta si instaura un parallelismo tra le denizioni per i segnali determinati e quelle per i segnali casuali. Nel primo caso, per`, lintegrale dello spettro di potenza era esattamente o lenergia del segnale, e non chiaramente un valore atteso.

13.1

Spettro di energia di processi ltrati

Teorema 13.1 Sia X(t) un processo casuale WSS con autocorrelazione RX ( ) e densit` spettrale a di potenza SX (f ). Sia Y (t) il processo che si ottiene in uscita da un sistema LTI con funzione di trasferimento H(f ) al cui ingresso si ` posto X(t). Allora, vale la seguente relazione: e SY (f ) = SX (f ) |H(f )| .
Dimostrazione Ricordando la relazione (12.1.4), si ottiene: SY (f ) = F {RY ( )} = F {RX ( ) Rh ( )} = F {RX ( )} F {Rh ( )} = = SX (f ) |H(f )|2 . c.v.d.
2

Esempio Consideriamo un processo X(t) WSS che viene fatto passare attraverso un sistema LTI con funzione di trasferimento H(f ) = p2B (f f0 ). Se chiamiamo Y (t) il processo che otteniamo alluscita del sistema (lasciamo allo studente il compito di vericare che si tratta eettivamente di un processo) avremo: SY (f ) = SX (f )p2B (f f0 ).

100

Caratterizzazione energetica di processi casuali

Calcoliamo ora il valor quadratico medio di Y (t): E Y (t)2 =


+ f0 +B

SY (f )df =
f0 B

SX (f )df .

Il valor quadratico medio deve per` essere sempre positivo; possiamo scrivere: o
f0 +B

SX (f )df 2BSX (f0 )


f0 B

per B 0;

quindi: SX (f ) 0 in generale.
Esercizio 45 Un processo casuale X(t), a media nulla e stazionario in senso lato, ha una funzione di 1 autocorrelazione RX ( ) = e . Tale processo passa attraverso un ltro passabasso ideale, la cui funzione di trasferimento vale 1 per |f | < B e zero altrove. Sia Y (t) il processo in uscita dal ltro. Si valuti la 2 varianza Y di Y (t). Soluzione Per risolvere lesercizio ` suciente ricordare le caratteristiche dei processi R e casuali che vengono prodotti + 2 dai sistemi lineari tempo-invarianti. In particolare, si ha Y = RY (0) = SY (f )df , dove SY (f ) = 2 F {RY ( )} = SX (f ) |H(f )| ` la densit` spettrale del valor quadratico medio. Si ricava: e a n o 2 2 2 SY (f ) = SX (f )p2B (f ) = F e p2B (f ) = e f p2B (f );
2 Y =

2 2

p2B (f )df =

B B

2 2

df = erf (B).

13.2

Energia e potenza di processi casuali WSS


+

Denizione 13.1 Si denisce energia di una realizzazione 0 del processo casuale X(t)il seguente integrale: E {X(t; 0 )} =

|X(t; 0 )| dt.

Riettiamo un attimo sulle forme donda prodotte da un processo casuale. Se tutte le realizzazioni di un processo andassero a zero allinnito, la varianza sarebbe nulla. Questo caso, che pure dovrebbe essere studiato in una trattazione analitica del problema, ` per` privo di interesse pratico; quindi, e o almeno nei casi con cui ci troveremo a che fare, lintegrale che abbiamo scritto non converger`, a cio` le realizzazioni di un processo casuale hanno energia innita. Consideriamo allora una classe e particolare di questi segnali, cio` quelli a potenza media nita. Si pongono le seguenti denizioni, e analoghe a quelle per segnali determinati:
+T /2

X ( ; 0 ) = lim e la sua trasformata di Fourier

T +

X(t; 0 )X (t ; 0 )dt,

T /2

GX (f ; 0 ) = F {X ( )} . Se fosse possibile conoscere questa funzione per ogni realizzazione, avremmo lo spettro di potenza GX (f ) del processo X(t). Si faccia attenzione a non confondere la terminologia usata per lautocorrelazione e lo spettro di potenza G, che sono in un certo senso delle medie temporali, con quella delle funzioni omonime R e S, che sono invece legate alle propriet` statistiche del processo. a

Capitolo 14

Ergodicit` a
Denizione 14.1 Un processo casuale si dice ergodico se tutte le medie statistiche coincidono con le medie temporali su qualsiasi realizzazione. Ad esempio, se consideriamo un processo X(t), possiamo porre le seguenti denizioni di media statistica: X (t) = E {X(t)} e di media temporale: < X(t; 0 ) >= lim questo processo sar` ergodico per la media se a X (t) =< X(t : 0 ) > 0 . 1 T T
+T /2

X(t; 0 )dt;
T /2

Analogamente, un processo ` ergodico per lautocorrelazione se vale: e RX ( ) = E {X(t)X(t )} =< X(t; 0 )X(t ; 0 ) >= X ( ; 0 ) 0 , .

Prima di proseguire, richiamiamo la denizione di covarianza per un processo WSS: kX ( ) = RX ( ) X (t)X (t ). I processi gaussiani sono una classe particolare di processi casuali anche riguardo allergodicit`. Vale a infatti il seguente teorema: Teorema 14.1 Sia X(t) un processo casuale gaussiano. Allora, se
+

|kX ( )| d < ,

X(t) ` ergodico per qualsiasi media. e La condizione posta dal teorema richiede che la covarianza tenda a zero verso innito, e ci` implica o che, se ` sucientemente grande, i campioni di X(t) prelevati in due istanti t e t + siano e completamente scorrelati. Per i processi gaussiani, ci` signica anche che i due campioni sono o statisticamente indipendenti. Come si pu` facilmente intuire, se un processo ` ergodico per lautocorrelazione valgono le seguenti o e relazioni: RX ( ) = X ( ; 0 ) 0 ,

102

Ergodicit` a

e applicando la trasformata di Fourier ad entrambi i membri: SX (f ) = GX (f ; 0 ) Allora si ha anche: 0 .

E X 2 (t) = RX (0) = X (0; 0 ) = P {X(t; 0 )} .

14.1

Rumore gaussiano bianco

Riprendiamo il processo N (t) di cui avevamo gi` parlato nel paragrafo 12.2. Ora possiamo dire a qualcosa di pi` su questo processo. u Ne ricordiamo brevemente le propriet` : si tratta di un processo gaussiano stazionario in senso a stretto (SSS), con media nulla e funzione di autocorrelazione RN ( ) = N0 /2 ( ). Si ottiene kN ( ) = RN ( ), il cui integrale su tutto lasse reale ` pari a N0 /2; quindi il rumore bianco ` e e 2 ergodico. Inoltre, la sua varianza ` innita: N = RN (0) = . e Studiamo ora questo processo con uno dei nuovi strumenti che abbiamo introdotto nelle ultime pagine. Il suo spettro di potenza ` la trasformata di Fourier dellautocorrelazione: e GN (f ) = SN (f ) = F {RN ( )} = N0 . 2

Lo spettro di potenza del rumore bianco ` piatto sullasse delle frequenze, cio` disturba allo e e stesso modo tutte le frequenze di un segnale a cui si sovrapponga. Ecco perch esso viene denito e bianco: infatti il colore bianco dato dalla somma di tutte le frequenze del campo visibile. I risultati sperimentali hanno dimostrato che il rumore generato da un circuito elettrico o elettronico ` eettivamente bianco no a frequenze di circa 100 GHz, e quindi il processo N (t) ` un modello e e sucientemente preciso entro questo ampio campo di applicazione. Si ` visto che a frequenze e superiori di 100 GHz il rumore reale decresce in maniera esponenziale, ma questo riguarda soltanto un ristretto campo di applicazioni (come, ad esempio, le trasmissioni in bra ottica).

14.2

Rumore bianco ltrato

Se poniamo il processo N (t) allingresso di un sistema LTI, in uscita otteniamo un processo Y (t) che ` anchesso SSS. In particolare si hanno le seguenti relazioni: e RY ( ) = per quanto riguarda la media si ha:
+ +

N0 N0 ( ) Rh ( ) = Rh ( ); 2 2

E {Y (t)} = E
+

N ()h(t )d

h(t )E {N ()} d = 0.

La condizione di ergodicit` ` ancora rispettata, dal momento che kY ( ) = RY ( ) e che lintegrale ae di Rh converge se il sistema ` stabile BIBO (condizione necessaria perch esso presenti in uscita un e e processo casuale).

Capitolo 15

Esercizi riassuntivi sui processi casuali ltrati


Esercizio 46 Sia data una coppia di processi gaussiani bianchi, N1 (t) ed N2 (t), statisticamente indipendenti e con densit` spettrale di potenza GN1 (f ) = GN2 (f ) = N0 /2. Da essi viene ricavato un a processo Y (t) come segue:   1 3 Y (t) = N1 (t) + N2 (t) h(t), 2 4 dove h(t) = et u(t). Calcolare media e varianza di Y (t). Soluzione La media di Y (t) ` nulla, come ` facile vericare: e e


E {Y (t)} = E

1 3 N1 (t) N2 (t) h(t) = 0 h(t) = 0, 2 4

essendo E {N1 (t)} = E {N2 (t)} = 0 in quanto processi bianchi, ed essendo gli operatori di valore atteso e di convoluzione entrambi lineari. Per quanto riguarda la varianza, sfruttiamo ancora le propriet` di linearit`; a a deniamo N (t) = 1 N1 (t) + 3 N2 (t) e calcoliamo: 2 4


RN ( ) = E


1 3 3 9 N1 (t)N1 (t ) + N1 (t)N2 (t ) + N2 (t)N1 (t ) + N2 (tN2 (t ) 4 8 8 16


   

=


3 3 1 N1 (t)N1 (t ) + E N1 (t)N2 (t ) + N2 (t)N1 (t ) + E =E 4 8 8 1 N0 9 N0 13 = ( ) + ( ) = N0 ( ), 4 2 16 2 32


h i
=0

9 N2 (t)N2 (t ) 16

essendo i due processi statisticamente indipendenti e a media nulla. Avremo quindi:


2 Y = RY (0) = RN ( ) Rh ( )

13 N0 32

Z
0

13 13 N0 Rh (0) = N0 32 32

|h(t)|2 dt =

e2t dt =

N0 13 , 2 32

che ` il risultato cercato. e Esercizio 47 Sia data una coppia di processi gaussiani stazionari statisticamente indipendenti, X1 (t) e X2 (t), con media nulla e densit` spettrale di potenza GX1 (f ) = GX2 (f ) = PB (f ). Da essi viene ricavato a un processo Y (t) come segue:   1 1 Y (t) = X1 (t) + X2 (t) h(t), 2 3

104

Esercizi riassuntivi sui processi casuali ltrati

dove H(f ) = F {h(t)} = PB/2 (f ). Calcolare media e varianza di Y (t). Soluzione Lesercizio ` analogo al precedente. La media ` nulla: e e


E {Y (t)} = E

1 1 X1 (t) + X2 (t) h(t) = 0 h(t) = 0; 2 3 1 1 X1 (t) + X2 (t): 2 3

per la varianza procediamo ancora come prima, denendo X(t) = RX ( ) =

1 1 RX1 ( ) + RX2 ( ); 4 9

inoltre, essendo i due processi statisticamente indipendenti e a media nulla, si ha: SY (f ) = GY (f ) = Quindi si ricava:
2 Y =

1 1 13 GX1 (f ) + GX2 (f ) = PB (f ). 4 9 36

SY (f )df =

GY (f )df =
Z
B/2

13 + 13 int PB (f ) |H(f )|2 df = 36 36

PB/2 (f )df =
B/2

13 B. 72

Esercizio 48 Un rumore gaussiano bianco, con densit` spettrale di potenza pari a N0 /2, stazionario a a media nulla N (t) ` posto allingresso di un sistema LTI con risposta allimpulso h1 (t). Il processo Y (t) che e si ottiene in uscita viene posto allingresso di un altro sistema LTI con risposta allimpulso h2 (t), producendo in uscita il processo Z(t). h1 (t) e h2 (t) sono due segnali rettangolari di durata T e ampiezza unitaria, non nulli nellintervallo [0, T ]. Calcolare il valore atteso E {Z(t)Y (t)}. Soluzione Il valore atteso richiesto non ` altro che la funzione di mutua correlazione dei due processi valutata in due e istanti di tempo coincidenti. Nel caso generale, chiamando h(t) = h1 (t) = h2 (t), si ha:
Z
+

RZY (t1 , t2 ) = E {Z(t1 )Y (t2 )} = E


Z
+

h()Y (t1 )dY (t2 )


Z
+

h()E {Y (t2 )Y (t1 )} d =

h()RY (t1 t2 )d =

h()RY ( )d = RY ( ) h( ),

avendo posto = t1 t2 . A noi interessa tale risultato per t1 = t2 = t, cio` per = 0. Quindi abbiamo: e


E {Z(t)Y (t)} = RZY (t, t) = RY (0) h(0) =




= ricordando che Rh (t) =


R +

N0 Rh (t) h(t) 2


t=0

N0 2

N0 (t) Rh (t) h(t) 2


+


t=0

Rh (t)h(t)dt;

h( )h( t)d = T T ri2T (t), si ottiene inne:


Z
0

E {Z(t)Y (t)} =
T

(t + T )dt =

N0 2 T . 2

Esercizio 49 Si consideri un processo casuale N (t) gaussiano bianco allingresso di un sistema LTI, la cui risposta allimpulso h(t) ` nulla al di fuori dellintervallo [0, T ] e vale 1 t/T nellintervallo [0, T ]. e Luscita del sistema, Y (t), viene campionata nei due istanti t1 e t2 . Le due variabili casuali che si ottengono vengono sommate producendo la variabile casuale Z = Y (t1 ) + 2Y (t2 ). La varianza di Z:

105

` minima se |t1 t2 | > T ; e ` minima se |t1 t2 | > T /2; e non dipende da t1 e t2 , perch Y (t) ` un processo WSS; e e ` minima de |t1 t2 | < T ; e ` minima se t1 = t2 . e Soluzione La risposta allimpulso del sistema considerato ` un segmento di retta che passa da 1 allistante t = 0 e e da 0 allistante t = T . Detto questo, ricordando che per i processi WSS ltrati si ha Y = n H(0), e considerando che il processo N (t) ` a media nulla, si ottiene Y = 0. Quindi si ha: e E {Z} = E {Y (t1 )} + 2E {Y (t2 )} = 0. La varianza richiesta vale:
2 Z = E Z 2 = E Y 2 (t1 ) + 4Y (t1 )Y (t2 ) + 4Y 2 (t2 ) = RY (0) + 4RY (t1 t2 ) + 4RY (0); 2 volendo trovare il minimo di Z , baster` trovare il minimo del solo termine RY (t1 t2 ), essendo RY (0) una a costante. Ponendo = t1 t2 si ha: N0 RY ( ) = Rh ( ); 2 utilizzando la denizione di autocorrelazione per i processi determinati si ottiene inne:

Rh ( ) =

h(t)h(t )dt.

Dato che la funzione h(t) ` sempre positiva, il minimo dellautocorrelazione vale zero e lo si ottiene quando e | | T ; quindi la varianza ` minima per |t1 t2 | T . e Esercizio 50 Un rumore gaussiano bianco N (t) con SN (f ) = N0 /2 ` posto in ingresso ad un sistema e LTI la cui risposta allimpulso ` h(t) = sin(t/T )p3T (t3T /2), dove px (y) vale 1 per |y| < x/2 e zero altrove. e Sia Y (t) luscita del sistema LTI. Quanto vale il coeciente di correlazione tra Y (t1 ) e Y (t2 ), con t1 = 5T e t2 = 9T ? Soluzione Come nellesercizio precedente, utilizziamo la propriet` dei processi WSS ltrati per scrivere RY ( ) = a N0 /2 Rh ( ). Lesercizio ci richiede di calcolare RY (t1 , t2 ), che ` pari a RY ( ) con = t1 t2 = 4T essendo e il processo stazionario in senso lato. Quindi si ha: RY (4T ) = avendo h(t) supporto lungo 3T . Esercizio 51 Si considerino un processo casuale X(t) stazionario del primo ordine con densit` di a probabilit` uniforme nellintervallo [1, 1], e la variabile casuale a
Z
2

N0 N0 Rh (4T ) = 2 2

h(t)h(t 4T )dt = 0

=
0

X()d.

Si indichi con f (y) la densit` di probabilit` di . Descrivere il supporto di f . a a Soluzione Il fatto che X(t) abbia densit` di probabilit` uniforme in [1, 1] signica che tutte le sue realizzazioni a a sono comprese in una striscia orizzontale di ampiezza 2 centrata sullasse dei tempi. Avremo quindi una R2 realizzazione massima che dar` M = 0 1d = 2 e una realizzazioni minima che generer` invece a a R2 m = 0 (1)d = 2. Senzaltro, lintegrale che denisce non potr` mai essere maggiore di 2 o minore a

106

Esercizi riassuntivi sui processi casuali ltrati

di 2; quindi f (y) ` nulla per |y| > 2. e Si noti che non possiamo comunque dire niente riguardo alla densit` di probabilit` di nellintervallo [2, 2]. a a

Esercizio 52 Sia dato il processo X(t) = Z(t), dove Z(t) ` un processo gaussiano, stazionario e in senso stretto, ergodico, a media nulla e varianza unitaria, e ` una variabile casuale discreta che pu` e o assumere i valori 1 ed 1 equiprobabilmente. Z(t) e sono statisticamente indipendenti. Il processo X(t) ` ergodico per media e valor quadratico medio? e Soluzione Innanzitutto esplicitiamo la densit` di probabilit` di : a a f (x) = 1 1 (x + 1) + (x 1). 2 2

A questo punto, per vericare lergodicit` di X(t), dobbiamo vedere se valgono per ogni 0 le seguenti a condizioni: E {X(t)} =< X(t; 0 ) > e E X 2 (t) =< X 2 (t; 0 ) > . Procediamo quindi a calcolare ciascuno di questi termini. E {X(t)} = E {Z(t)} = E {} E {Z(t)} = 0; E X 2 (t) = E 2 E Z 2 (t) = 1 1 = 1. La media temporale vale: < X(t; 0 ) >= lim
T

1 T

+T /2

X(t; 0 )dt;
T /2

consideriamo una precisa realizzazione X(t; 0 ) = aZ(t; 0 ), dove a ` una costante, un numero ssato che e pu` valere 1 o 1 ma che comunque ` scelto e quindi non pi` casuale: o e u < X(t; 0 ) >= a lim 1 T
Z
+T /2

Z(t; 0 )dt = a < Z(t; 0 ) >= aZ = 0


T /2

per ogni 0 , essendo Z(t) ergodico. Quindi X(t) ` ergodico per la media. Procediamo analogamente per la e varianza: < X 2 (t; 0 ) > =< a2 Z 2 (t; 0 ) >= a2 lim
T

1 T

+T /2 T /2

Z 2 (t; 0 )dt =

2 = a2 < Z 2 (t; 0 ) >= a2 Z = a2 = 1

per ogni 0 ; quindi X(t) ` ergodico anche per il valor quadratico medio. e Esercizio 54 Sia dato il processo X(t), gaussiano, stazionario in senso stretto, ergodico, a media nulla e con autocorrelazione RX ( ) = sin(t) . Tale processo viene posto in ingresso ad un sistema LTI con t risposta allimpulso h(t) = et u(t). Sia Y (t) il processo in uscita dal sistema LTI. Calcolare lo spettro di potenza di Y (t). Soluzione Dal momento che il processo X(t) ` denito come ergodico, si ha GX (f ) = SX (f ). Basta quindi ricordare e le propriet` dei processi WSS ltrati: a GY (f ) = GX (f ) |H(f )|2 = F {RX ( )} 1 1 + j2f
2

= p1 (f )

1 . 1 + 4 2 f 2

Esercizio 55 Sia dato il processo casuale X(t) gaussiano stazionario, con valore medio X = 1, 2 varianza X = 1, e densit` spettrale di potenza SX (f ) = Kp2B (f ) + A(f ), con K e A costanti reali a strettamente positive. Trovare, se possibile, una relazione tra A, B, e K.

107

Soluzione Lunica cosa che conosciamo del processo X(t) che ci permetta di porre una relazione ` il valor quadratico e medio: Z E X 2 (t) =
Z
+ + 2 SX (f )df = 2 + X = 2; X

otteniamo quindi:

SX (f )df = A + 2KB = 2.

Esercizio 56

Si consideri un processo casuale X(t) del tipo X(t) =


+ X n=

n r(t nTb ) + N (t),

dove le n sono variabili casuali indipendenti che assumono con uguale probabilit` i valori 1 e 0, r(t) ` un a e impulso rettangolare causale di durata Tb e ampiezza unitaria e N (t) ` un rumore gaussiano indipendente e dalle n con densit` spettrale di potenza SN (f ) pari a N0 /2 su una banda [B, B] e zero altrove. Calcolare a il valore quadratico medio di X(Tb /2). Soluzione Si ha:
 
2

E X

Tb 2



=E

8 < :

+ X n=

n r Tb
 

1 n 2



+N

Tb 2


9 ! 2 = ; 

(

=E


0 r

Tb 2

+N

Tb 2

2 )

= E {0 } + E
  

N2

Tb 2



+ 2E {0 } E

Tb 2

infatti, r Tb

1 n ` diverso da zero solo per n = 0, quando assume valore unitario. Il valor quadratico e 2 medio di n ` pari a 1/2; rimane da calcolare il valor quadratico medio di N (Tb /2): ricordando che e E Y 2 (t) =
Z
+

SY (f )df ,

si ottiene:


2

E N

Tb 2



+B B

N0 df = BN0 ; 2

la media di N (Tb /2) ` invece nulla. Si ha quindi: e


 

E X2

Tb 2



1 + N0 B. 2