You are on page 1of 10

Statistica aziendale

Bruno Bracalente, Massimo Cossignani, Anna Mulas


Copyright © 2009 – The McGraw-Hill Companies srl

Appendice 1. Le previsioni economiche

A1.1 Introduzione
La previsione del futuro da sempre costituisce materia di grande fascino e interesse. Nel momento
in cui deve prendere decisioni che condizioneranno la propria organizzazione nel futuro, ogni
operatore economico fonda le proprie scelte su una serie di previsioni, spesso fatte intuitivamente e,
a volte, anche inconsciamente.
Soprattutto in periodi o in contesti di grande incertezza, causata anche da una sempre maggiore
apertura e competitività nei mercati, dall’adeguatezza delle previsioni fatte dipende in buona misura
la prosperità, e talvolta la stessa sopravvivenza, dell’organizzazione o dell’azienda. Si pensi, ad
esempio, alla previsione per i mesi o gli anni futuri di variabili come il volume delle vendite di
un’azienda o la domanda aggregata di un prodotto o servizio, che sono variabili determinanti ai fini
della programmazione della produzione. Oppure alla previsione del prezzo di una materia prima che
entra come input nei prodotti dell’azienda, necessaria per definire una adeguata politica degli
approvvigionamenti e degli stoccaggi.
In questa appendice viene presentata una rassegna delle principali tecniche statistiche di previsione
utilizzate per fare previsioni per il futuro attraverso la conoscenza degli andamenti passati. Esse, va
subito chiarito, sono da considerare come integrative, e non certo alternative o peggio in
contrapposizione, rispetto alle previsioni che gli operatori economici generalmente fanno in modo
intuitivo, non formalizzato tecnicamente, sulla base della conoscenza profonda del contesto di
riferimento e in definitiva del loro “fiuto”. Entrambi gli approcci alla previsione – quello fondato
sulle tecniche statistiche e quello basato sulle capacità intuitive e la conoscenza del contesto da
parte dell’operatore – presentano vantaggi e limiti. Il secondo ha l’evidente limite di non riuscire né
a tener conto congiuntamente dell’enorme mole di dati disponibili, né a realizzare le previsioni con
la necessaria imparzialità. Il primo sconta invece il limite di non riuscire ad inglobare nei modelli di
previsione grandezze difficilmente quantificabili o di cui non sono disponibili misurazioni con la
necessaria continuità.
Il capitolo si articola nel modo seguente. Vengono inizialmente descritte le componenti di una serie
temporale (paragrafo A1.2) e i principali indicatori per la quantificazione degli errori di previsione
(paragrafo A1.3); vengono successivamente presentate le tecniche di previsione basate sulle medie
mobili (paragrafo A1.4) e sul livellamento esponenziale (paragrafo A1.5); infine viene richiamata la
previsione mediante modelli di regressione, sviluppata nel Capitolo 4 del volume.

A1.2 Le componenti di una serie temporale e la funzione di autocorrelazione


Una serie di dati può essere di tipo spaziale (cross-sectional), quando i singoli valori costituiscono
osservazioni raccolte nello stesso istante o relative allo stesso periodo di tempo, o di tipo temporale,
quando concerne osservazioni relative a successivi periodi di tempo. In questo secondo caso la serie
di dati si definisce serie storica o serie temporale (time series).
Quando la previsione è basata sulle osservazioni relative al passato, e si basa quindi su serie
storiche di dati quantitativi, uno degli elementi più importanti per la scelta della tecnica di
previsione è la presenza o meno delle diverse componenti che definiscono una serie temporale.
Queste componenti sono il trend, il ciclo e, nel caso di dati infra-annuali (ad esempio mensili o
trimestrali), la stagionalità.
Il trend è l’andamento di lungo periodo della serie, indica cioè la sua tendenza alla crescita o alla
decrescita in un lungo periodo di tempo. Quando le osservazioni della serie oscillano intorno ad un
livello costante si dice che siamo in assenza di un trend e la serie viene definita stazionaria in
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
Copyright © 2009 – The McGraw-Hill Companies srl

media. Al contrario, quando le osservazioni tendono a crescere o a decrescere nel lungo periodo
siamo in presenza di un trend positivo o negativo.
Quando le osservazioni tendono a crescere o a decrescere rispetto al trend con periodicità variabili
siamo invece in presenza anche di una componente ciclica, che si aggiunge al trend. La componente
ciclica in una serie è data dalle oscillazioni intorno al trend ed è spesso determinata dai cicli di
espansione e di contrazione economica.
Nel caso di dati infra-annuali, quando le osservazioni presentano oscillazioni caratterizzate da una
certa regolarità, anno dopo anno – ad esempio picchi e avvallamenti in corrispondenza dei
medesimi mesi o trimestri – siamo in presenza di una componente stagionale. La componente
stagionale è quindi determinata da un percorso di cambiamento nella serie che tende a ripetersi, più
o meno costantemente, anno dopo anno.
Un primo strumento statistico per esplorare l’andamento di una serie temporale è
l’autocorrelazione, definita come la correlazione tra una variabile e se stessa ritardata di uno o più
periodi di tempo.
L’autocorrelazione viene misurata mediante il coefficiente di correlazione lineare di Bravais-
Pearson (si veda il Capitolo 3, paragrafo 3.3.3), che assume la seguente espressione:
n

∑ (x t − x )( xt − k − x )
rk = t = k +1
n

∑ (x
t =1
t − x)2

dove
rk è il coefficiente di autocorrelazione relativo ad un ritardo di k periodi
xt è l’osservazione della serie al periodo t
xt −k è l’osservazione della serie al periodo t-k
x è la media aritmetica dei valori della serie.

All’aumentare del numero di periodi di ritardo il calcolo del numeratore avviene su un numero
sempre più ridotto di osservazioni. E’ inoltre facile verificare che si ha r0 = 1 .
L’autocorrelazione può quindi essere definita come una funzione discontinua r(k), chiamata
funzione di autocorrelazione, che assume valori diversi al variare del numero di periodi di ritardo.
Tale funzione può essere rappresentata graficamente mediante il correlogramma.
Attraverso l’analisi della funzione di autocorrelazione, ovvero del correlogramma, è possibile dare
risposta ad alcune domande che ci si deve porre quando si effettua l’analisi di una serie temporale.
In particolare, se la serie può essere considerata stazionaria in media o se, al contrario, la serie
presenta un trend, oppure se esiste una significativa componente stagionale.
Se la serie presenta un trend, si osserva un valore molto elevato sia del coefficiente di
autocorrelazione r(1), sia di quelli relativi a un certo numero di ritardi successivi, sebbene
decrescenti, prima di tendere gradualmente a zero. In una serie stazionaria, al contrario, i
coefficienti di autocorrelazione tendono a zero piuttosto rapidamente, generalmente dopo il secondo
o terzo ritardo.
Se una serie presenta una componente stagionale i coefficienti di autocorrelazione risulteranno
significativi per i ritardi pari alla frequenza di periodi nell’anno e a multipli di essa. Ad esempio,
per dati quadrimestrali risulteranno significativi i coefficienti ai ritardi 3, 6, 9 e cosi via; per dati
trimestrali risulteranno significativi i coefficienti di autocorrelazione ai ritardi 4, 8, 12 e cosi via;
per dati mensili risulteranno elevati r(12), r(24), r(36) e cosi via.
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
Copyright © 2009 – The McGraw-Hill Companies srl

Metterei qui qualche esempio di serie storica e di relativo correlogramma (con e senza trend, con e
senza stagionalità)
A1.3 Gli errori di previsione
La precisione di una previsione è misurabile a partire dai confronti tra i valori previsti e i valori che
si sono effettivamente realizzati per diversi periodi di tempo. Indicando con xt il valore di una serie
temporale al tempo t e con x̂t il corrispondente valore della serie al tempo t previsto in precedenza
(ad esempio, uno o più periodi precedenti), l’errore di previsione per il tempo t è dato da

et = xt − xˆ t

Un primo modo di sintetizzare tali errori di previsione, per definire una misura sintetica della bontà
di un metodo di previsione, consiste nel calcolare la media aritmetica dei loro valori assoluti
(MAD), nel modo seguente:
n

∑x t − xˆ t
MAD = t =1

Il MAD ha il vantaggio di essere facilmente interpretabile, essendo espresso nella stessa unità di
misura dei termini della serie.
Un altro metodo frequentemente utilizzato è quello basato sull’errore quadratico medio (MSE) cioè
sulla media aritmetica dei quadrati dei singoli errori di previsione:
n

∑ (x − xˆ t )
2
t
MSE = t =1

L’errore quadratico medio, enfatizzando il peso degli errori molto elevati, è preferibile, come
misura della bontà di una tecnica di previsione, quando ad essa è richiesta una certa costanza nel
tempo degli errori di previsione, piuttosto che, a parità di deviazione assoluta media, errori di entità
troppo variabile (ad esempio, generalmente prossimi a zero, ma occasionalmente molto elevati).
A volte, in particolare quando si tratta di confrontare una o più tecniche di previsione su diverse
serie temporali, è opportuno ricorrere a misure di errore espresse in termini relativi o percentuali
anziché assoluti. Una di queste misure è l’errore medio assoluto percentuale (MAPE), ottenuto
come media degli errori relativi, dati dal rapporto tra gli errori in valore assoluto e i corrispondenti
valori osservati, moltiplicata per cento:

n xt − xˆ t

t =1 xt
MAPE = 100
n

Per valutare se una determinata tecnica di previsione fornisce previsioni sistematicamente distorte o
se, al contrario, “funziona” in media, si può ricorrere all’errore percentuale medio (MPE), definito
analogamente al MAPE, ma con gli scarti tra valori osservati e previsti non in valore assoluto:
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
Copyright © 2009 – The McGraw-Hill Companies srl

n
(xt − xˆ t )
∑t =1 xt
MPE = 100
n

Se l’MPE risulterà prossimo a zero si potrà concludere che la tecnica fornisce previsioni non
distorte. Al contrario, qualora la tecnica conduca a sovrastime o sottostime sistematiche del valore
vero l’MPE risulterà, rispettivamente, largamente negativo o positivo.

A1.4 Medie mobili


Una tecnica di previsione molto semplice è quella basata sulle medie aritmetiche dei valori del
passato. L’ipotesi che si accetta è che le fluttuazioni della serie nei periodi passati sono dovute ad
effetti casuali.
Una prima possibilità consiste nel prevedere il valore futuro con la media aritmetica semplice di
tutti i valori disponibili nel passato. Disponendo dei valori osservati fino al periodo t, la previsione
per il periodo t+1 sarà:

1 t
xˆ t +1 = ∑ xt .
t i =1

Una volta che una nuova osservazione diviene disponibile si potrà fare una nuova previsione sul
periodo futuro utilizzando una osservazione in più.
Una obiezione all’utilizzo di tale tecnica consiste nel fatto che le osservazioni molto lontane nel
tempo potrebbero non avere più importanza per la nostra previsione. Si può allora decidere di
utilizzare sempre un numero costante di osservazioni passate: ogni volta che una nuova
osservazione diviene disponibile, la previsione viene fatta aggiungendo la nuova osservazione ma
eliminando dalla media la più datata. Questo approccio prende il nome di medie mobili. La
previsione per il periodo futuro con una media mobile di ordine k è data dalla seguente espressione:

xt + xt −1 + xt − 2 + ... + xt − k +1
xˆ t +1 =
k

Le previsioni basate sulle medie mobili non sono tuttavia appropriate nei casi di serie temporali che
presentano una significativa componente di trend o di stagionalità. Nel primo caso, infatti,
mediando le osservazioni passate si introduce una sottostima sistematica in presenza di trend
positivo e una sovrastima in presenza di trend negativo. Nel secondo caso, specialmente se si fa
coincidere k con il numero di periodi (e di osservazioni) presenti in un anno, la previsione viene
fatta eliminando o mediando gli effetti stagionali.
Un modo per poter effettuare previsioni su serie temporali che presentano un trend lineare è quello
di utilizzare il metodo delle doppie medie mobili. Tale metodo consiste nel calcolare prima le medie
mobili sui dati originari:

xt + xt −1 + xt − 2 + ... + xt − k +1
Mt =
k

e poi una seconda serie di medie mobili sulle prime:


Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
Copyright © 2009 – The McGraw-Hill Companies srl

M t + M t −1 + M t − 2 + ... + M t − k +1
M t′ =
k

Successivamente, vengono calcolati due coefficienti at e bt che definiscono, rispettivamente, il


punto di partenza per le previsioni e la pendenza del trend lineare:

at = M t + ( M t − M t′ ) = 2M t − M t′
2
bt = ( M t − M t′ )
k −1

La previsione effettuata al tempo t valida per il p-esimo periodo futuro è infine data da:

xˆ t + p = at + bt p

Utilizzando la tecnica delle doppie medie mobili risulta anche possibile spingere la previsione oltre
il primo periodo e prevedere il valore della serie anche per diversi periodi in avanti.

A1.5 Livellamento esponenziale


La critica principale che può essere fatta ai metodi di previsione basati sulle medie è che alle
osservazioni passate utilizzate per il calcole della media – siano esse tutte quelle disponibili come
nel caso della media semplice o, più frequentemente, solo le ultime k, come nel caso delle medie
mobili – viene data la stessa importanza. Al contrario, sembra ragionevole assegnare maggiore
importanza alle osservazioni più recenti e una importanza via via decrescente man mano che si
utilizzano osservazioni più lontane nel tempo. Questa assunzione conduce ai metodi di livellamento
esponenziale, che sono principalmente di due tipi: il livellamento esponenziale semplice e i metodi
di Holt e Winters.

Livellamento esponenziale semplice


Il metodo del livellamento esponenziale semplice fornisce una previsione basata su una media di
tutte le osservazioni passate ponderate assegnando pesi maggiori alle osservazioni più recenti e
minori a quelle meno recenti, con pesi decrescenti in modo esponenziale. All’osservazione più
recente si assegna il peso α compreso tra 0 e 1, a quella precedente il peso α(1-α), alla terzultima il
peso α(1-α)2 e cosi via. In simboli:

xˆ t +1 = αxt + α (1 − α ) xt −1 + α (1 − α ) 2 xt − 2 + α (1 − α ) 3 xt −3 + ...

Poiché per x̂t la medesima formula è

xˆ t = αxt −1 + α (1 − α ) xt − 2 + α (1 − α ) 2 xt −3 + ..

la previsione per il periodo t+1 può anche essere scritta nel modo seguente (formulazione
ricorsiva):

xˆ t +1 = αxt + (1 − α ) xˆ t (A1)
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
Copyright © 2009 – The McGraw-Hill Companies srl

Sviluppando la (A1) si ottiene:

xˆ t +1 = αxt + xˆ t − αxˆ t
xˆ t +1 = xˆ t + α ( xt − xˆ t ) .

La nuova previsione può dunque essere vista anche come la vecchia previsione ( x̂t ) più alfa volte
l’errore che si è verificato nella vecchia previsione.
Come detto, α è un coefficiente compreso tra zero e uno e determina il ritmo di decremento dei
pesi. Più precisamente se si fissa un valore di α prossimo a zero si assegna un peso modesto alle
osservazioni recenti ma si adotta un ritmo di decremento degli stessi molto basso, il che in sostanza
significa correggere di poco le previsioni basate sulle medie semplici. Al contrario, se si adottano
valori di α più elevati si assegna un peso più elevato all’ultima osservazione e a quelle
immediatamente precedenti, ma si adotta un ritmo di decremento anch’esso elevato, con la
conseguenza che le osservazioni lontane anche solo di pochi periodi avranno assegnato un peso
prossimo a zero.
Nella tabella che segue vengono riportati alcuni esempi di calcolo dei pesi per diversi valori di α :

α=0,1 α=0,5 α=0,8


Periodo calcolo peso calcolo peso calcolo peso
t 0,100 0,500 0,8000
t-1 0,9x0,1 0,090 0,5x0,5 0,250 0,8x0,2 0,1600
t-2 0,9x0,9x0,1 0,081 0,5x0,5x0,5 0,125 0,8x0,8x0,2 0,0320
t-3 0,9x0,9x0,9x0,1 0,0729 0,5x0,5x0,5x0,5 0,0625 0,8x0,8x0,8x0,2 0,0064
t-4 0,9x0,9x0,9x0,9x0,1 0,0656 0,5x0,5x0,5x0,5x0,5 0,0313 0,8x0,8x0,8x0,8x0,2 0,0013
Altri 0,5900 0,0313 0,0003

La scelta del valore di α è dunque il problema principale che si pone quando si adottano questi
metodi di previsione. Un modo per determinare il miglior valore del parametro α consiste
nell’adottare una procedura iterativa che minimizza l’errore quadratico medio (MSE) delle
previsioni fatte per i periodi precedenti, per i quali si conoscono anche i valori veri. Si tratta cioè di
calcolare le previsioni per i periodi passati adottando diversi valori di α (0,1 0,2 0,3 … 0,9) e poi
l’errore quadratico medio tra valori predetti e valori reali per ciascun valore di α. Il valore di α che
determina il minor errore quadratico medio sulle previsioni fatte per i periodi precedenti viene
scelto per effettuare le previsioni per i periodi futuri. Per utilizzare questo metodo resta il problema
di determinare il primo valore predetto, che in genere viene posto uguale al primo valore reale o alla
media tra i primi tre o quattro valori reali della serie.

I metodi di Holt e Winters


Il metodo del livellamento esponenziale semplice presuppone che il livello della serie possa
cambiare in modo occasionale e mal si adatta ad effettuare previsioni in presenza di un trend, sia
esso positivo o negativo. Il problema è analogo a quello evidenziato per le medie semplici e le
medie mobili: basando la previsione su una media, sia pure ponderata, di osservazioni passate, in
presenza di un trend crescente o decrescente si ottengono, rispettivamente, sistematiche sottostime o
sovrastime.
In questi casi, per ovviare al problema, si può utilizzare il metodo di livellamento esponenziale
proposto da Holt (1957) che prevede due parametri.
Le tre equazioni che compongono la formulazione matematica del metodo di Holt sono:
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
Copyright © 2009 – The McGraw-Hill Companies srl

1. le stime, livellate esponenzialmente, dei valori della serie

Lt = αxt + (1 − α )( Lt −1 + Tt −1 ) ; A2

2. le stime, livellate esponenzialmente, dei valori del trend

Tt = β ( Lt − Lt −1 ) + (1 − β )Tt −1 ; A3

3. la previsione, fatta al tempo t, per il p-esimo periodo futuro

xˆ t + p = Lt + pTt . A4

Nelle tre equazioni precedenti sono denotati con:


Lt il livello, appiattito esponenzialmente, della serie al tempo t
α un parametro che determina il ritmo di decremento dei pesi per la stima dei livelli (0 ≤ α ≤ 1)
xt il valore effettivo della serie al tempo t
β un parametro che determina il ritmo di decremento dei pesi per la stima del trend (0 ≤ β ≤ 1)
Tt la stima del trend al tempo t
x̂t + p la previsione fatta al tempo t e valida per il p-esimo periodo futuro

Il secondo parametro introdotto, β, determina il ritmo di appiattimento per stimare il valore del
trend da applicare alla previsione, inteso come differenza tra un livello e quello al periodo
precedente. Anche il trend, infatti, risulta calcolato come una media ponderata del diversi valori di
trend evidenziati nei periodi passati.
L’equazione A3 è simile alla A2 con la differenza che il livellamento esponenziale viene effettuato
sul trend piuttosto che sul livello della serie. Adottare valori di β prossimi allo zero significa
assegnare un peso basso al trend dell’ultimo periodo noto ma un peso che decresce molto
lentamente man mano che si considerano i trend più lontani nel tempo. Adottare valori di β più
elevati significa assegnare pesi più elevati ai valori del trend dell’ultimo periodo ma molto
decrescenti per valori del trend più lontani.
In modo analogo al metodo del livellamento esponenziale semplice il vero problema sta nella scelta
dei valori da adottare per i parametri α e β. Se si vuole evitare una scelta soggettiva, un criterio
analitico di scelta di α e β può essere quello di individuare, per mezzo di una procedura iterativa, i
valori dei due parametri che consentono di minimizzare l’errore quadratico medio delle previsioni
fatte per i periodi passati.
Per avviare queste procedure di ottimizzazione è tuttavia necessario impostare un valore iniziale sia
per il livello che per il trend. Si può porre la stima iniziale del livello pari al valore della prima
osservazione della serie e la stima iniziale del trend pari a zero. Alternativamente si può considerare
la media delle prime tre o quattro osservazioni come stima iniziale del livello e la pendenza della
retta interpolante queste prime osservazioni come stima iniziale del trend.

Nel caso di una serie che presenta una evidente componente stagionale il modello di Holt non
appare particolarmente indicato per effettuare delle buone previsioni. Infatti, incorporando nella
previsione solo una componente di trend lineare, tende a fornire previsioni con delle sottostime o
sovrastime sistematiche per i periodi futuri, rispettivamente, ad alta o bassa stagionalità.
In presenza di componente stagionale può essere utilizzato un modello di previsione proposto da
Winters (1960). Questo consiste in una estensione del modello di Holt mediante l’introduzione di
una equazione utilizzata per stimare la stagionalità, sempre come media ponderata con pesi
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
Copyright © 2009 – The McGraw-Hill Companies srl

decrescenti nel tempo delle stagionalità osservate nei periodi passati. Nel modello di Winters viene
dunque introdotto un terzo parametro, γ , che determina il ritmo di decremento dei pesi nella stima
della componente stagionale.
Le quattro equazioni del modello di Winters sono le seguenti:

1. le stime, livellate esponenzialmente, dei valori della serie

xt
Lt = α + (1 − α )( Lt −1 + Tt −1 ) A5
S t −s

2. le stime, livellate esponenzialmente, dei valori del trend

Tt = β ( Lt − Lt −1 ) + (1 − β )Tt −1 A6

3. le stime, livellate esponenzialmente, della componente stagionale

xt
St = γ + (1 − γ ) S t − s A7
Lt

4. la previsione, fatta al tempo t, per il p-esimo periodo futuro

xˆ t + p = ( Lt + pTt ) S t − s + p A8

Oltre alla notazione precedente, in queste equazioni si ha:


γ il parametro che determina il ritmo di decremento dei pesi per la stima della stagionalità (0≤ γ ≤1)
St la stima della componente stagionale al tempo t
s il numero di periodi della stagionalità (ad esempio s=12 per dati mensili, s=4 per dati trimestrali,
s=3 per dati quadrimestrali)

Come si vede, nella A5, che aggiorna i livelli appiattiti della serie, il valore osservato xt viene diviso
per St-s, che è il fattore correttivo per la stagionalità, rimuovendo in tal modo tale componente dalla
serie. La stagionalità viene reintrodotta nella equazione A8 relativa alla previsione, dove al livello
attuale (del tempo t) viene applicato il trend lineare e il tutto viene poi corretto in modo
moltiplicativo per la componente stagionale stimata per il p-esimo periodo futuro. St sarà dunque un
fattore moltiplicativo maggiore di uno nei periodi identificati come ad alta stagionalità, mentre
risulterà minore di uno nei periodi a bassa stagionalità.
Analogamente a quanto detto per il modello di Holt, i parametri α , β e γ possono essere scelti in
modo soggettivo, magari desunti da altre serie ad andamento simile, o in modo analitico scegliendo
i tre parametri in modo che minimizzino l’errore quadratico medio per le previsioni fatte per i
periodi passati.
Anche per il modello di Winter, per avviare il calcolo dei valori livellati Lt secondo la A5,
disponendo del primo valore osservato x1, devono essere impostati i valori di L1, T1 e S1. Una prima
possibilità consiste nell’ipotizzare L1 = x1, T1 = 0 e S1 = 1. Una seconda possibilità consiste nel porre
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
Copyright © 2009 – The McGraw-Hill Companies srl

L1 uguale alla media delle prime s osservazioni, T1 uguale alla pendenza della retta interpolante le
medesime prime s osservazioni e S1 pari al rapporto tra x1 e Ls.

A1.6 La previsione mediante modelli di regressione


Questo paragrafo o va soppresso, perché l’argomento è già trattato nel capitolo 4, oppure va
riformulato per spiegare (meglio) solo la prima parte: perché l’autocorrelazione è buona per la
previsione.

L’utilizzo di modelli di regressione rappresenta un'altra tecnica molto utilizzata per fini previstivi.
Rimandando al capitolo 4 del volume per tutti gli aspetti teorici relativi alla regressione, in questa
sede si intende solo richiamare i principali problemi che possono insorgere utilizzando il metodo dei
minimi quadrati per stimare modelli di regressione con dati temporali a fini previsionali.
Il problema principale è senza dubbio quello della autocorrelazione esistente normalmente nelle
serie temporali, ovvero la correlazione tra successive osservazioni nel tempo dello stesso fenomeno.
A questo riguardo si deve osservare che se l’autocorrelazione rappresenta un problema quando si
deve stimare un modello di regressione, poiché tende a falsare i test di significatività dei parametri
del modello, la sua presenza non è così dannosa ai fini della precisione della previsione. Si pensi, ad
esempio, di dover prevedere il prezzo di un bene in un periodo futuro; la presenza di
autocorrelazione suggerisce la possibilità di utilizzare i valori osservati nel passato per prevedere il
futuro.
Quando invece ci si accinge a stimare un modello di regressione la presenza di autocorrelazione,
violando una delle ipotesi del metodo dei minimi quadrati, crea i seguenti problemi:
• l’errore standard delle stime in genere sottostima la variabilità del termine di errore;
• l’inferenza basata sui test T e F non risulta formalmente applicabile;
• gli errori standard dei coefficienti di regressione sottostimano la variabilità dei parametri del
modello e può essere rilevata una regressione spuria.
La presenza di questi problemi può facilmente essere rilevata mediante il test Durbin-Watson sui
residui del modello.
Una volta rilevati problemi nella distribuzione dei residui, la prima cosa da fare è cercare di capire
la causa che può averli generati. Molto frequentemente le cause stanno in una errata specificazione
del modello come aver omesso una variabile o aver ipotizzato una errata forma funzionale.
Un primo approccio consiste dunque nel provare ad inserire nel modello una o più nuove variabili.
Un approccio alternativo per rimuovere questi problemi consiste nel differenziare le variabili, cioè
nel provare a modellare i cambiamenti piuttosto che i livelli. Un ulteriore approccio metodologico
consiste non nel rimuovere il problema dell’autocorrelazione, bensì nel cercare di modellarlo cioè di
includerlo nel modello. I modelli autoregressivi consistono appunto nell’inserire tra le variabili
indipendenti la variabile dipendente ritardata di uno o più periodi.
Un altro problema che spesso si deve affrontare quando ci si accinge a stimare un modello di
regressione su dati temporali è quello della variabilità che tende a crescere con il passare del tempo,
specie quando si è in presenza di un trend crescente. La presenza di questo problema, cioè di una
variabilità non costante nel tempo, viene definito con il termine eteroschedasticità. Quando si
effettua la stima di un modello di regressione la presenza di questo problema si scarica sui residui
del modello. Se la variabilità dei residui del modello nei periodi più recenti risulta superiore rispetto
a quella osservata per i periodi più lontani e la deviazione standard delle stime viene utilizzata per
definire le bande di confidenza delle previsioni per i periodi futuri, queste bande risulteranno troppo
strette rispetto al livello di confidenza prefissato. A volte il problema della eteroschedasticità può
essere eliminato effettuando delle semplici trasformazioni di variabili come la trasformazione
doppio logaritmica ricorrendo ai cosiddetti modelli log-lineari. In altri casi cercando di eliminare il
Statistica aziendale
Bruno Bracalente, Massimo Cossignani, Anna Mulas
Copyright © 2009 – The McGraw-Hill Companies srl

trend dalle serie si riesce anche ad ottenere serie temporali con varianza costante; ad esempio nel
caso di serie espresse in valori monetari a prezzi correnti, deflazionando la serie, cioè esprimendo i
termini della serie a prezzi costanti si riesce spesso a ridurre o eliminare il problema della varianza
crescente.
Quando si è in presenza di serie temporali che presentano anche una componente stagionale una
possibile soluzione per tener conto anche della stagionalità consiste nell’inserire tra le variabili
indipendenti del modello anche delle dummy stagionali, pari al numero delle periodi stagionali
meno uno (quindi due dummy per dati quadrimestrali, tre per dati trimestrali, undici per dati mensili
e cosi via). Le stime dei parametri corrispondenti saranno appunto le stime dell’effetto della
stagione corrispondente rispetto al periodo stagionale non inserito nel modello. Evidentemente, per
non perdere troppi gradi di libertà, occorre disporre di un numero sufficiente di osservazioni per
modellare anche la stagionalità.

You might also like