Capitolo 1 
VENTICINQUE ANNI DI RICERCA SULLE SERIE STORICHE 
- Lo stato dell’arte - 
In questo primo capitolo si focalizza lo stato attuale della ricerca in merito alla 
problematica dell’analisi e delle previsioni nell’ambito delle serie storiche. In 
particolare si concentra l’attenzione sui metodi basati sullo smorzamento esponenziale 
(Exponential Smoothing) e sui modelli ARIMA. 
 
1.1 – Smorzamento Esponenziale 
 
1.1.1 – Introduzione e cenni storici 
Venticinque anni fa le metodologie di smorzamento esponenziale erano considerate una 
collezione di tecniche ad hoc per l’estrapolazione di vari tipi di dati da serie univariate. 
Benchè questi modelli siano stati largamente utilizzati nel campo commerciale e 
industriale, hanno ricevuto scarse attenzioni dagli statistici e non sono stati 
implementati a dovere da questi ultimi. 
Tali metodi nascono fra gli anni ’50 e ’60 grazie al lavoro di Brown (1959,1963) , Holt 
(1957) e Winters (1960). Altri studi sono stati quelli svolti da Pegels (1969) e Muth 
(1960). Il primo svolse una semplice ma utile classificazione dei principali pattern di 
trend e stagionalità a seconda che si abbia a che fare con casi lineari (modelli additivi) o 
non lineari (modelli moltiplicativi) mentre Muth fu il primo a suggerire agli statistici il 
metodo dello Smorzamento Esponenziale Semplice (SES-Simple Exponential Smoothing) 
dimostrando come questo generi le migliori previsioni per una serie ad andamento 
casuale (Random walk). 
Ulteriori passi in avanti per l’inserimento dei metodi SES nell’ottica statistica si devono 
a Box e Jenkins (1970), Roberts (1982), Abraham e Ledolter (1983, 1986) i quali 
mostrarono come molte previsioni realizzate con gli smorzamenti esponenziali nascano 
da casi speciali dei modelli ARIMA. Tuttavia questi risultati non sono sempre stati 
estendibili a casi di smorzamento esponenziale non lineari. 
 6
La maggior parte del lavoro svolto negli anni ’80 ha coinvolto: lo studio delle proprietà 
empiriche di questi metodi, proposte di nuovi parametri di stima, inizializzazione e 
valutazione delle previsioni. 
In materia di smorzamenti esponenziali i metodi più noti sono: 
- SES (senza trend e stagionalità) 
- Metodo di Holt lineare (con componente di trend additiva priva di stagionalità) 
- Metodo di Holt-Winters additivo (con trend e stagionalità additivi) 
- Metodo i Holt-Winters moltiplicativo (trend additivo e stagionalità moltiplicativa) 
 
1.1.2 – La validità della previsione 
Le buone performance di previsione dei metodi precedentemente citati sono state 
valutate da importanti autori. 
Satchell e Timmermann (1995) e Chatfield et al. (2001) hanno dimostrato come il SES sia 
ottimale quando si ha a disposizione un ampio range di dati. In un breve studio 
simulativo , Hyndman (2001) mostrò che il SES si comporta meglio di un modello ARIMA 
del primo ordine soprattutto quando i dati sono distribuiti non normali anche perché non 
è soggetto a problemi di modellizzazione e stima. 
 
1.1.3 – La finestra temporale di previsione 
Una delle critiche che hanno accompagnato i modelli SES nell’arco di questi 25 anni 
riguarda il fatto che non vi sia mai stato alcun modo per definire intervalli previsionali. 
Il primo approccio analitico è stato quello di ritenere che la serie storica sia generata da 
funzioni di tipo deterministico con l’aggiunta di una componente White noise o Rumore 
bianco (nella stesura di questa tesi si approfondirà meglio questo concetto) (Brown, 
1963; Gardner, 1985; McKenzie, 1986; Sweet, 1985). Se così fosse allora sarebbe stato 
conveniente l’utilizzo di metodi di regressione piuttosto che i modelli a smorzamento 
esponenziale ; così , Newbold e Bos (1989) criticarono con forza tutti gli approcci basati 
su queste ipotesi. 
Altri autori invece hanno cercato di trovare intervalli di previsione attraverso 
l’equivalenza tra metodi a lisciamento esponenziale e modelli statistici. 
Johnston e Harrison (1986) trovarono delle discrepanze nelle previsioni fatte con il SES e 
il metodo di Holt con l’introduzione di molte fonti di errore. Yar e Chatfield (1990) 
ottennero intervalli di previsione per il metodo di Holt-Winters nella versione additiva 
derivando i modelli ARIMA equivalenti.  
 7
1.2 – Modelli ARIMA 
 
1.2.1 – Introduzione e cenni storici 
I primi tentativi di studio delle serie temporali sono stati generalmente caratterizzati 
dall’idea di un mondo “deterministico”. E’ stato il grande contributo di Yule (1927) a 
lanciare la nozione di “stocasticità” e quindi a presupporre che ogni serie storica possa 
essere considerata come la realizzazione di un processo stocastico. Da allora, sulla base 
di questa idea, sono stati sviluppati metodi alternativi a quelli basati sullo smorzamento 
esponenziale. 
Studiosi come Slutsky, Walker, Yaglom e Yule formularono prima di tutto il concetto di 
modello autoregressivo (AR) e di modello a media mobile (MA). Da allora gran parte 
delle letteratura si è dedicata a questa problematica. Di grande interesse la 
pubblicazione Time series analysis: Forecasting and control del 1970  ad opera di Box e 
Jenkins che supporta questa linea di studio e ha permesso agli autori di presentare la 
loro famosa procedura di identificazione, stima e verifica dell’appropriatezza di dato un 
modello. 
Anche il libro di questi famosi autori ha avuto un enorme impatto nella teoria e nella 
pratica delle analisi e previsioni relative alle serie storiche. 
Con l’avvento dei Personal Computer, che consentono una maggiore facilità nella 
gestione delle informazioni, è pubblicizzato l’uso dei modelli autoregressivi integrati a 
media mobile (Autoregressive integrated moving average ARIMA) in molti settori 
scientifici. Va sottolineato che spesso gli studi fatti su questi modelli sono stati di natura 
empirica utilizzando uno o più metodi di riferimento per fare confronti. 
Il successo della metodologia introdotta da Box e Jenkins è fondato sul fatto che i vari 
modelli possono, tra loro, simulare in modo adeguato il comportamento di diversi tipi di 
serie, senza richiedere un numero eccessivo di parametri. 
Da allora molte tecniche e metodologie sono state proposte ad aggiungere un rigore 
matematico per il processo di ricerca di un modello ARMA o ARIMA, uno dei più famosi è 
il criterio di Akaike (AIC). Questi criteri introducono un termine di “penalità” in funzione 
dell’errore di previsione e consentono quindi di confrontare più modelli al fine di 
scegliere quello migliore. 
E’ importante sapere come esistano metodi (cf. Box et al.1994) per stimare i parametri 
di un modello ARMA, questi, si dice che siano “equivalenti asintoticamente”  nel senso 
che tendono a fornire delle stime con la stessa distribuzione pur essendoci grandi 
 8
differenze nelle loro proprietà. In uno studio comparativo effettuato, con diversi 
pacchetti software, da Newbold, Agiakloglou e Miller (1994) è stato dimostrato che 
queste differenze sono abbastanza evidenti e di conseguenza influiscono parecchio sulla 
previsione. Per questo motivo i suddetti autori raccomandano l’uso del criterio di 
massima verosimiglianza (Maximum Likehood). L’effetto che un certo parametro di 
stima può avere sull’errore di previsione è stato notato e segnalato anche da Zellner 
(1971), il quale attraverso un analisi Bayesiana ha ottenuto una serie di previsioni 
trattando i parametri di un modello ARMA come variabili casuali. 
 
1.2.2 – Stagionalità 
L’approccio più vecchio alla gestione della stagionalità nelle serie storiche è la 
procedura di destagionalizzazione X-11. Nel corso degli ultimi 25 anni il metodo X-11 e 
le sue varianti (compresa la sua versione più recente X-12-ARIMA , Findley, Monsell,  
Campana, Otto, & Chen, 1998) sono state studiate intensamente. 
Una linea di ricerca ha preso in considerazione l’effetto dell’uso della previsione come 
verifica della procedura di destagionalizzazione. Per esempio, Dagum (1982) e Huot,  
Chiu, e Higginson (1986) hanno esaminato l’effetto di una previsione con il metodo X-11-
ARIMA per ridurre la dimensione delle revisioni di destagionalizzazione dei dati, mentre 
Pfeffermann, Morry, e Wong (1995) hanno studiato questo fenomeno sulla varianza dei 
dati destagionalizzati con componenti di trend. 
Diversi articoli testimoniano gli studi fatti sulla comparazione di più modelli stagionali. 
Chen (1997) ha valutato la “robustness” di vari modelli come quelli di regressione 
stagionale, ARIMA stagionali (SARIMA) e modelli di Holt-Winters, giungendo alla 
conclusione che gli ultimi due sono sicuramente i più affidabili. 
Noakes, McLeod, e Hipel (1985), Albertson e Aylen (1996), Kulendran e King (1997), e 
Franses e Van Dijk (2005) compararono le performance delle previsioni di diversi modelli 
stagionali applicati a dati reali. I risultati migliori non sono stati ottenuti da un singolo 
modello ma da più metodi, a seconda della natura dei dati e da come si sono impostati i 
parametri del modello. 
 
 
 
 
 
 9
1.2.3 – Intervalli di previsione  
L’utilizzo di intervalli previsivi e, più recentemente, della densità di previsione è 
diventato sempre più comune nell’arco di questi 25 anni ed è stato produttivo per 
rivelare i limiti di alcuni modelli. Un’importante e profonda revisione su tale argomento 
è stata fornita da Chatfield (1993) che riassume la letteratura di questo periodo. 
Purtroppo, vi è ancora un po’ di confusione nella terminologia con molti autori che 
utilizzano “intervallo di confidenza” invece di “intervallo di previsione”. Un intervallo di 
confidenza si utilizza nei modelli parametrici mentre si parla di un intervallo 
previsionale quando si ha a che fare con una variabile casuale. In gergo statistico si 
potrebbe anche affermare che un intervallo di previsione si rapporta ad una 
osservazione futura allo stesso modo in cui un intervallo di confidenza si rapporta ad un 
parametro inosservabile della popolazione. Gli intervalli di previsione predicono la 
distribuzione di punti individuali, mentre gli intervalli di confidenza stimano la vera 
media della popolazione o altre qualità di interesse che non possono essere osservate. 
La maggior parte dei modelli sono basati sull’intervallo di previsione delle serie 
temporali e non viene rappresentata l’incertezza legata alla selezione del modello e alla 
stima dei parametri. Parte considerevole della ricerca ha cercato di portare questi 
modelli ad avere una copertura e veridicità sempre più realistica. 
In una serie di articoli e documenti si utilizzano dei metodi detti di “Bootstrap” al fine 
di calcolare i più opportuni intervalli di previsione per un dato modello. 
I principali sono:  
- modello AR (Masarotto 1990, Grigoletto 1998, McCullough 1994,1996, Clements e 
Taylor 2001); 
- modello ARIMA (Pascual, Romo, & Ruiz, 2001, 2004, 2005; Wall & Stoffer, 2002); 
- modelli di regressione (Lam & Veall, 2002). 
Il Bootstrap è una tecnica statistica di ricampionamento per approssimare la 
distribuzione campionaria di una variabile. Permette perciò, di approssimare media e 
varianza di uno stimatore, costruire intervalli di confidenza e calcolare p-values di test 
quando, in particolare, non si conosce la distribuzione della statistica di interesse. 
 
1.2.4 – Uno sguardo al futuro 
Nei precedenti paragrafi, sono stati descritti i passi fondamentali che hanno 
caratterizzato la storia delle serie temporali, nella speranza che passato e presente 
possano far luce sul futuro. 
 10
In tal modo, è interessante riflettere sulle proposte per la ricerca identificate in una 
raccolta di articoli e pubblicazioni di Ord, Cogger e Chatfield pubblicati più di 15 anni 
fa. Chatfield (1988) sottolineò la necessità di sviluppare metodi multivariati con 
l'auspicio di renderli più di una semplice idea. Ord (1988) rimanendo sulla stessa linea di 
pensiero segnalò che gran parte del lavoro doveva essere fatto su più modelli di serie 
temporali, compresi quelli di lisciatura esponenziale multivariata. 
Diciotto anni più tardi, l’analisi previsionale multivariata delle serie temporali non è 
stata ancora implementata a dovere nonostante i notevoli progressi teorici in questo 
settore. Si ha il sospetto che alla base di ciò ci siano principalmente due cause: la 
mancanza di ricerca empirica su robusti algoritmi di previsione per modelli multivariati, 
e quella di software facile da usare. Alcuni dei metodi che sono stati suggeriti (e.g., 
modelli VARIMA) sono difficili da stimare a causa del gran numero di parametri coinvolti. 
Altri, come ad esempio quelli di lisciatura esponenziale multivariata, non hanno ricevuto 
concetti teorici e applicativi sufficienti per poter essere sviluppati.  
Ord (1988) ha anche indicato la necessità di una più profonda ricerca nei metodi di 
previsione basati su modelli non lineari. Anche se molti aspetti di questi metodi sono 
stati oggetto di indagine in letteratura, essi meritano ulteriore attenzione. Per esempio, 
non è ancora chiaro il motivo per cui le previsioni attuate con modelli non lineari 
sovrastimino quelle dei modelli lineari (v., ad esempio, Stock & Watson, 1999). Altri 
temi suggeriti da Ord (1988) evidenziano la necessità di mettere a punto le procedure di 
selezione del modello che rendano chiari i meccanismi che generano la serie e di 
specificare gli obiettivi e la qualità delle previsioni che si vogliono conseguire.  
Questi settori hanno ancora bisogno di attenzione e c’è la speranza che la ricerca futura 
contribuirà con opportuni strumenti a risolvere questi problemi. 
Negli ultimi anni anche le serie storiche a distribuzione non gaussiana hanno cominciato 
a ricevere una notevole attenzione e i relativi metodi di previsione sono lentamente in 
fase di crescita. Una particolare zona di questa classe di serie che ha importanti 
applicazioni sono quelle discrete a valori esclusivamente positivi. Tali dati sono molto 
comuni in campo industriale, e ci sono molti problemi pratici e teorici irrisolti associati 
alle metodologie di previsione; pertanto, ci si aspetta nel prossimo futuro una fase 
molto produttiva della ricerca in questo settore, anche grazie alla disponibilità di grandi 
set di dati e di computer sempre più ad elevata potenza. 
Guardando indietro, la tematica previsionale è molto diversa da quella che era 25 anni 
 11
fa. Essa si è sviluppata con l'avvento di una maggiore potenza di calcolo, migliori modelli 
statistici e approcci più maturi per la valutazione della previsione.  
Ma c’è ancora molto da fare, con problemi tuttora irrisolti e altri che ne conseguiranno. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 12
Capitolo 2 
 
MODELLI PREVISIONALI PER L’ANALISI DELLE SERIE STORICHE 
 
Questo capitolo si propone di descrivere e analizzare i principali contenuti teorici ed 
applicativi che risiedono alla base dell’analisi delle serie storiche. 
 
2.1 - Introduzione e generalità sul concetto di serie storica 
Si definisce serie storica (Time Series) un insieme ordinato di numeri reali che misura un 
certo fenomeno seguendo un preciso ordine temporale. Lo studio di tale successione 
trova la propria utilità nel fatto che la conoscenza di quanto è avvenuto determina ciò 
che avverrà secondo un principio generale di inerzia e di stabilità delle leggi che 
conosciamo. Nel caso in cui la serie storica oggetto di studio non è di tipo deterministico 
ma si basa su una certa distribuzione di probabilità, sarà chiamata processo stocastico.  
Si definisce processo stocastico una famiglia di variabili casuali caratterizzate da un 
parametro "t" (nel caso delle serie storiche tale parametro consiste nell'unità di tempo 
considerata). Tali variabili casuali sono definite tutte nel medesimo spazio fondamentale 
"S", insieme degli eventi possibili.  
Si può affermare che una data serie temporale è una particolare realizzazione di un 
processo stocastico. 
0
20
40
60
80
100
120
140
unità di tempo
v
a
l
o
r
e
  
Figura 2.1:  Esempio dell’andamento di una serie storica. Grafico realizzato con MS Excel.  
 13
2.2 – Previsione e identificazione 
Prima di approfondire l’analisi di una serie storica, vanno sottolineati i due principali 
obiettivi da raggiungere nello studio di una sequenza di dati osservati nel corso del 
tempo:  
1) Identificare la natura del fenomeno rappresentato;  
2) Operare delle previsioni attendibili sulla base delle informazioni “storiche”. 
Tali fattori vengono riportati in letteratura rispettivamente con i termini di 
Identification e Forecast. Al fine di raggiungere suddetti obiettivi si assume che i dati 
disponibili siano dovuti a una combinazione nota di componenti predefinite più un 
termine di errore di natura stocastica che normalmente crea delle difficoltà di 
identificazione del modello e che si presta meglio a spiegare il fenomeno osservato. La 
maggior parte delle serie storiche possono essere descritte in termini di due componenti 
fondamentali: il trend e la stagionalità. Il primo rappresenta una componente della serie 
che cambia nel corso del tempo; la componente stagionale, al contrario, esprime delle 
variazioni riscontrabili ad intervalli regolari e sistematici. Per quanto riguarda l’analisi 
del trend, una semplice osservazione visiva della serie permette di stabilirne la 
presenza, e se non si è certi di poter fare affidamento su semplici impressioni, può 
essere utile analizzare le funzioni di autocorrelazione in seguito specificate. Spesso è 
necessario rimuovere la componente di trend attraverso varie metodologie, tra tutte la 
più usata, nonché la più facile da utilizzare, risulta essere quella delle differenze 
successive. Questo approccio si rivela molto conveniente nell’ambito della modellistica 
ARIMA in seguito analizzata. In generale è meglio minimizzare la presenza di fattori di 
“disturbo” che possono “nascondere” la componente di trend: questo può essere 
raggiunto attraverso l’applicazione di opportune Medie Mobili. La componente stagionale 
è invece facilmente riscontrabile osservando l’eventuale correlazione tra un elemento 
della serie e gli elementi successivi. Da un punto di vista formale ciò è possibile 
attraverso l’analisi della funzione di autocorrelazione: un utile strumento sia per 
l’analisi del trend che per l’analisi di fattori stagionali. Come per il trend, anche per 
“smussare” le componenti stagionali, le Medie Mobili rappresentano un metodo efficace 
in quanto, per costruzione, tendono a ridimensionare eventuali “valori anomali”.  
 14