Questo sito utilizza cookie di terze parti per inviarti pubblicità in linea con le tue preferenze. Se vuoi saperne di più clicca QUI 
Chiudendo questo banner, scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie. OK

Costruzione di portafoglio basata sullo studio dei momenti di ordine superiore al secondo e sull'utilizzo di multivariate generalized hyperbolic distributions per la simulazione dei rendimenti: un'analisi empirica

Lo spunto da cui nasce la mia idea deriva dal fatto che la costruzione di molti dei modelli a supporto dell’attività di asset allocation risulta spesso fondata sull’ipotesi di distribuzione gaussiana dei rendimenti. Questa condizione, tuttavia, è stata ormai ampiamente rigettata dalla letteratura finanziaria grazie a numerosi contributi, in quanto l’evidenza empirica ha dimostrato che le serie storiche finanziarie sono molto spesso caratterizzate da fenomeni di asimmetria non nulla e leptocurtosi. Rappresentare un indice finanziario tramite una distribuzione Normale, quindi, può condurre ad imprecisioni nella quantificazione del rischio sottostante, poiché si sottovaluterebbe la frequenza probabilistica delle realizzazioni estreme del campione.
Lo scopo di questo lavoro è proporre un metodo di costruzione di portafoglio basato sul superamento della condizione di normalità dei rendimenti. Il framework di riferimento è costituito dal modello del Resampling (ricampionamento), un procedimento che presenta importanti caratteristiche di robustezza. La necessità di integrare il metodo del Resampling con la condizione di non normalità dei rendimenti mi ha spinto a proporre soluzioni personali sia in sede di simulazione degli scenari di rendimento, che in sede di ottimizzazione quadridimensionale rispetto ai valori di mean-variance-skewness-kurtosis di portafoglio.
Per quanto riguarda la prima fase di simulazione degli scenari, il problema di trovare modelli probabilistici in grado di considerare gli higher moments della distribuzione è stato affrontato ricorrendo alle distribuzioni della classe iperbolica (multivariate generalized hyperbolic distributions). In particolare, tramite il calcolo della log-likelihood associata ad ogni modello, è stato dimostrato che l’adattamento migliore al campione fosse offerto dal modello specifico di multivariate normal inverse gaussian (MNIG). Per la stima dei parametri ho seguito un procedimento noto con il nome di algoritmo EM (expectation-maximization), che permette di calcolare la soluzione tramite un metodo iterativo di massima verosimiglianza.
Con riguardo alla fase di ottimizzazione, quindi, è stato necessario produrre un set di portafogli efficienti all’interno di ogni scenario simulato. Il problema richiedeva l’utilizzo di una funzione di ottimizzazione con obiettivi multipli simultanei. In questo caso mi è sembrato adeguato il ricorso al metodo del Polynomial Goal Programming (PGP). La complicazione deriva dal fatto che il PGP offre una soluzione unica al problema di ottimizzazione, mentre nella mia analisi era richiesta la produzione di un set di portafogli efficienti, associati a livelli di rendimento crescenti. Per far fronte a questo problema ho agito fissando obiettivi di rendimento crescenti all’interno di un intervallo uniforme, e lanciando una ottimizzazione PGP per ognuno di questi obiettivi. Dato che il livello di rendimento è fissato, in questo caso l’ottimizzazione lavora rispetto alle tre variabili di portafoglio residue: variance, skewness e kurtosis.
La derivazione della frontiera ricampionata, in analogia con il modello Resampling, è risultata tramite il calcolo della composizione media di tutti i portafogli relativi allo stesso rank. Data l’impossibilità di rappresentare figure quadridimensionali, la frontiera ricampionata è disegnata su un piano tridimensionale, quindi sono state considerate tre variabili per volta.

Mostra/Nascondi contenuto.
6 Introduzione “Le previsioni sono estremamente difficili, specialmente sul futuro”. Questa citazione dal senso ironico di Niels Bohr, celebre fisico danese le cui teorie risalgono alla prima metà del Novecento, racchiude un concetto ancora molto attuale. L’evoluzione della ricerca e dei sistemi di elaborazione, complice lo sviluppo di nuove piattaforme informatiche, ha reso possibile un progressivo affinamento delle tecniche previsionali e computazionali fino a livelli molto avanzati. Tuttavia, quando si parla di previsioni, ancora oggi l’incertezza assume un ruolo predominante ed imprescindibile. Ambire a prevedere esattamente il futuro è un lavoro da veggenti, piuttosto che da studiosi. Di conseguenza, in campo finanziario, molti dei modelli esistenti prevedono delle ipotesi semplificatrici che contrastano con le reali condizioni dei mercati. Procedere in questo modo è necessario per assicurarne la trattabilità analitica, ma allo stesso tempo comporta inevitabili imprecisioni a livello di risultati. Per cui l’obiettivo ultimo si è spostato dalla ricerca della soluzione giusta, alla ricerca della soluzione meno erronea. Si tratta di un compromesso che qualunque modello previsionale deve accettare, per poter funzionare. È mio interesse specificare che con questo discorso non si vuole affermare che non esistano tecniche in grado di garantire risultati comunque validi, altrimenti tutto il lavoro personale sviluppato in questa sede non avrebbe senso. Tornando al concetto di imprevedibilità dei mercati finanziari, essa è stata ampiamente dimostrata dalle vicissitudini turbolente degli ultimi anni. La crisi finanziaria ha messo in luce tutte le debolezze presenti nell’operatività dei soggetti partecipanti, sia da un punto di vista previsionale e, più in generale modellistico ex- ante, che da un punto di vista di ricerca delle soluzioni ex-post. Nel tempo si è sviluppato un meccanismo distorto basato sulla falsa credenza che gli eventi estremi fossero sinonimo di eventi impossibili, in contrasto proprio con la tendenza del tempo dell’affermarsi di modelli e tecniche sempre più improntati su misure di rischio, quali il VaR o il downside-risk, costruiti in modo da enfatizzare proprio il

Laurea liv.II (specialistica)

Facoltà: Economia

Autore: Lorenzo Ragona Contatta »

Composta da 202 pagine.

 

Questa tesi ha raggiunto 1154 click dal 11/05/2012.

 

Consultata integralmente una volta.

Disponibile in PDF, la consultazione è esclusivamente in formato digitale.