Questo sito utilizza cookie di terze parti per inviarti pubblicità in linea con le tue preferenze. Se vuoi saperne di più clicca QUI 
Chiudendo questo banner, scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie. OK

Il problema dell'estimation risk nella selezione di portafoglio

Le ragioni dell’esistenza dell’estimation risk sono da ascrivere a due fattori specifici, l’errore campionario in senso stretto, in sede di stima degli input, e la non stazionarietà delle serie storiche; si tenterà sia di approfondire questioni prettamente modellistiche e tecniche, che di tentare di migliorare la qualità dell’informazione a disposizione.
Rivolgiamo in primo luogo l’attenzione al sistema di ipotesi relativo alla mean variance optimization. L’ipotesi di normalità attribuita ai rendimenti di mercato dei titoli ha un peso fondamentale nella costruzione del modello, ma non sempre gode dell’adeguato riscontro empirico. Sono necessari opportuni test statistici di verifica, cui sarà sottoposto il campione di serie storiche preso a riferimento, per rendersi conto se la deviazione dalla distribuzione teorizzata possa considerarsi significativa o meno; nel caso in cui l’assunto di partenza non possa essere accettato nel caso specifico, proponiamo un modello alternativo capace di incorporare la non-normalità nello schema generale della portfolio selection: il modello dei momenti parziali inferiori. Sempre relativamente al campione, si procede ad una verifica della non-stazionarietà mediante un opportuno test basato sulle rolling volatilities osservate.
Le tecniche alternative di scelta di portafogli da noi proposte partono dalla duplice esigenza di rivedere la qualità degli input da inserire nell’algoritmo di ottimizzazione e di aumentare l’efficacia della performance rispetto al modello markoviano. L’inserimento di semplici weights constraints risponde soltanto alla seconda esigenza: si tratta di imporre dei limiti alle
quote capitale spendibili su ciascun asset, implementando il consueto sistema di programmazione quadratica. Il sistema rimane, seppur migliorativo, molto rudimentale, e rischia di vincolare eccessivamente la prassi orientandola ad idee preconcette del valutatore.
La metodologia più importante di tipo euristico fu elaborata da Michaud nel suo noto lavoro Efficient Asset Management del 1998. Ampiamente discusso nel terzo capitolo di questa tesi, il portfolio resampling, su cui è stato posto il brevetto nel ’99, trae impulso da una interpretazione stocastica del concetto markoviano di efficienza. L’idea di base è quella di dedurre i parametri di input per l’ottimizzazione da rendimenti storici rappresentativi di una sola realizzazione, tra le molteplici possibili. Seguendo la logica apertamente statistico-frequentista del campionamento ripetuto, si procede all’estrazione casuale di serie storiche su cui calcolare in modo tradizionale la frontiera efficiente, iterando la procedura un numero elevato di volte per giungere ad una frontiera efficiente costituita da portafogli medi, la resampled frontier. La procedura ha il duplice pregio di rendere esplicita la natura
casuale dei dati di partenza e di migliorare la performance out-of-sample dei portafogli efficienti, ma non può evitare che questi ultimi ereditino lo stesso estimation error di partenza proveniente dalle stime campionarie μ e ˆC.
Con i metodi di selezione che si servono di tecniche bayesiane per la stima degli input, si comincia ad affrontare esplicitamente il problema dell’estimation risk. Affinchè il quadro informativo di partenza per l’ottimizzazione possa essere considerato realistico, le stime da dati storici devono essere corrette dalle opinioni personali del valutatore e degli altri soggetti
operanti sul mercato. Per razionalizzare il processo di definizione di rendimenti
attesi e varianze e covarianze previste, abbiamo elaborato un dettagliato impianto teorico, a partire dal quale sono stati presentati i due modelli principali in letteratura. Il metodo degli shrinkage estimators definisce un approccio alla stima dei rendimenti attesi come media ponderata del valore campionario e di un target value scelto, evoluzione in chiave bayesiana dello stimatore di Stein. Il secondo, più strutturato ma meno immediato, è il modello elaborato per Goldman Sachs nel 1992 da Fisher Black e Robert Litterman, nominato appunto (Black-Litterman Model).
La costruzione di portafogli ottimi su un campione scelto di 10 titoli azionari offre, nell’ultimo capitolo, un riscontro empirico a quanto teorizzato nel corso dell’elaborato.

Mostra/Nascondi contenuto.
Capitolo 1 Introduzione La selezione e il portafoglio La selezione di portafoglio, nella sua concezione più primitiva, può essere definita come modellizzazione di un problema di scelta tra alternative diverse, non sempre univocamente ordinabili, ma valutabili secondo alcuni criteri comuni, e giudicabili rispetto a determinati vincoli. Ogni oggetto coinvolto nella scelta entra nel processo come singolo, con le proprie caratteristiche, ma ne esce come componente di un aggregato, perde la sua individualità per far capo ad un obiettivo unico, di livello superiore. In questo lavoro la selezione riguarderà un paniere di asset finanziari rischiosi, considerati in base al loro rendimento e livello di rischiosità, e l’o- biettivo finale sarà quello di determinarne le quote costituenti un portafoglio, il quale, rispondente agli obiettivi di minimizzazione del rischio e massimiz- zazione del rendimento finanziario, sarà parte integrante di un disegno di gestione manageriale ottimizzante. Il sistema di riferimento Gli obiettivi principali possono essere sintetizzati nei seguenti punti:

Laurea liv.II (specialistica)

Facoltà: Scienze Statistiche

Autore: Filippo Natoli Contatta »

Composta da 204 pagine.

 

Questa tesi ha raggiunto 2919 click dal 20/03/2008.

 

Consultata integralmente 5 volte.

Disponibile in PDF, la consultazione è esclusivamente in formato digitale.