Questo sito utilizza cookie di terze parti per inviarti pubblicità in linea con le tue preferenze. Se vuoi saperne di più clicca QUI 
Chiudendo questo banner, scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie. OK

Support Vector Machines e apprendimento statistico per l'analisi non parametrica della regressione: nuovi sviluppi teorici, software e applicazioni finanziarie

L’obiettivo della tesi ha riguardato lo studio di una nuova impostazione teorica riguardo al problema dell’apprendimento, nota come Teoria dell’Apprendimento Statistico e proposta originariamente da Vladimir Vapnik, ed i modelli Support Vector Machines (SVM) sviluppati in tale contesto, analizzando i fondamenti teorici e valutando successivamente l’applicabilità e l’efficacia nella pratica degli strumenti proposti.
La prima parte della tesi è prevalentemente teorica ed illustra i fondamenti della teoria dell'apprendimento statistico e lo studio della consistenza del principio della minimizzazione del rischio empirico. Questo studio ci ha permesso di derivare una teoria non asintotica dell'apprendimento.
La seconda parte è prevalentemente applicativa ed illustra i modelli SVM regressivi ed il problema di ottimo a cui essi riconducono. Viene introdotto l'algoritmo SMO che permette di risolvere il problema di ottimo. Sono quindi proposte alcune tecniche per la selezione dell'architettura delle SVM. Viene quindi documentato MOSES (Model Selection for Support Vector Machines), il software libero da noi sviluppato per le selezione e la stima di SVM regressive. Si illustra infine un'applicazione dei modelli SVM alla finanza, riguardante la previsione giornaliera dei prezzi future del rame. I risultati ottenuti sono confrontati con quelli prodotti da reti neurali artificiali.

Mostra/Nascondi contenuto.
Capitolo 4 Support Vector Machines Le Support Vector Machines (SVM) sono degli algoritmi di apprendimento introdotti per la prima volta dal gruppo di ricerca coordinato da Vapnik [5], con l’intenzione di proporre una modellistica che facilitasse l’applicazione delle tecniche di controllo della generalizzazione proposte all’interno della Teoria dell’Apprendimento Statistico. Inizialmente lo sviluppo teorico si è concentrato unicamente verso problemi di classificazione, indagando le proprietà dell’iperpiano di separazione ottimale da cui nasce l’idea delle 1 SVM. Solo successivamente, grazie alla proposta della funzione di perdita ε-insensitive, tale tecnica è stata generalizzata per problemi di regressione. In questo capitolo verranno introdotti gli algoritmi di apprendimento SVM, illustrando le ipotesi di base dalle quali sono stati ricavati, la parti- colare struttura ”architetturale” che deriva dalla trasformazione non lineare a cui sono sottoposti i dati al loro interno, la funzione di perdita in essi implementata ed il problema di ottimo che occorre risolvere per stimare i modelli. Nell’esposizioneverràpresoinconsiderazioneesclusivamenteilpro- blema della regressione, richiamando solo quando necessario alcuni risultati proposti per i problemi di classificazione. 4.1 La struttura dei modelli SVM Per illustrare la struttura dei modelli SVM si possono seguire strade diffe- renti. Quellaseguitainquestoparagrafoconsiderainprimoluogoilmodoin cui il processo di apprendimento genera l’approssimazione attraverso i dati, data la funzione di perdita, ed il problema di ottimo che ne deriva. Il me- todo di trasformazione non lineare dei dati sarà affrontata in dettaglio solo successivamente. I concetti, le proprietà e le definizioni della teoria classica della programmazione non lineare qui utilizzati fanno riferimento al volume di Bertsekas [4]. 1 Vapnik [26] pag. 401-421. 37

Tesi di Laurea

Facoltà: Economia

Autore: Stefano Ricci Contatta »

Composta da 147 pagine.

 

Questa tesi ha raggiunto 4038 click dal 20/03/2004.

 

Consultata integralmente 4 volte.

Disponibile in PDF, la consultazione è esclusivamente in formato digitale.