Questo sito utilizza cookie di terze parti per inviarti pubblicità in linea con le tue preferenze. Se vuoi saperne di più clicca QUI 
Chiudendo questo banner, scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie. OK

Applicazione di metodi multi-relazionali all'elaborazione delle immagini

Nel contesto di Globalizzazione che si vive oggigiorno le informazioni di tipo multimediale, grazie anche alla aumentata capacità dei computer, diventano basilari per una corretta comunicazione attraverso il canale di Internet ed i suoi derivati.

Negli ultimi anni sono nati molti sistemi, tra cui FlickR, Google Image Labeler e ALIPR, che permettono agli utenti del Web 2.0 di annotare, tramite tecniche di tagging, le proprie o le immagini altrui; il problema principale risulta che, essendo questa tecnica manuale, è decisa totalmente dall'utente. Quindi si è pensato di sviluppare sistemi automatici o semi automatici per il tagging e si sono raggiunti risultati migliori.

Vi è un'altra considerazione da fare: l'immagine dovrebbe essere descritta dal suo contenuto; una descrizione testuale (tramite tagging) dovrebbe essere solo un supporto e non una base sulla quale capire il suo significato. Partendo da questa asserzione, il Machine Learning, una branca dell'Artificial Intelligence ha cominciato a studiare dei modelli, facenti comunque riferimento alla Text Analysis, e successivamente dei metodi detti Content Based, che cercano di capire il contesto dell'immagine, attraverso il suo contenuto. Il fine è migliorare quelle che sono e che saranno le future applicazioni che si occupano di Retrieval, Elaboration, Detection e Understanding dell'immagine

Mostra/Nascondi contenuto.
Introduzione Negli ultimi anni l’utilizzo di contenuti digitali (in particolare immagini e video) e cresciuto fortemente tanto da originare un problema di Information Overload [123]. Per cui sono stati proposti diversi sistemi che organizzano l’informazione e rendono meglio fruibili i contenuti all’utente nale. Tra questi sistemi, i pi u popolari sono FlickR, Google Image Labeler [130] e ALIPR [129], che permettono agli utenti del Web 2.0 di annotare, tramite tecniche di tagging 1 [3], le proprie o le immagini altrui. Il tagging per o non e la soluzione denitiva, in quanto i tags, assegnati manualmente o automaticamente, spesso descrivono male e solo in parte l’oggetto digitale (immagine, video o audio). Per tale motivo diventa indispensabile descrivere, ad esempio, un’immagine tramite il suo stesso contenuto ed utilizzare le tecniche di tagging solo come supporto all’organizzazione. Partendo da questa idea e mettendo a disposizione i propri metodi, il Machine Learning, una branca dell’Articial Intelligence ha cominciato a studiare dei modelli e successivamente dei metodi detti Content Based [128], che cercano di riconoscere il signicato di un oggetto digitale a partire dal suo contenuto. Il ne e migliorare le applicazioni che si occupano di Classication [12], Retrieval [10, 11], Understanding [37] dell’immagine. In particolare saranno espansi gli ar- gomenti (o tasks) di Classication e Understanding. Nella letteratura del Machine Learning, sono state sviluppate moltissime tecniche sia per la Classication che per l’Understanding dell’immagine. Principalmente di- stinguiamo due tipi di approcci: classico e relazionale. Nel primo si utilizzano descrizioni dell’immagine che sono tipicamente matrici di dati, cio e descrizioni at, computazionalmente pi u veloci, ma che forniscono dei 1 Il tagging e una tecnica che permette di allegare alle immagini metadati testuali.

Tesi di Laurea Magistrale

Facoltà: Scienze Matematiche, Fisiche e Naturali

Autore: Sante Stanisci Contatta »

Composta da 170 pagine.

 

Questa tesi ha raggiunto 1028 click dal 10/10/2012.

Disponibile in PDF, la consultazione è esclusivamente in formato digitale.