Questo sito utilizza cookie di terze parti per inviarti pubblicità in linea con le tue preferenze. Se vuoi saperne di più clicca QUI 
Chiudendo questo banner, scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie. OK

Presa di oggetti con braccio robotico mediante controllo visivo

In questa tesi viene presentato uno schema di controllo per il manipolatore Manus, basato position visual servoing, che utilizza le informazioni acquisite tramite un sensore di visione per chiudere l’anello del sistema di controllo del robot.
Il Manus è un manipolatore, posizionabile su sedia a rotelle, appositamente progettato per compiti di assistenza. Il metodo di controllo proposto è basato sull’uso di un sistema di visione, del tipo eye-in-hand, ovvero caratterizzato dal posizionamento della telecamera direttamente sull'organo di presa del braccio robotico. L'obiettivo è quello di permettere al braccio robotico di compiere un moto tale da posizionare la pinza in modo da effettuare la presa dell'oggetto rilevato mediante la telecamera. L'identificazione della posizione dell'oggetto target è determinata da uno specifico algoritmo di elaborazione dell'immagine che permette la detection di marker noti. Le informazioni di posizionamento e di orientamento dell'oggetto nello spazio di lavoro del sistema robotico vengono utilizzate per creare i dati necessari alla generazione del movimento del robot. Il percorso eseguito dal bracco robotico durante il moto di presa viene gestito tramite una pianificazione della traiettoria. Il calcolo della traiettoria permette di valutare un’opportuna funzione interpolante tra i punti di passaggio valutati tramite il sistema di visione.
La gestione del controllo è stata implementata nell’ambiente real-time YARA, framework che consente lo sviluppo di applicazioni per la robotica mediante uno schema behaviour-based. L'introduzione del sistema di visione nell'architettura di controllo del manipolatore ha comportato la definizione di un nuovo modulo per la configurazione della telecamera, per la gestione l'operazione di acquisizione dell'immagine e la gestione della fase di detection del marker, in modo da acquisire i dati di posizionamento 3D con una cadenza temporale costante. La fase di elaborazione dell'immagine è realizzata attraverso le funzionalità messe a disposizione dalla libreria ARToolkit. Per migliorare l'algoritmo di detection del marker, implementato dalla libreria ARToolkit che applica una binarizzazione a soglia globale fissa, è stata sviluppata una routine che ottimizza tale valore di soglia, in base al calcolo dell'istogramma dei valori di grigio dell'immagine corrente.
L’accuratezza nella stima della posizione è fortemente condizionata dalle ridotte dimensioni del marker utilizzato nella fase sperimentale. I test eseguiti hanno confermato delle imprecisioni dell’ordine del centimetro al crescere della distanza dal marker della telecamera. Questa circostanza ha compromesso, in alcune sperimentazioni, la riuscita del task di presa dell’oggetto. È stata effettuata un'analisi per determinare le prestazioni di inseguimento della traiettoria imposta. In particolare è stata confrontata la distanza rilevata dalla telecamera all’istante iniziale con la distanza percorsa dal braccio robotico durante la presa. I valori ottenuti hanno confermato che il manipolatore riesce effettivamente ad eseguire l'inseguimento 3D della traiettoria con un errore trascurabile. La possibilità che il task di presa dell'oggetto non sia realizzato non è quindi dovuto ad un errore sul percorso eseguito dal braccio robotico durante il moto, ma è originato dalle imprecisioni nella valutazione dei via point. Nell’ultima parte del lavoro di tesi è stato sviluppata la tecnica di aggiornamento della traiettoria in real-time. Questa funzionalità consente di correggere l’andamento del movimento in tempo reale consentendo di avere un miglioramento nella precisione. La sperimentazione ha dimostrato che il rispetto dei vincoli temporali che determinano l’adeguata sincronizzazione tra i task di controllo dell'intero sistema assume la massima importanza. Il metodo di controllo visivo per la presa di oggetti proposto potrà essere migliorato in futuro sia per ciò che concerne la visione artificiale che per ciò che riguarda l'architettura di controllo. Nel campo della visione può essere presa in considerazione l’implementazione di algoritmi di riconoscimento degli oggetti più robusti alla variabilità dell’illuminazione della scena ed insensibili alle occlusioni. Infine potrebbe essere studiato l'uso del tracking di oggetti in movimento. Nell'ambito dell'architettura di controllo, realizzata con un sistema position based, potrebbe essere migliorata la ripianificazione della traiettoria in real-time, che potrebbe consentire così di correggere gli errori introdotti dal sistema di visione. Un'ulteriore integrazione potrebbe riguardare la considerazione di informazioni riguardanti le features dell’immagine, tipiche di un visual servoing image based, per aumentare l’accuratezza del controllo di posizione.

Mostra/Nascondi contenuto.
Introduzione Il numero di centri di ricerca e di imprese che operano a livello mondiale nel settore della robotica e dell’automazione è in costante crescita. Il mercato dei robot non si rivolge solo all’ambito della produzione industriale, ma negli ultimi anni hanno trovato diffusione anche robot domestici, i robot per la chirurgia e la riabilitazione, i microrobot che esplorano il corpo umano. Nel campo dell’Assistive Technology (AT), ad esempio, la robotica viene utilizzata per creare delle tecnologie e dei pro- dotti che compensano le limitazioni funzionali, migliorano la qualità della vita e aiutano le persone con esigenze specifiche (disabili e anziani con o senza deficit motori, sensoriali o cognitivi). La sicurezza è un requisito fondamentale nel progetto di robot destinati a svolge- re dei compiti che prevedano un’interazione con operatori umani. I classici manipo- latori industriali devono soddisfare dei requisiti che riguardano fondamentalmente la rapidità e l’accuratezza nell’inseguimento di traiettorie prefissate all’interno di ambienti noti. In queste applicazioni la rigidezza dei robot consente di avere ottime performance. Nel campo dell’Assistive Technology i robot sono spesso chiamati ad operare in ambienti non conosciuti, e ad interagire con operatori umani. In tutti questi casi il requisito fondamentale del robot è quello di non costituire un pericolo per coloro che gli stanno vicino. Le specifiche di progetto più importanti diventano allora la sicurezza e l’affidabilità . Nell’interazione uomo-robot, un manipolatore industriale, caratterizzato da un elevata rigidezza, difficilmente riesce ad assicurare un livello di sicurezza accettabile. Una strategia per proteggere l’incolumità delle persone è quella di dotare il robot di sensori, che possono produrre una riduzione della velocità in prossimità di ostacoli imprevisti. La presenza di un numero ele- vato di sensori può comportare però l’introduzione di forti ritardi di attuazione e compromette anche la rapidità di intervento. 2

Laurea liv.II (specialistica)

Facoltà: Ingegneria

Autore: Francesca Fanfoni Contatta »

Composta da 92 pagine.

 

Questa tesi ha raggiunto 2011 click dal 21/03/2008.

 

Consultata integralmente 3 volte.

Disponibile in PDF, la consultazione è esclusivamente in formato digitale.