Questo sito utilizza cookie di terze parti per inviarti pubblicità in linea con le tue preferenze. Se vuoi saperne di più clicca QUI 
Chiudendo questo banner, scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie. OK

Una metodologia per la valutazione dei costi della non qualità dei dati

Al giorno d’oggi la stragrande maggioranza dei dati gestiti dalle organizzazioni risulta essere disponibile ed utilizzabile in formato elettronico. Si sta infatti assistendo ad un passaggio dalla forma cartacea alla forma elettronica. Quest’ultima, pur offrendo notevoli ed indiscutibili vantaggi, ha portato con sé anche una serie di problemi legati all’aumento della mole di dati che un’entità organizzata gestisce; ciò è dovuto sia alla necessità di trattare più dati, sia alla possibilità di farlo grazie alla tecnologia disponibile. Questo rende rilevante il livello di attenzione che si deve prestare al livello di qualità dei dati stessi. Si può definire la Data Quality (DQ) come “fitness for use”, ossia come adeguatezza alle performance richieste ai dati nell’operatività e rispetto delle aspettative degli utenti in termini di efficienza ed efficacia.
La presenza di errori e problemi di qualità dei dati non impatta però unicamente sugli aspetti operativi, ma ha ripercussioni anche a livello tattico-strategico, in quanto da un lato essi logorano i processi di business, e dall’altro ostacolano e talvolta limitano le opportunità di creazione di valore.
Tuttavia, nonostante l’importanza della correttezza dei dati, in molte organizzazioni non si adotta un approccio sistematico per quanto riguarda la gestione della DQ. Da un lato, ciò può essere giustificato dal fatto che gli strumenti utilizzabili non sono del tutto completi e di immediato utilizzo; dall’altro esiste ancora una scarsa sensibilità verso questo problema, considerato nella maggior parte dei casi come marginale.
Uno degli obiettivi di questo elaborato è proprio quello di fornire nuovi strumenti che si differenzino da quelli esistenti, che siano il più possibile esaustivi e che si rivelino indipendenti dal contesto applicativo. Quest’ultimo aspetto è particolarmente critico, dato che una parte più o meno estesa dello studio può essere fortemente condizionata dall’ambito di intervento. Si è cercato quindi di ridurre, per quanto possibile, i gradi di libertà dell’analisi, in modo da perseguire un approccio fortemente metodologico.
Il lavoro di tesi qui illustrato da un lato ha approfondito la classificazione degli errori dovuti alla non qualità dei dati, degli improvement attuabili (proponendo una nuova classificazione) e dei loro legami, dall’altro ha predisposto un’analisi puntale dei costi e dei benefici connessi. In ultima istanza, si è provveduto ad aggiornare la metodologia CDQ (Comprehensive Data Quality) alla luce dei nuovi strumenti introdotti. Al fine di dimostrarne la funzionalità ed adeguatezza, si è proceduto quindi alla loro applicazione in due distinti casi reali.

Mostra/Nascondi contenuto.
Capitolo 1 Introduzione all’ambito della Data Quality 1 Introduzione all’ambito della Data Quality Sempre più i dati gestiti dalle entità organizzate sono in formato elettronico e, quindi, sempre più importante è la corretta gestione e manipolazione degli stessi. In questo capitolo, dopo aver illustrato l’importanza della Data Quality (DQ) e proposto alcune definizioni del termine, vengono introdotte le dimensioni principali di DQ, presentati i vari tipi di dato e di sistema informativo ed infine classificate le metodologie connesse alla DQ. Obiettivo principale del capitolo è dunque presentare le prospettive rilevanti che rendono la DQ un importante tema da comprendere e analizzare. Importanza della Data Quality La bassa qualità dei dati si ripercuote sulla vita di ogni persona, più o meno direttamente. Ad esempio, il fatto di ricevere una lettera in ritardo, o di non riceverla affatto, è comunemente imputato a malfunzionamenti nel servizio postale, mentre spesso è dovuto a problemi di qualità dei dati, tipicamente un errore nell’indirizzo contenuto nella base di dati. Allo stesso modo il fatto di ricevere due o più copie identiche di una stessa lettera inviata da un servizio automatico spesso è indice della presenza nella base di dati di un indirizzo duplicato. La qualità dei dati è molto importante per l’efficienza generale di un’organizzazione. [3] A partire dagli anni ’90 le imprese hanno iniziato ad implementare un’ampia varietà di applicazioni di business, ciascuna con un focus differente: CRM (Customer Relationship Management), ERP (Enterprise Resource Planning), SCM (Supply Chain Management). Il motivo che spingeva all’adozione di questi sistemi era che ciascuno poteva migliorare un processo di business aggregando e controllando i dati per quella specifica funzione. Qualche anno dopo molte aziende disponevano di una certa varietà di tali sistemi, ma essi erano tra loro separati; ciò ha portato a problemi quali la presenza di dati non standardizzati, mancanti, non corretti, duplicati, inconsistenti, etc.. Quindi, nel momento in cui alcune imprese hanno tentato di integrare i loro diversi sistemi, hanno spesso fallito, proprio perché non hanno considerato in modo adeguato i problemi di data quality. Il processo di integrazione, infatti, è molto complesso, ad esempio per una banca non è per nulla semplice fornire ai propri clienti un’unica lista con tutti i loro conti correnti e fondi. Un processo altrettanto complesso è la fusione di più organizzazioni, la quale prevede l’integrazione dei sistemi legacy delle entità coinvolte. Tale integrazione richiede compatibilità e interoperatività a tutti i livelli del sistema informativo. [16]

Laurea liv.II (specialistica)

Facoltà: Ingegneria

Autore: Giulio Crippa Contatta »

Composta da 207 pagine.

 

Questa tesi ha raggiunto 715 click dal 20/05/2011.

Disponibile in PDF, la consultazione è esclusivamente in formato digitale.