Skip to content

Intelligenza Artificiale e Fattore Umano

Perché abbiamo bisogno di macchine etiche: il problema dei bias nell'IA

I bias di cui soffriamo come esseri umani sono stati ampiamente documentati, sia a partire dai test sulle associazioni implicite che rivelano dei bias di cui potremmo non essere neppure a conoscenza, sia esperimenti sul campo che hanno dimostrato come questi bias influenzino le nostre azioni.

Nel corso degli anni la società si è accorta quanto questi bias possano penetrare nei sistemi di intelligenza artificiale – spesso con esiti non desiderabili. In un contesto che vede numerose compagnie proporre di impiegare l'IA nelle loro operazioni, è necessario rendersi conto acutamente di questi rischi e cercarne di mitigare gli effetti. Questo problema a dire il vero non è nuovo. Già nel 1988, la UK Commission for Racial Equity trovò che una scuola di specializzazione medica inglese si era resa colpevole di discriminazione. Si fu in grado di determinare che era il programma utilizzato per determinare quali candidati sarebbero stati chiamati per una intervista ad avere dei bias riguardo le donne e le persone con nomi dal suono non europeo.

La cosa interessante è che il programma era stato testato contro le decisioni prese dagli esseri umani e si era dimostrato di poterle replicare con una accuratezza del 90-95%. L'uso di un algoritmo non è stato sufficiente a rettificare i bias introdotti dagli esseri umani. Tuttavia, neanche attribuire tutta la responsabilità ai decisori umani non risolverebbe comunque il problema di per sé.

Trent'anni più tardi, gli algoritmi sono diventati considerevolmente più complessi, ma continuiamo ad avere questo problema. L'IA può essere strumentale nell'individuare e ridurre i bias umani, ma è anche in grado di peggiorare le cose se accetta i nostri bias e li implementa in scala su una serie di aree di applicazione sensibili. Per esempio, il sito investigativo ProPublica ha scoperto che un algoritmo di giustizia criminale utilizzato nella Broward Country, in Florida, classificava gli imputati di colore come ad 'alto rischio' con una proporzione quasi doppia rispetto agli imputati bianchi.

Un altro studio ha rivelato che addestrare i sistemi di processo del linguaggio naturale utilizzando gli articoli giornalistici può portare questi sistemi a esibire stereotipi di genere. I bias possono penetrare all'interno degli algoritmi di IA in vari modi. I sistemi di IA imparano a compiere decisioni sulla base dei dati di addestramento, che possono includere decisioni umane influenzate dai bias o riflettere situazioni inique di carattere storico o sociale, anche rimuovendo variabili sensibili come il sesso, la razza o l'orientamento sessuale. Un'altra sorgente di bias è un data sampling condotto in maniera non appropriata, dove alcuni gruppi sono sovra- o sottorappresentati.

Per esempio, Jou Buolamwini del MIT ha trovato che le tecnologie di riconoscimento facciale commettono più errori con le minoranze etniche e in particolare con le donne appartenenti a queste minoranze, potenzialmente per un problema nel data set di addestramento non sufficientemente rappresentativo. Questi bias ovviamente sono una nostra responsabilità.

Fanno del male alle persone che vengono discriminate e naturalmente danneggiano tutti diminuendo la capacità delle persone di partecipare alla vita sociale ed economica. Ma riduce anche il potenziale trasformativo dell'IA per il mondo degli affari e la società più in generale incoraggiando la sfiducia verso i sistemi automatici e producendo risultati distorti. I leader di aziende e organizzazioni devono assicurarsi che l'IA che utilizzano di fatto migliori e non semplicemente replichi gli standard di decisione umana, e hanno una responsabilità nell'incoraggiare i progressi nella ricerca e negli standards che siano in grado di ridurre il bias nell'IA.

Dal corpus sempre crescente di ricerche svolte in ambito accademico sui bias dell'IA, si possono trarre almeno due conclusioni. La prima è che possiamo trarre vantaggio dai diversi modi in cui l'IA è in grado di migliore il ragionamento tradizionale degli esseri umani. I sistemi di machine learning scartano le variabili che non predicono in maniera accurata i risultati (all'interno dei dati a loro disponibili). Gli esseri umani al contrario potrebbero mentire oppure non essere neppure consapevoli dei fattori che li portano, ad esempio, ad assumere o scartare un particolare candidato. Inoltre, potrebbe essere anche più semplice testare gli algoritmi per individuare i bias, rilevando dei pregiudizi umani che potenzialmente potrebbero passare inosservati o non dimostrati (per quanto imperscrutabili possano essere i modelli di apprendimento profondo, un cervello umano è la 'black box' definitiva).

Infine, l'uso dell'intelligenza artificiale per migliorare il processo decisionale può avvantaggiare i gruppi tradizionalmente svantaggiati, come i ricercatori Jon Kleinberg, Sendhil Mullainathan e altri chiamano i 'benefici disparati da una migliore previsione'. La seconda conclusione è quella di accelerare il progresso che abbiamo visto nell'individuare i bias dell'IA. E qui, non ci sono soluzioni rapide. In effetti, uno degli step più complessi è anche il più ovvio – capire e misurare l'"equità". I ricercatori hanno sviluppato modi tecnici per definire l'equità, come richiedere che i modelli abbiano lo stesso valore predittivo tra i gruppi o richiedere che i modelli abbiano uguali tassi di falsi positivi e falsi negativi tra i gruppi. Ciò porta a una sfida significativa: di solito non è possibile soddisfare contemporaneamente le diverse definizioni di equità.

Tuttavia, anche se le definizioni e le metriche di equità si evolvono, i ricercatori hanno anche compiuto progressi su un'ampia varietà di tecniche che garantiscono che i sistemi di intelligenza artificiale possano soddisfarle, elaborando i dati in anticipo, alterando le decisioni del sistema in seguito o incorporando le definizioni di equità nel processo di formazione stesso. Una tecnica promettente è l'"equità controfattuale", che assicura che le decisioni di un modello siano le stesse in un mondo controfattuale in cui gli attributi ritenuti sensibili, come razza, genere o orientamento sessuale, sono stati modificati. Silvia Chiappa di DeepMind ha persino sviluppato un approccio specifico per l'equità controfattuale in grado di gestire casi complicati in cui alcuni percorsi in base ai quali i tratti sensibili influenzano i risultati sono considerati giusti, mentre altre influenze sono considerate ingiuste.

Ad esempio, il modello potrebbe essere utilizzato per garantire che l'ammissione a un dipartimento specifico di una università non sia influenzata dal sesso del richiedente, pur consentendo potenzialmente al tasso di ammissione complessivo dell'università di variare in base al sesso se, ad esempio, le studentesse tendessero a fare domanda di ammissione a più reparti competitivi. Questi miglioramenti saranno di aiuto, ma altre sfide richiedono più che semplici soluzioni tecniche, incluso come determinare quando un sistema è sufficientemente equo per essere rilasciato e in quali situazioni dovrebbe essere consentito processo decisionale completamente automatizzato. Queste due domande richiedono prospettive multidisciplinari, anche da parte di eticisti, scienziati sociali e altri pensatori umanistici. Cosa possono fare i CEO e il top management per aprire la strada all'interrogarsi sui pregiudizi e l'equità. Tra gli altri vediamo sei passaggi essenziali. [...]

Questo brano è tratto dalla tesi:

Intelligenza Artificiale e Fattore Umano

CONSULTA INTEGRALMENTE QUESTA TESI

La consultazione è esclusivamente in formato digitale .PDF

Acquista

Informazioni tesi

  Autore: Fabrizio Forlani
  Tipo: Laurea II ciclo (magistrale o specialistica)
  Anno: 2020-21
  Università: Università Telematica Internazionale Uninettuno
  Facoltà: Psicologia
  Corso: Psicologia
  Relatore: Francesco Carlino
  Lingua: Italiano
  Num. pagine: 148

FAQ

Per consultare la tesi è necessario essere registrati e acquistare la consultazione integrale del file, al costo di 29,89€.
Il pagamento può essere effettuato tramite carta di credito/carta prepagata, PayPal, bonifico bancario.
Confermato il pagamento si potrà consultare i file esclusivamente in formato .PDF accedendo alla propria Home Personale. Si potrà quindi procedere a salvare o stampare il file.
Maggiori informazioni
Ingiustamente snobbata durante le ricerche bibliografiche, una tesi di laurea si rivela decisamente utile:
  • perché affronta un singolo argomento in modo sintetico e specifico come altri testi non fanno;
  • perché è un lavoro originale che si basa su una ricerca bibliografica accurata;
  • perché, a differenza di altri materiali che puoi reperire online, una tesi di laurea è stata verificata da un docente universitario e dalla commissione in sede d'esame. La nostra redazione inoltre controlla prima della pubblicazione la completezza dei materiali e, dal 2009, anche l'originalità della tesi attraverso il software antiplagio Compilatio.net.
  • L'utilizzo della consultazione integrale della tesi da parte dell'Utente che ne acquista il diritto è da considerarsi esclusivamente privato.
  • Nel caso in cui l’utente che consulta la tesi volesse citarne alcune parti, dovrà inserire correttamente la fonte, come si cita un qualsiasi altro testo di riferimento bibliografico.
  • L'Utente è l'unico ed esclusivo responsabile del materiale di cui acquista il diritto alla consultazione. Si impegna a non divulgare a mezzo stampa, editoria in genere, televisione, radio, Internet e/o qualsiasi altro mezzo divulgativo esistente o che venisse inventato, il contenuto della tesi che consulta o stralci della medesima. Verrà perseguito legalmente nel caso di riproduzione totale e/o parziale su qualsiasi mezzo e/o su qualsiasi supporto, nel caso di divulgazione nonché nel caso di ricavo economico derivante dallo sfruttamento del diritto acquisito.
L'obiettivo di Tesionline è quello di rendere accessibile a una platea il più possibile vasta il patrimonio di cultura e conoscenza contenuto nelle tesi.
Per raggiungerlo, è fondamentale superare la barriera rappresentata dalla lingua. Ecco perché cerchiamo persone disponibili ad effettuare la traduzione delle tesi pubblicate nel nostro sito.
Per tradurre questa tesi clicca qui »
Scopri come funziona »

DUBBI? Contattaci

Contatta la redazione a
[email protected]

Ci trovi su Skype (redazione_tesi)
dalle 9:00 alle 13:00

Oppure vieni a trovarci su

Parole chiave

intelligenza artificiale
fattore umano
ergonomia cognitiva
consumer behavior
psicologia delle organizzazioni
cyberpsicologia

Tesi correlate


Non hai trovato quello che cercavi?


Abbiamo più di 45.000 Tesi di Laurea: cerca nel nostro database

Oppure consulta la sezione dedicata ad appunti universitari selezionati e pubblicati dalla nostra redazione

Ottimizza la tua ricerca:

  • individua con precisione le parole chiave specifiche della tua ricerca
  • elimina i termini non significativi (aggettivi, articoli, avverbi...)
  • se non hai risultati amplia la ricerca con termini via via più generici (ad esempio da "anziano oncologico" a "paziente oncologico")
  • utilizza la ricerca avanzata
  • utilizza gli operatori booleani (and, or, "")

Idee per la tesi?

Scopri le migliori tesi scelte da noi sugli argomenti recenti


Come si scrive una tesi di laurea?


A quale cattedra chiedere la tesi? Quale sarà il docente più disponibile? Quale l'argomento più interessante per me? ...e quale quello più interessante per il mondo del lavoro?

Scarica gratuitamente la nostra guida "Come si scrive una tesi di laurea" e iscriviti alla newsletter per ricevere consigli e materiale utile.


La tesi l'ho già scritta,
ora cosa ne faccio?


La tua tesi ti ha aiutato ad ottenere quel sudato titolo di studio, ma può darti molto di più: ti differenzia dai tuoi colleghi universitari, mostra i tuoi interessi ed è un lavoro di ricerca unico, che può essere utile anche ad altri.

Il nostro consiglio è di non sprecare tutto questo lavoro:

È ora di pubblicare la tesi