Le capacità di intelligenza artificiale si stanno espandendo in modo esponenziale, con l'intelligenza artificiale ora utilizzata in settori dalla pubblicità alla ricerca medica. L'uso dell'intelligenza artificiale in aree più sensibili come il software di riconoscimento facciale, gli algoritmi di assunzione e la fornitura di assistenza sanitaria, ha accelerato il dibattito su pregiudizi ed equità.
Il pregiudizio è un aspetto ben studiato della psicologia umana. La ricerca espone regolarmente le nostre preferenze e pregiudizi inconsci, e ora vediamo che l'intelligenza artificiale riflette alcuni di questi pregiudizi nei suoi algoritmi.
Quindi, in che modo l'intelligenza artificiale diventa distorta? E perché questo importa?
In che modo l'intelligenza artificiale diventa di parte?
Per semplicità, in questo articolo, faremo riferimento a machine learning e deep learning algoritmi come algoritmi o sistemi di intelligenza artificiale.
Ricercatori e sviluppatori possono introdurre pregiudizi nei sistemi di intelligenza artificiale in due modi.
In primo luogo, i pregiudizi cognitivi dei ricercatori possono essere incorporati accidentalmente negli algoritmi di apprendimento automatico. I pregiudizi cognitivi sono percezioni umane inconsce che possono influenzare il modo in cui le persone prendono le decisioni. Questo diventa un problema significativo quando i pregiudizi riguardano persone o gruppi di persone e possono danneggiare quelle persone.
Questi pregiudizi possono essere introdotti direttamente ma accidentalmente, oppure i ricercatori potrebbero addestrare l'intelligenza artificiale su set di dati che sono stati essi stessi colpiti da pregiudizi. Ad esempio, un'intelligenza artificiale per il riconoscimento facciale potrebbe essere addestrata utilizzando un set di dati che include solo volti dalla pelle chiara. In questo caso, l'intelligenza artificiale funzionerà meglio quando si tratta di volti dalla pelle chiara rispetto a quelli scuri. Questa forma di pregiudizio dell'IA è nota come eredità negativa.
In secondo luogo, possono sorgere distorsioni quando l'IA viene addestrata su set di dati incompleti. Ad esempio, se un'intelligenza artificiale viene addestrata su un set di dati che include solo scienziati informatici, non rappresenterà l'intera popolazione. Questo porta ad algoritmi che non riescono a fornire previsioni accurate.
Esempi di bias dell'IA nel mondo reale
Ci sono stati molti esempi recenti e ben segnalati di pregiudizi dell'intelligenza artificiale che illustrare il pericolo di permettere a questi pregiudizi di insinuarsi.
Priorità dell'assistenza sanitaria con sede negli Stati Uniti
Nel 2019 è stato progettato un algoritmo di apprendimento automatico per aiutare gli ospedali e le compagnie assicurative a determinare quali pazienti trarrebbero maggior beneficio da determinati programmi sanitari. Basato su un database di circa 200 milioni di persone, l'algoritmo ha favorito i pazienti bianchi rispetto ai pazienti neri.
È stato determinato che ciò era dovuto a un presupposto errato nell'algoritmo relativo ai costi sanitari variabili tra persone di colore e bianche e il pregiudizio è stato infine ridotto dell'80%.
COMPAS
Il Correctional Offender Management Profiling for Alternative Sanctions, o COMPAS, era un algoritmo AI progettato per prevedere se determinate persone avrebbero commesso nuovamente un reato. L'algoritmo ha prodotto il doppio dei falsi positivi per i delinquenti neri rispetto ai delinquenti bianchi. In questo caso, sia il set di dati che il modello erano imperfetti, introducendo pesanti distorsioni.
Amazon
L'algoritmo di assunzione che Amazon utilizza per determinare l'idoneità dei candidati è stato scoperto nel 2015 per favorire pesantemente gli uomini rispetto alle donne. Questo perché il set di dati conteneva quasi esclusivamente uomini e i loro curricula poiché la maggior parte dei dipendenti di Amazon sono uomini.
Come fermare i pregiudizi dell'intelligenza artificiale?
L'IA sta già rivoluzionando il modo in cui lavoriamo ogni settore. Avere sistemi distorti che controllano i processi decisionali sensibili è meno che desiderabile. Nella migliore delle ipotesi, riduce la qualità della ricerca basata sull'intelligenza artificiale. Nel peggiore dei casi, danneggia attivamente i gruppi di minoranza.
Ci sono esempi di algoritmi di intelligenza artificiale già utilizzati per aiutare il processo decisionale umano riducendo l'impatto dei pregiudizi cognitivi umani. A causa del modo in cui vengono addestrati gli algoritmi di apprendimento automatico, possono essere più precisi e meno prevenuti rispetto agli umani nella stessa posizione, con conseguente processo decisionale più equo.
Ma, come abbiamo mostrato, è vero anche il contrario. I rischi di consentire ai pregiudizi umani di essere integrati e amplificati dall'IA possono superare alcuni dei possibili benefici.
Alla fine del giorno, L'intelligenza artificiale è valida solo quanto i dati con cui viene addestrata. Lo sviluppo di algoritmi imparziali richiede una pre-analisi ampia e approfondita dei set di dati, garantendo che i dati siano privi di pregiudizi impliciti. Questo è più difficile di quanto sembri perché molti dei nostri pregiudizi sono inconsci e spesso difficili da identificare.
Sfide nella prevenzione dei bias dell'IA
Nello sviluppo di sistemi di intelligenza artificiale, ogni passaggio deve essere valutato per il suo potenziale di incorporare pregiudizi nell'algoritmo. Uno dei fattori principali nella prevenzione dei pregiudizi è garantire che l'equità, piuttosto che il pregiudizio, venga "introdotta" nell'algoritmo.
Definire l'equità
L'equità è un concetto relativamente difficile da definire. In effetti, è un dibattito che non ha mai raggiunto un consenso. Per rendere le cose ancora più difficili, quando si sviluppano sistemi di intelligenza artificiale, il concetto di equità deve essere definito matematicamente.
Ad esempio, in termini di algoritmo di assunzione di Amazon, l'equità assomiglierebbe a una perfetta suddivisione 50/50 tra lavoratori maschi e femmine? O una proporzione diversa?
Determinazione della funzione
Il primo passo nello sviluppo dell'IA è determinare esattamente cosa si intende ottenere. Se si utilizza l'esempio COMPAS, l'algoritmo prevede la probabilità di recidiva dei criminali. Quindi, è necessario determinare input di dati chiari per consentire il funzionamento dell'algoritmo. Ciò può richiedere la definizione di variabili importanti, come il numero di reati precedenti o la tipologia di reati commessi.
Definire correttamente queste variabili è un passaggio difficile ma importante per garantire l'equità dell'algoritmo.
Creare il set di dati
Come abbiamo spiegato, una delle principali cause di distorsione dell'intelligenza artificiale sono i dati incompleti, non rappresentativi o distorti. Come nel caso dell'intelligenza artificiale per il riconoscimento facciale, i dati di input devono essere accuratamente controllati per errori, adeguatezza e completezza prima del processo di apprendimento automatico.
Scelta degli attributi
Negli algoritmi, alcuni attributi possono essere considerati o meno. Gli attributi possono includere genere, razza o istruzione, in pratica tutto ciò che può essere importante per il compito dell'algoritmo. A seconda degli attributi scelti, l'accuratezza predittiva e la distorsione dell'algoritmo possono essere gravemente influenzate. Il problema è che è molto difficile misurare quanto sia distorto un algoritmo.
Il pregiudizio dell'intelligenza artificiale non è qui per restare
La distorsione dell'intelligenza artificiale si verifica quando gli algoritmi effettuano previsioni distorte o imprecise a causa di input distorti. Si verifica quando i dati distorti o incompleti vengono riflessi o amplificati durante lo sviluppo e l'addestramento dell'algoritmo.
La buona notizia è che con il moltiplicarsi dei finanziamenti per la ricerca sull'IA, è probabile che vedremo nuovi metodi per ridurre e persino eliminare i pregiudizi dell'IA.
Mettiamo le cose in chiaro su alcune falsità comuni che circondano l'IA.
Leggi Avanti
- La tecnologia spiegata
- Intelligenza artificiale
- Apprendimento automatico
Jake Harfield è uno scrittore freelance con sede a Perth, in Australia. Quando non scrive, di solito è fuori nella boscaglia a fotografare la fauna locale. Puoi visitarlo su www.jakeharfield.com
Iscriviti alla nostra Newsletter
Iscriviti alla nostra newsletter per suggerimenti tecnici, recensioni, ebook gratuiti e offerte esclusive!
Ancora un passo…!
Conferma il tuo indirizzo email nell'email che ti abbiamo appena inviato.