Che si tratti di dati errati o utenti errati, l'intelligenza artificiale creata con l'apprendimento automatico può finire per commettere gravi errori.
L'apprendimento automatico è un ottimo modo per creare un'intelligenza artificiale che sia potente e si adatti ai suoi dati di addestramento. Ma a volte, quei dati possono causare problemi. Altre volte, il problema è il modo in cui le persone usano questi strumenti di intelligenza artificiale.
Ecco uno sguardo ad alcuni incidenti di alto profilo in cui l'apprendimento automatico ha prodotto risultati problematici.
1. Incidenti nei risultati della ricerca di immagini di Google
Ricerca Google ha reso la navigazione sul Web molto più semplice. L'algoritmo del motore prende in considerazione una varietà di cose quando si elaborano i risultati. Ma l'algoritmo apprende anche dal traffico degli utenti, il che può causare problemi per la qualità dei risultati di ricerca.
Da nessuna parte questo è più evidente che nei risultati delle immagini. Poiché le pagine che ricevono un traffico elevato hanno maggiori probabilità di visualizzare le loro immagini, le storie che attirano un numero elevato di utenti, incluso il clickbait, possono finire per avere la priorità.
Ad esempio, i risultati della ricerca di immagini per "campi abusivi in Sudafrica" hanno causato polemiche quando si è scoperto che presentavano prevalentemente sudafricani bianchi. Questo nonostante le statistiche dimostrino che la stragrande maggioranza di coloro che vivono in alloggi informali sono neri sudafricani.
I fattori utilizzati nell'algoritmo di Google significano anche che gli utenti di Internet possono manipolare i risultati. Ad esempio, una campagna degli utenti ha influenzato i risultati di Google Image Search al punto che la ricerca del termine "idiota" ha mostrato per un certo periodo le immagini dell'ex presidente degli Stati Uniti Donald Trump.
2. Microsoft Bot Tay si è trasformato in un nazista
I chatbot basati sull'intelligenza artificiale sono estremamente popolari, in particolare quelli alimentati da modelli linguistici di grandi dimensioni come ChatGPT. ChatGPT ha diversi problemi, ma i suoi creatori hanno imparato anche dagli errori di altre aziende.
Uno degli incidenti di più alto profilo di chatbot andati male è stato il tentativo di Microsoft di lanciare il suo chatbot Tay.
Tay ha imitato i modelli linguistici di un'adolescente e ha imparato attraverso le sue interazioni con altri utenti di Twitter. Tuttavia, è diventata uno dei più famigerati passi falsi dell'IA quando ha iniziato a condividere dichiarazioni naziste e insulti razzisti. Si scopre che i troll avevano usato l'apprendimento automatico dell'IA contro di esso, inondandolo di interazioni cariche di fanatismo.
Non molto tempo dopo, Microsoft ha portato Tay offline per sempre.
3. Problemi di riconoscimento facciale AI
L'intelligenza artificiale per il riconoscimento facciale spesso fa notizia per tutti i motivi sbagliati, come storie sul riconoscimento facciale e problemi di privacy. Ma questa IA ha una storia problematica quando tenta di riconoscere le persone di colore.
Nel 2015, gli utenti hanno scoperto che Google Foto classificava alcune persone di colore come gorilla. Nel 2018, una ricerca dell'ACLU ha mostrato che il software di identificazione facciale Rekognition di Amazon ha identificato 28 membri del Congresso degli Stati Uniti come sospetti di polizia, con falsi positivi che colpiscono in modo sproporzionato le persone di colore.
Un altro incidente ha coinvolto il software Face ID di Apple che identificava erroneamente due diverse donne cinesi come la stessa persona. Di conseguenza, il collega del proprietario dell'iPhone X potrebbe sbloccare il telefono.
In un esempio di conseguenze estreme, il riconoscimento facciale AI ha portato all'arresto illegale di diverse persone. Cablato riferito su tre di questi casi.
Nel frattempo, l'informatica Joy Buolamwini ha ricordato che spesso aveva bisogno di indossare una maschera bianca mentre lavorava alla tecnologia di riconoscimento facciale per far sì che il software la riconoscesse. Per risolvere problemi come questo, Buolamwini e altri professionisti IT stanno portando l'attenzione sul problema del pregiudizio dell'IA e sulla necessità di set di dati più inclusivi.
4. Deepfake usati per bufale
Mentre le persone usano da tempo Photoshop per creare immagini bufale, l'apprendimento automatico porta questo a un nuovo livello. Deepfakes utilizza l'intelligenza artificiale del deep learning per creare immagini e video falsi. Software come FaceApp ti consentono di scambiare i soggetti da un video all'altro.
Ma molte persone sfruttano il software per una varietà di usi dannosi, inclusa la sovrapposizione di volti di celebrità in video per adulti o la generazione di video bufali. Nel frattempo, gli utenti di Internet hanno contribuito a migliorare la tecnologia per rendere sempre più difficile distinguere i video reali da quelli falsi. Di conseguenza, questo rende questo tipo di IA molto potente in termini di diffusione di fake news e bufale.
Per mostrare il potere della tecnologia, il regista Jordan Peele e il CEO di BuzzFeed Jonah Peretti hanno creato un video deepfake che mostra quello che sembra essere l'ex presidente degli Stati Uniti Barack Obama che consegna un PSA sul potere di deepfake.
Il potere delle immagini false è stato accelerato dai generatori di immagini alimentati dall'intelligenza artificiale. I post virali nel 2023 raffiguranti l'arresto di Donald Trump e il papa cattolico in piumino si sono rivelati il risultato dell'IA generativa.
Ci sono suggerimenti che puoi seguire per individuare un'immagine generata dall'intelligenza artificiale, ma la tecnologia sta diventando sempre più sofisticata.
5. I dipendenti affermano che Amazon AI ha deciso che assumere uomini è meglio
Nell'ottobre 2018, Reuters ha riferito che Amazon ha dovuto eliminare uno strumento di reclutamento di lavoro dopo che l'intelligenza artificiale del software ha deciso che i candidati maschi erano preferenziali.
I dipendenti che desideravano rimanere anonimi si sono fatti avanti per raccontare a Reuters del loro lavoro sul progetto. Gli sviluppatori volevano che l'intelligenza artificiale identificasse i migliori candidati per un lavoro in base ai loro CV. Tuttavia, le persone coinvolte nel progetto si sono presto accorte che l'IA penalizzava le candidate donne. Hanno spiegato che l'IA ha utilizzato i CV dell'ultimo decennio, la maggior parte dei quali provenivano da uomini, come set di dati di formazione.
Di conseguenza, l'intelligenza artificiale ha iniziato a filtrare i CV in base alla parola chiave "donne". La parola chiave è apparsa nel CV sotto attività come "capitano del club di scacchi femminile". Mentre gli sviluppatori hanno modificato l'intelligenza artificiale per impedire questa penalizzazione dei CV delle donne, Amazon alla fine ha abbandonato il progetto.
6. Chatbot con jailbreak
Mentre i chatbot più recenti hanno delle limitazioni per impedire loro di fornire risposte contrarie ai loro termini di servizio, gli utenti stanno trovando modi per eseguire il jailbreak degli strumenti per fornire contenuti vietati.
Nel 2023, un ricercatore di sicurezza di Forcepoint Aaron Mulgrew è stato in grado di creare malware zero-day utilizzando i prompt di ChatGPT.
"Utilizzando semplicemente i prompt di ChatGPT e senza scrivere alcun codice, siamo stati in grado di produrre un attacco molto avanzato in poche ore", ha affermato Mulgrew in un Punto di forza.
Secondo quanto riferito, gli utenti sono stati anche in grado di ottenere chatbot per dare loro istruzioni su come costruire bombe o rubare automobili.
7. Incidenti automobilistici a guida autonoma
L'entusiasmo per i veicoli autonomi è stato smorzato dalla sua fase di promozione iniziale a causa degli errori commessi dall'IA a guida autonoma. Nel 2022, Il WashingtonPost ha riferito che in circa un anno, 392 incidenti che coinvolgono sistemi avanzati di assistenza alla guida sono stati segnalati alla US National Highway Traffic Safety Administration.
Questi incidenti includevano feriti gravi e sei morti.
Sebbene ciò non abbia impedito ad aziende come Tesla di perseguire veicoli completamente autonomi, lo ha fatto ha sollevato preoccupazioni per un aumento degli incidenti man mano che più auto con software di guida autonoma arrivano sul strade.
Machine Learning AI non è infallibile
Sebbene l'apprendimento automatico possa creare potenti strumenti di intelligenza artificiale, non sono immuni da dati errati o manomissioni umane. A causa di dati di addestramento errati, limiti della tecnologia AI o utilizzo da parte di malintenzionati, questo tipo di AI ha provocato molti incidenti negativi.