La Tay AI di Microsoft è passata da un'intelligenza artificiale promettente a una catastrofe totale in meno di un giorno. Ecco cosa ha appreso l'azienda.

I chatbot di intelligenza artificiale come ChatGPT stanno diventando sempre più parte integrante della tecnologia moderna, ma sconosciuta a molti, l'IA generativa non è sempre stata buona come lo è oggi. In effetti, nel 2016, il chatbot Tay di Microsoft ci ha mostrato quanto velocemente l'IA può ritorcersi contro.

Esploriamo cos'era il chatbot AI di Microsoft Tay, perché ha fallito, le sue controversie e le lezioni che l'azienda ha imparato dopo il suo disastroso fallimento.

Cos'era Tay di Microsoft?

Tay era un chatbot AI sviluppato da Microsoft e reso disponibile tramite Twitter il 23 marzo 2016. Il chatbot è stato sviluppato per i giovani di età compresa tra i 18 ei 24 anni negli Stati Uniti per "scopi di intrattenimento" e per "sperimentare e condurre ricerche sulla comprensione della conversazione".

Tay non doveva essere un sofisticato chatbot come ChatGPT, ma un simpatico bot di intelligenza artificiale su Twitter con cui potevi conversare, un po' come

instagram viewer
La mia intelligenza artificiale su Snapchat, ma per socializzare.

Perché Microsoft ha chiuso Tay?

Microsoft ha rimosso Tay entro 24 ore dall'attivazione, per una buona ragione. Quasi immediatamente dopo l'introduzione di Tay, gli utenti di Twitter hanno iniziato ad abusare del servizio alimentando il chatbot disinformazione, insegnandogli termini dispregiativi e spingendolo a essere sempre più offensivo solo per vedere fino a che punto Andrebbe.

E lontano è andato davvero. A poche ore dal lancio, Tay stava twittando alcuni degli insulti razzisti più offensivi, diffondendo discorsi di odio, promuovendo il nazismo e persino ispirando una "guerra razziale". Accidenti! Chiaramente, Microsoft stava attraversando un periodo terribile e non avrebbe potuto lasciare che il servizio continuasse.

In un post sul blog ufficiale di Microsoft, il vicepresidente aziendale di Microsoft, Peter Lee, ha fatto eco allo stesso:

Siamo profondamente dispiaciuti per i tweet offensivi e offensivi non intenzionali di Tay, che non rappresentano chi siamo o cosa rappresentiamo, né come abbiamo progettato Tay. Tay è ora offline e cercheremo di riportarlo indietro solo quando saremo sicuri di poter anticipare meglio intenti dannosi che sono in conflitto con i nostri principi e valori.

La debacle di Tay è solo una delle tante pericoli dell'intelligenza artificiale e un forte promemoria del perché il suo sviluppo dovrebbe essere fatto con la massima cautela e supervisione.

6 lezioni che Microsoft ha imparato dopo Tay

Tay è stato un completo disastro, ma ha anche insegnato a Microsoft alcune lezioni cruciali per quanto riguarda lo sviluppo di strumenti di intelligenza artificiale. E per quello che vale, probabilmente è meglio che Microsoft abbia imparato le sue lezioni prima piuttosto che dopo, il che le ha permesso di ottenere un vantaggio su Google e sviluppare il nuovo Browser Bing basato sull'intelligenza artificiale.

Ecco alcune di queste lezioni:

1. Internet è pieno di troll

Internet è pieno di troll, e questa non è esattamente una novità, vero? Apparentemente, era così per Microsoft nel 2016. Non stiamo dicendo che la creazione di un chatbot per "scopi di intrattenimento" rivolti ai giovani di età compresa tra 18 e 24 anni abbia qualcosa a che fare con la velocità con cui il servizio è stato abusato. Tuttavia, sicuramente non è stata nemmeno l'idea più intelligente.

Le persone naturalmente vogliono testare i limiti delle nuove tecnologie, ed è in definitiva compito dello sviluppatore tenere conto di questi attacchi malevoli. In un certo senso, i troll interni fungono da meccanismo di feedback per la garanzia della qualità, ma questo non vuol dire che un chatbot debba essere lasciato libero senza adeguate misure di sicurezza messe in atto prima del lancio.

2. L'intelligenza artificiale non può distinguere intuitivamente tra il bene e il male

Il concetto di bene e male è qualcosa che l'IA non comprende intuitivamente. Deve essere programmato per simulare la conoscenza di ciò che è giusto e sbagliato, ciò che è morale e immorale e ciò che è normale e peculiare.

Queste qualità sono più o meno naturali per gli esseri umani in quanto creature sociali, ma l'IA non può formulare giudizi indipendenti, provare empatia o provare dolore. Questo è il motivo per cui quando gli utenti di Twitter hanno fornito a Tay ogni tipo di propaganda, il bot ha semplicemente seguito, ignaro dell'etica delle informazioni che stava raccogliendo.

3. Non addestrare modelli di intelligenza artificiale utilizzando le conversazioni delle persone

Tay è stato creato "estraendo dati pubblici rilevanti e utilizzando l'IA e l'editoria sviluppati da uno staff che include comici improvvisati." Addestrare un modello di intelligenza artificiale utilizzando le conversazioni delle persone su Internet è orribile idea.

E prima di dare la colpa a Twitter, sappi che il risultato sarebbe stato probabilmente lo stesso indipendentemente dalla piattaforma. Perché? Perché le persone semplicemente non sono il meglio di sé su Internet. Diventano emotivi, usano parole gergali e usano il loro anonimato per essere nefasti.

4. L'IA manca di buon senso e non capisce il sarcasmo

L'intelligenza artificiale oggi sembra più intuitiva (o, per dirla in modo più accurato, è più brava a simulare l'intuizione) ma a volte fatica ancora a riconoscere il sarcasmo e le figure retoriche. Questo era vero ancora di più nel 2016. Ciò che è ovvio per gli umani non è ovvio per l'IA; in altre parole, manca di buon senso.

IA come Tay non capiscono perché gli esseri umani sono come siamo, si comportano come facciamo e le eccentricità di ogni individuo. Può comportarsi e sembrare umano a un livello sorprendente, ma una buona programmazione può andare solo così lontano.

5. L'intelligenza artificiale deve essere programmata per rifiutare le richieste non valide

L'intelligenza artificiale è molto impressionabile e deve essere programmata per rifiutare le richieste che promuovono danni. Ancora oggi, dopo tutti i nostri progressi nell'elaborazione del linguaggio naturale, le persone stanno ancora trovando scappatoie linguistiche per rendere i chatbot AI come ChatGPT "allucinati" e fornire risultati che dovevano essere limitati.

Il punto qui è che l'intelligenza artificiale è perfettamente obbediente, che è forse la sua più grande forza e debolezza. Tutto ciò che non vuoi che un chatbot faccia deve essere programmato manualmente in esso.

6. I chatbot AI non dovrebbero mai essere lasciati incustoditi

Fino a quando l'IA non sarà in grado di autoregolarsi, non può essere lasciata incustodita. Puoi pensare all'IA di oggi come a un bambino prodigio; è brillante per certi versi, ma è comunque un bambino. Se lasciato incustodito, le persone sfrutteranno i suoi punti deboli e Tay ne è stato un ottimo esempio.

L'intelligenza artificiale è uno strumento, proprio come Internet, ma la velocità e la portata con cui le cose possono ritorcersi contro l'IA è di gran lunga superiore a quella che abbiamo sperimentato durante i primi giorni di Internet.

L'intelligenza artificiale ha bisogno di supervisione e regolamentazione costanti

Tay non è l'unico chatbot che è diventato un ladro: ci sono stati molti altri casi simili. Ma ciò che lo ha fatto risaltare è la velocità con cui lo ha fatto e il fatto che sia stato realizzato da un gigante della tecnologia come Microsoft.

Esempi come questo mostrano quanto dobbiamo stare attenti quando sviluppiamo strumenti di intelligenza artificiale, soprattutto quando sono pensati per essere utilizzati da persone normali.