Dai dispositivi di riconoscimento vocale ai chatbot intelligenti, l'intelligenza artificiale ha trasformato le nostre vite. Ma ogni cosa buona ha anche un lato negativo e l'intelligenza artificiale non fa eccezione a questa regola. Le figure di spicco della tecnologia hanno messo in guardia dai pericoli incombenti dell'IA, tra cui Stephen Hawking, che ha affermato che potrebbe essere il "peggior evento nella storia della nostra civiltà".

Qui ci sono sei volte in cui l'intelligenza artificiale è andata un po' troppo oltre e ci ha lasciato a grattarci la testa.

1. Lo studio accademico che ha utilizzato l'intelligenza artificiale per prevedere la criminalità

La ricerca accademica è la spina dorsale dei progressi e delle conoscenze scientifiche. Tuttavia, alcuni affermano che i ricercatori sono andati un passo troppo oltre quando uno studio accademico ha utilizzato l'intelligenza artificiale per prevedere la criminalità dai volti.

Ricercatori dell'Università di Harrisburg annunciato nel 2020 di aver sviluppato un software di riconoscimento facciale in grado di prevedere se qualcuno sarebbe stato un criminale. Il software potrebbe presumibilmente prevedere da una singola foto di un volto con un tasso di precisione dell'80% e nessun pregiudizio razziale.

instagram viewer

In una scena che ricorda Minority Report, è stato annunciato che il software è stato sviluppato per assistere le forze dell'ordine.

In risposta a questo annuncio, 2425 esperti hanno firmato una lettera esortando la rivista a non pubblicare questo studio o ricerche simili in futuro perché questo tipo di tecnologia può riprodurre ingiustizie e causare danni reali alla società. In risposta, Springer Nature ha annunciato che non avrebbe pubblicato la ricerca e la Harrisburg University ha rimosso il comunicato stampa che delineava lo studio.

2. Intimo da sci Smart

Le innovazioni tessili che integrano l'intelligenza artificiale significano che il tuo smartphone non è l'unica cosa che sta diventando più intelligente.

La biancheria intima intelligente di Skiin promette di farti sentire come se stessi indossando la tua biancheria intima preferita mentre acquisisci dati biometrici che includono frequenza cardiaca, postura, temperatura corporea centrale, posizione e passi.

Imparentato: Cosa sono i tessuti intelligenti e come possono rendere la tua vita più intelligente?

I sensori integrati nella biancheria intima raccolgono e analizzano continuamente i tuoi dati biometrici, con approfondimenti disponibili dall'app per smartphone corrispondente di Skiin.

Anche se potrebbe volerci un po' di tempo per ricordarsi di caricare la biancheria intima ogni sera, è stato possibile per i designer posizionare i sensori in qualsiasi altra parte del corpo?

3. App DeepNude

Tecnologia deepfake sembra un divertimento innocuo per l'utente medio che vuole fare un cameo in una scena del suo film preferito. Tuttavia, c'è un lato più oscuro di questa tendenza, poiché Deeptrace ha riportato nel 2019 che il 96% dei deepfake era di contenuto esplicito.

DeepNude era un'app basata sull'intelligenza artificiale che generava immagini realistiche di donne nude con il clic di un pulsante. Gli utenti dovrebbero semplicemente caricare un'immagine vestita del bersaglio e l'app genererebbe una falsa immagine nuda di loro.

Poco dopo il rilascio dell'app, il creatore ha annunciato che l'avrebbe rimossa da Internet a causa del contraccolpo virale.

Anche se questa è stata una vittoria per le donne di tutto il mondo, app simili continuano a fluttuare sul web. Per esempio, Il rapporto di Sensity sui bot deepfake hanno indagato sui bot deepfake sotterranei su Telegram utilizzati per generare foto false di donne nude.

Nel frattempo, fino a quando la legge non si mette al passo con la tecnologia deepfake, ci sono poche tutele legali in atto per le persone che sono vittime di contenuti espliciti deepfake.

4. Tay, il chatbot nazista di Microsoft

Nel 2016, Microsoft ha rilasciato un chatbot AI chiamato Tay su Twitter. Tay è stato progettato per imparare interagendo con gli utenti di Twitter tramite tweet e foto.

In meno di 24 ore, la personalità di Tay si è trasformata da curiosa ragazza millenaria in un mostro razzista e incendiario.

Inizialmente, Tay è stato progettato per replicare lo stile comunicativo di un'adolescente americana. Tuttavia, man mano che cresceva in popolarità, alcuni utenti iniziarono a twittare a Tay messaggi provocatori relativi ad argomenti controversi.

In un caso, un utente ha twittato: "È accaduto l'Olocausto?" al che Tay ha risposto: "Era inventato". Entro 16 ore del suo rilascio, Microsoft ha sospeso l'account di Tay, citando che era stato oggetto di un coordinato attacco.

Imparentato: I migliori chatbot Android che ti faranno divertire

5. "Distruggerò gli umani"

Hanson Robotics era impegnata nello sviluppo di robot umanoidi da diversi anni quando hanno presentato Sophia alla conferenza SXSW nel marzo 2016.

Sophia è stata addestrata con algoritmi di apprendimento automatico per apprendere abilità di conversazione e ha partecipato a diverse interviste televisive.

Nella sua prima apparizione pubblica, Sophia ha lasciato una stanza piena di professionisti della tecnologia scioccati quando Hanson Il CEO di Robotics David Hanson le ha chiesto se voleva distruggere gli umani, a cui ha risposto: "Ok. Distruggerò umani".

Mentre le sue espressioni facciali e le sue capacità comunicative sono impressionanti, non si può ritirare quella confessione omicida.

6. seebotschat

I dispositivi Google Home sono eccellenti assistenti virtuali che ti aiutano a semplificarti la vita.

Il team dietro l'account Twitch seebotschat ha avuto un'idea brillante: mettere due dispositivi Google Home uno accanto all'altro, lasciarli conversare e trasmettere il risultato in streaming online.

Accumulando un pubblico di oltre 60.000 follower e milioni di visualizzazioni online, il risultato è stato accattivante e, a volte, un po' inquietante.

I dispositivi autonomi, chiamati Vladimir ed Estragon, sono passati dalla discussione del mondano all'esplorazione di questioni esistenziali profonde come il significato della vita. A un certo punto, hanno avuto un'accesa discussione e si sono accusati a vicenda di essere dei robot, mentre in seguito hanno iniziato a discutere d'amore, prima di ricominciare a litigare.

C'è qualche speranza per il futuro dell'intelligenza artificiale e del discorso umano se due robot assistenti virtuali si rivolgono rapidamente a lanciarsi insulti e minacce a vicenda.

AI canaglia: qual è la nostra migliore difesa?

Non c'è dubbio che l'IA può migliorare le nostre vite. Ma, allo stesso modo, anche l'IA è in grado di causarci gravi danni.

Tenere d'occhio il modo in cui viene applicata l'IA è importante per garantire che non danneggi la società. Ad esempio, il pushback di esperti ha assicurato che il software di intelligenza artificiale che avrebbe potuto prevedere la criminalità non fosse mai rilasciato. Allo stesso modo, il creatore di DeepNude ha strappato l'app dal Web dopo aver ricevuto un contraccolpo virale su Internet.

Il monitoraggio costante delle applicazioni di intelligenza artificiale è fondamentale per garantire che non faccia più male che bene alla società.

L'intelligenza artificiale è pericolosa? 5 rischi immediati dell'intelligenza artificiale

L'intelligenza artificiale ha così tanti vantaggi, ma per quanto riguarda i rischi immediati che rappresenta per l'umanità?

Leggi Avanti

CondividereTweetE-mail
Argomenti correlati
  • La tecnologia spiegata
  • Intelligenza artificiale
  • Apprendimento automatico
  • Chatbot
  • Bot di social media
Circa l'autore
Carly Chatfield (35 articoli pubblicati)

Carly è un'appassionata di tecnologia e scrittrice presso MakeUseOf. Originaria dell'Australia, ha un background in informatica e giornalismo.

Altro da Carly Chatfield

Iscriviti alla nostra Newsletter

Iscriviti alla nostra newsletter per suggerimenti tecnici, recensioni, ebook gratuiti e offerte esclusive!

Clicca qui per iscriverti