L'intelligenza artificiale può suonare come il presidente. Oppure può suonare come te o me. Quindi quale rischio per la sicurezza informatica pone il software di clonazione vocale AI?

L'Intelligenza Artificiale (AI) è una potente tecnologia che promette di trasformare le nostre vite. Non è mai stato così chiaro come oggi, quando strumenti potenti sono disponibili per chiunque disponga di una connessione Internet.

Ciò include generatori di voci AI, software avanzati in grado di imitare il linguaggio umano in modo così competente che può essere impossibile distinguere tra i due. Cosa significa questo per la sicurezza informatica?

Come funzionano i generatori di voci AI?

La sintesi vocale, il processo di produzione artificiale del linguaggio umano, esiste da decenni. E come tutta la tecnologia, ha subito profondi cambiamenti nel corso degli anni.

Coloro che hanno utilizzato Windows 2000 e XP potrebbero ricordare Microsoft Sam, la voce maschile di sintesi vocale predefinita del sistema operativo. Microsoft Sam ha portato a termine il lavoro, ma i suoni prodotti erano robotici, rigidi e innaturali. Gli strumenti che abbiamo a nostra disposizione oggi sono notevolmente più avanzati, in gran parte grazie al deep learning.

L'apprendimento profondo è un metodo di apprendimento automatico che si basa su reti neurali artificiali. Grazie a queste reti neurali, l'intelligenza artificiale moderna è in grado di elaborare i dati quasi come i neuroni nel cervello umano interpretano le informazioni. Vale a dire, più l'IA diventa simile a quella umana, migliore è nell'emulare il comportamento umano.

Questo, in poche parole, è il modo in cui funzionano i moderni generatori vocali AI. Più dati vocali sono esposti, più abili diventano nell'emulare il linguaggio umano. A causa di progressi relativamente recenti in questa tecnologia, il software di sintesi vocale all'avanguardia può essenzialmente replicare i suoni che riceve.

In che modo gli attori delle minacce utilizzano i generatori di voci AI

Non sorprende che questa tecnologia venga abusata dagli attori delle minacce. E non solo criminali informatici nel senso tipico del termine, ma anche agenti di disinformazione, truffatori, venditori black hat e troll.

Nel momento in cui ElevenLabs ha rilasciato una versione beta del suo software di sintesi vocale nel gennaio 2023, i troll di estrema destra sulla bacheca 4chan hanno iniziato ad abusarne. Usando l'intelligenza artificiale avanzata, hanno riprodotto le voci di individui come David Attenborough ed Emma Watson, facendo sembrare che le celebrità stessero facendo tirate vili e odiose.

COME Vice segnalato all'epoca, ElevenLabs ha ammesso che le persone stavano abusando del suo software, in particolare la clonazione vocale. Questa funzione consente a chiunque di "clonare" la voce di un'altra persona; tutto ciò che devi fare è caricare una registrazione di un minuto e lasciare che l'IA faccia il resto. Presumibilmente, più lunga è una registrazione, migliore sarà l'output.

Nel marzo 2023, un video virale di TikTok ha attirato l'attenzione di Il New York Times. Nel video, il famoso podcaster Joe Rogan e il dottor Andrew Huberman, ospite frequente di The Joe Rogan Experience, sono stati ascoltati mentre discutevano di una bevanda alla caffeina che "aumenta la libido". Il video faceva sembrare che sia Rogan che Huberman approvassero inequivocabilmente il prodotto. In realtà, le loro voci sono state clonate utilizzando l'intelligenza artificiale.

Più o meno nello stesso periodo, la Silicon Valley Bank con sede a Santa Clara, in California, è crollata a causa di errori di gestione del rischio e altri problemi ed è stata rilevata dal governo statale. Questo è stato il più grande fallimento bancario negli Stati Uniti dalla crisi finanziaria del 2008, quindi ha inviato onde d'urto nei mercati globali.

Ciò che ha contribuito al panico è stata una falsa registrazione audio del presidente degli Stati Uniti Joe Biden. Nella registrazione, Biden è stato apparentemente sentito avvertire di un imminente "crollo" e ordinare alla sua amministrazione di "usare tutta la forza dei media per calmare il pubblico". Fact-checker come PolitiFact si sono affrettati a sfatare la clip, ma è probabile che milioni di persone l'avessero ascoltata a quel punto.

Se i generatori di voci AI possono essere utilizzati per impersonare celebrità, possono anche essere utilizzati per impersonare persone normali, ed è esattamente ciò che hanno fatto i criminali informatici. Secondo ZDNet, migliaia di americani si innamorano di truffe note come vishing o phishing vocale ogni anno. Una coppia di anziani ha fatto notizia a livello nazionale nel 2023 quando ha ricevuto una telefonata dal loro "nipote", che affermava di essere in prigione e chiedeva soldi.

Se hai mai caricato un video di YouTube (o sei apparso in uno), hai partecipato a una chiamata di gruppo con persone che non conosci sai, o hai caricato la tua voce su Internet in qualche modo, tu o i tuoi cari potreste teoricamente essere in pericolo. Cosa impedirebbe a un truffatore di caricare la tua voce su un generatore di intelligenza artificiale, clonarla e contattare la tua famiglia?

I generatori vocali AI stanno sconvolgendo il panorama della sicurezza informatica

Non ci vuole un esperto di sicurezza informatica per riconoscere quanto possa essere pericolosa l'IA nelle mani sbagliate. E mentre è vero che si può dire lo stesso per tutta la tecnologia, l'intelligenza artificiale è una minaccia unica per diversi motivi.

Per prima cosa, è relativamente nuovo, il che significa che non sappiamo davvero cosa aspettarci da esso. I moderni strumenti di intelligenza artificiale consentono ai criminali informatici di ridimensionare e automatizzare le loro operazioni in un modo senza precedenti, sfruttando al contempo la relativa ignoranza del pubblico in merito a questa materia. Inoltre, l'IA generativa consente agli attori delle minacce con poche conoscenze e abilità di farlo creare codice dannoso, creare siti di truffa, diffondere spam, scrivere e-mail di phishing, generare immagini realistichee produrre infinite ore di contenuti audio e video falsi.

Fondamentalmente, questo funziona in entrambi i modi: l'intelligenza artificiale viene utilizzata anche per proteggere i sistemi e probabilmente lo sarà per i decenni a venire. Non sarebbe irragionevole presumere che ciò che ci attende sia una sorta di corsa agli armamenti di IA tra cybercriminali e l'industria della sicurezza informatica, poiché le capacità difensive e offensive di questi strumenti sono intrinsecamente pari.

Per la persona media, l'avvento dell'IA generativa diffusa richiede un radicale ripensamento delle pratiche di sicurezza. Per quanto eccitante e utile possa essere l'intelligenza artificiale, può almeno offuscare il confine tra ciò che è reale e cosa non lo è, e nel peggiore dei casi aggrava i problemi di sicurezza esistenti e crea nuovo spazio di manovra per gli attori delle minacce In.

I generatori di voci mostrano il potenziale distruttivo dell'IA

Non appena ChatGPT è arrivato sul mercato, i colloqui sulla regolamentazione dell'IA sono aumentati. Qualsiasi tentativo di limitare questa tecnologia richiederebbe probabilmente una cooperazione internazionale a un livello che non si vedeva da decenni, il che lo rende improbabile.

Il genio è uscito dalla bottiglia e il meglio che possiamo fare è abituarcisi. Questo, e spero che il settore della sicurezza informatica si adegui di conseguenza.