I chatbot di intelligenza artificiale possono avere allucinazioni, fornendo risposte sicuramente errate, di cui gli hacker possono trarre vantaggio. Ecco come gli hacker trasformano in armi le allucinazioni.
I modelli di linguaggio di grandi dimensioni IA sono imperfetti e talvolta generano informazioni false. Questi casi, chiamati allucinazioni, possono rappresentare una minaccia informatica per le aziende e i singoli appassionati di intelligenza artificiale.
Fortunatamente, puoi aumentare le difese contro le allucinazioni dell'IA con una maggiore consapevolezza e una sana seconda ipotesi.
Perché l'IA ha allucinazioni?
Non c'è consenso sul motivo per cui i modelli di intelligenza artificiale hanno allucinazioni, sebbene ci siano alcune ipotesi probabili.
L'intelligenza artificiale viene addestrata da enormi set di dati, spesso contenenti difetti come lacune di pensiero, varianza della salienza del contenuto o pregiudizi dannosi. Qualsiasi addestramento da questi set di dati incompleti o inadeguati potrebbe essere la radice delle allucinazioni, anche se le successive iterazioni del set di dati hanno ricevuto la cura dai data scientist.
Nel tempo, i data scientist possono rendere le informazioni più accurate e inserire ulteriori conoscenze per riempire i posti vacanti e ridurre al minimo il potenziale di allucinazione. I supervisori potrebbero etichettare erroneamente i dati. Il codice di programmazione potrebbe contenere errori. La correzione di questi elementi è essenziale perché i modelli di intelligenza artificiale avanzano sulla base di algoritmi di apprendimento automatico.
Questi algoritmi utilizzano i dati per effettuare determinazioni. Un'estensione di questo è la rete neurale dell'IA, che crea nuove decisioni dall'esperienza di apprendimento automatico a somigliano all'originalità delle menti umane più accuratamente. Queste reti contengono trasformatori, che analizzano le relazioni tra punti dati distanti. Quando i trasformatori vanno male, possono verificarsi allucinazioni.
In che modo le allucinazioni dell'IA offrono opportunità agli hacker
Sfortunatamente, non è risaputo che l'IA abbia allucinazioni e l'IA sembrerà sicura anche quando è completamente sbagliata. Tutto ciò contribuisce a rendere gli utenti più compiacenti e fiduciosi nei confronti dell'IA e gli attori delle minacce fanno affidamento su questo comportamento degli utenti per indurli a scaricare o attivare i loro attacchi.
Ad esempio, un modello di intelligenza artificiale potrebbe allucinare una libreria di codici falsi e consigliare agli utenti di scaricare quella libreria. È probabile che il modello continuerà a raccomandare questa stessa biblioteca allucinata a molti utenti che fanno una domanda simile. Se gli hacker scoprono questa allucinazione, possono creare una versione reale della libreria immaginata, ma piena di codice pericoloso e malware. Ora, quando l'intelligenza artificiale continua a consigliare la libreria di codici, gli utenti inconsapevoli scaricheranno il codice degli hacker.
Il trasporto di codice e programmi dannosi sfruttando le allucinazioni dell'IA è un passo successivo non sorprendente per gli attori delle minacce. Gli hacker non creano necessariamente innumerevoli nuove minacce informatiche: cercano semplicemente nuovi modi per distribuirle senza sospetti. Le allucinazioni dell'intelligenza artificiale predano la stessa ingenuità umana da cui dipende il clic sui collegamenti e-mail (motivo per cui dovresti utilizzare strumenti di controllo dei collegamenti per verificare gli URL).
Anche gli hacker potrebbero portarlo al livello successivo. Se stai cercando aiuto per la codifica e scarichi il codice falso e dannoso, l'autore della minaccia potrebbe anche rendere il codice effettivamente funzionante, con un programma dannoso in esecuzione in background. Solo perché funziona nel modo previsto non significa che non sia pericoloso.
Una mancanza di istruzione può incoraggiarti a scaricare consigli generati dall'intelligenza artificiale a causa del comportamento del pilota automatico online. Ogni settore è sotto pressione culturale per adottare l'IA nelle sue pratiche commerciali. Innumerevoli organizzazioni e industrie lontane dalla tecnologia stanno giocando con strumenti di intelligenza artificiale con poca esperienza e una sicurezza informatica ancora più scarsa semplicemente per rimanere competitivi.
Come stare al sicuro dalle allucinazioni dell'IA armate
Il progresso è all'orizzonte. Creare malware con l'intelligenza artificiale generativa era facile prima che le aziende modificassero i set di dati e i termini e le condizioni per prevenire generazioni non etiche. Conoscendo le debolezze sociali, tecniche e personali che potresti avere contro le pericolose allucinazioni dell'IA, quali sono alcuni modi per stare al sicuro?
Chiunque nel settore può lavorare per perfezionare la tecnologia delle reti neurali e la verifica delle librerie. Ci devono essere controlli ed equilibri prima che le risposte raggiungano gli utenti finali. Nonostante questo sia un progresso necessario del settore, hai anche un ruolo da svolgere nella protezione di te stesso e degli altri dalle minacce generate dall'IA.
Utenti medi può esercitarsi a individuare le allucinazioni dell'IA con queste strategie:
- Trovare errori di ortografia e grammatica.
- Vedere quando il contesto della query non è in linea con il contesto della risposta.
- Riconoscere quando le immagini basate sulla visione artificiale non corrispondono a come gli occhi umani vedrebbero il concetto.
Fai sempre attenzione quando scarichi contenuti da Internet, anche se consigliato da AI. Se AI consiglia di scaricare il codice, non farlo alla cieca; controlla eventuali recensioni per assicurarti che il codice sia legittimo e vedi se riesci a trovare informazioni sul creatore.
La migliore resistenza contro gli attacchi basati sulle allucinazioni dell'IA è l'educazione. Parlare delle tue esperienze e leggere come gli altri hanno provocato allucinazioni dannose, sia per caso che per test intenzionali, è inestimabile per navigare nell'IA in futuro.
Migliorare la sicurezza informatica dell'IA
Devi stare attento a ciò che chiedi quando parli con un'intelligenza artificiale. Limita il potenziale di esiti pericolosi essendo il più specifico possibile e mettendo in discussione tutto ciò che appare sullo schermo. Testa il codice in ambienti sicuri e verifica i fatti su altre informazioni apparentemente affidabili. Inoltre, collaborando con altri, discutendo delle tue esperienze e semplificando il gergo sull'intelligenza artificiale le allucinazioni e le minacce alla sicurezza informatica possono aiutare le masse a essere più vigili e resilienti hacker.