L'intelligenza artificiale generativa è fantastica, ma presenta sempre le sue informazioni con autorità assoluta. Il che è fantastico a meno che non sia un'allucinazione della verità.
L'allucinazione dell'Intelligenza Artificiale (AI) sembra sconcertante. Probabilmente stai pensando: "L'allucinazione non è un fenomeno umano?" Beh, sì, era un essere esclusivamente umano fenomeno finché l'intelligenza artificiale non ha iniziato a mostrare caratteristiche umane come il riconoscimento facciale, l'autoapprendimento e la parola riconoscimento.
Sfortunatamente, l'intelligenza artificiale ha assunto alcuni attributi negativi, comprese le allucinazioni. Quindi, l'allucinazione dell'IA è simile al tipo di allucinazione che sperimentano gli esseri umani?
Cos'è l'allucinazione AI?
L'allucinazione dell'intelligenza artificiale si verifica quando un modello di intelligenza artificiale genera output diversi da quanto previsto. Si noti che alcuni modelli di intelligenza artificiale sono addestrati per generare intenzionalmente output non correlati a qualsiasi input (dati) del mondo reale.
Per esempio, i migliori generatori di text-to-art AI, come DALL-E 2, possono generare in modo creativo nuove immagini che possiamo etichettare come "allucinazioni" poiché non sono basate su dati del mondo reale.
Allucinazione AI nei modelli di elaborazione del linguaggio di grandi dimensioni
Consideriamo come apparirebbe l'allucinazione AI in un modello di elaborazione del linguaggio di grandi dimensioni come ChatGPT. Un'allucinazione di ChatGPT comporterebbe che il bot ti fornisca un fatto errato con qualche affermazione, in modo tale che naturalmente prenderesti tali fatti come verità.
In termini semplici, si tratta di dichiarazioni inventate dal chatbot artificialmente intelligente. Ecco un esempio:
Su ulteriori query, ChatGPT si è presentato con questo:
Allucinazione AI nella visione artificiale
Consideriamo un altro campo dell'IA che può sperimentare l'allucinazione dell'IA: Visione computerizzata. Il quiz qui sotto mostra un montaggio 4x4 con due entità che si assomigliano molto. Le immagini sono un mix di patatine e foglie BBQ.
La sfida è selezionare le patatine senza colpire alcuna foglia nel montaggio. Questa immagine potrebbe sembrare complicata per un computer e potrebbe non essere in grado di distinguere tra le patatine e le foglie del barbecue.
Ecco un altro montaggio con un mix di immagini di barboncino e panino con filo di maiale. Molto probabilmente un computer non sarebbe in grado di distinguerli, mescolando quindi le immagini.
Perché si verifica l'allucinazione AI?
L'allucinazione dell'IA può verificarsi a causa di esempi contraddittori: dati di input che inducono un'applicazione AI a classificarli erroneamente. Ad esempio, durante l'addestramento delle applicazioni AI, gli sviluppatori utilizzano i dati (immagine, testo o altro); se i dati vengono modificati o distorti, l'applicazione interpreta l'input in modo diverso, fornendo un output errato.
Al contrario, un essere umano può ancora riconoscere e identificare i dati con precisione nonostante le distorsioni. Possiamo etichettare questo come buon senso, un attributo umano che l'IA non possiede ancora. Guarda come l'intelligenza artificiale viene ingannata con esempi contraddittori in questo video:
Per quanto riguarda i grandi modelli basati sul linguaggio come ChatGPT e le sue alternative, le allucinazioni possono derivare da una decodifica imprecisa dal trasformatore (modello di apprendimento automatico).
Nell'intelligenza artificiale, un trasformatore è un modello di apprendimento profondo che utilizza l'auto-attenzione (relazioni semantiche tra le parole in una frase) per produrre un testo simile a quello che un essere umano scriverebbe usando un codificatore-decodificatore (input-output) sequenza.
Quindi i trasformatori, un modello di apprendimento automatico semi-supervisionato, possono generare un nuovo corpo di testo (output) dall'ampio corpus di dati di testo utilizzati nella sua formazione (input). Lo fa prevedendo la parola successiva in una serie basata sulle parole precedenti.
Per quanto riguarda l'allucinazione, se un modello linguistico è stato addestrato su dati e risorse insufficienti e imprecisi, ci si aspetta che l'output sia inventato e impreciso. Il modello linguistico potrebbe generare una storia o una narrazione senza incoerenze logiche o connessioni poco chiare.
Nell'esempio seguente, a ChatGPT è stato chiesto di fornire una parola simile a "rivolta" e che inizi con una "b". Ecco la sua risposta:
Dopo ulteriori indagini, continuava a dare risposte sbagliate, con un alto livello di sicurezza.
Allora perché ChatGPT non è in grado di dare una risposta precisa a queste richieste?
Potrebbe essere che il modello linguistico non sia attrezzato per gestire prompt piuttosto complessi come questi o quello non può interpretare il prompt in modo accurato, ignorando il prompt nel dare una parola simile con una specifica alfabeto.
Come si individua l'allucinazione dell'IA?
È evidente ora che le applicazioni di intelligenza artificiale hanno il potenziale per allucinare: generare risposte altrimenti dall'output previsto (fatto o verità) senza alcun intento dannoso. E individuare e riconoscere le allucinazioni dell'IA spetta agli utenti di tali applicazioni.
Ecco alcuni modi per individuare le allucinazioni dell'IA durante l'utilizzo di comuni applicazioni di intelligenza artificiale:
1. Modelli di elaborazione del linguaggio di grandi dimensioni
Sebbene raro, se noti un errore grammaticale nel contenuto prodotto da un modello di elaborazione di grandi dimensioni, come ChatGPT, ciò dovrebbe sollevare un sopracciglio e farti sospettare un'allucinazione. Allo stesso modo, quando il contenuto generato dal testo non sembra logico, non è correlato al contesto fornito o non corrisponde ai dati di input, dovresti sospettare un'allucinazione.
L'uso del giudizio umano o del buon senso può aiutare a rilevare le allucinazioni, poiché gli esseri umani possono facilmente identificare quando un testo non ha senso o segue la realtà.
2. Visione computerizzata
In quanto branca dell'intelligenza artificiale, dell'apprendimento automatico e dell'informatica, la visione artificiale consente ai computer di riconoscere ed elaborare immagini come gli occhi umani. Usando reti neurali convoluzionali, fanno affidamento sull'incredibile quantità di dati visivi utilizzati nella loro formazione.
Una deviazione dagli schemi dei dati visivi utilizzati nell'addestramento risulterà in allucinazioni. Ad esempio, se un computer non è stato addestrato con le immagini di una pallina da tennis, potrebbe identificarla come un'arancia verde. Oppure, se un computer riconosce un cavallo accanto a una statua umana come un cavallo accanto a un vero essere umano, allora si è verificata un'allucinazione dell'IA.
Quindi, per individuare un'allucinazione di visione artificiale, confronta l'output generato con ciò che un essere umano [normale] dovrebbe vedere.
3. Auto a guida autonoma
Grazie all'intelligenza artificiale, le auto a guida autonoma si stanno gradualmente infiltrando nel mercato automobilistico. Pionieri come Tesla Autopilot e Ford BlueCruise hanno difeso la scena delle auto a guida autonoma. Puoi controllare come e cosa vede il Tesla Autopilot per capire un po' come l'intelligenza artificiale alimenta le auto a guida autonoma.
Se possiedi una di queste auto, vorresti sapere se la tua auto AI ha allucinazioni. Un segno sarà se il tuo veicolo sembra deviare dai suoi normali schemi di comportamento durante la guida. Ad esempio, se il veicolo frena o sterza improvvisamente senza una ragione ovvia, il tuo veicolo AI potrebbe avere allucinazioni.
Anche i sistemi di intelligenza artificiale possono avere allucinazioni
Gli esseri umani e i modelli di intelligenza artificiale sperimentano le allucinazioni in modo diverso. Quando si tratta di intelligenza artificiale, le allucinazioni si riferiscono a risultati errati che sono a miglia di distanza dalla realtà o che non hanno senso nel contesto del prompt dato. Ad esempio, un chatbot AI può dare una risposta grammaticalmente o logicamente errata o identificare erroneamente un oggetto a causa del rumore o di altri fattori strutturali.
Le allucinazioni dell'IA non derivano da una mente conscia o subconscia, come osserveresti negli umani. Piuttosto, deriva dall'inadeguatezza o dall'insufficienza dei dati utilizzati nell'addestramento e nella programmazione del sistema di intelligenza artificiale.