I lettori come te aiutano a sostenere MUO. Quando effettui un acquisto utilizzando i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Per saperne di più.

Il lancio di ChatGPT di OpenAI è stato seguito da un entusiasmo pari solo a una manciata di prodotti tecnologici della storia di Internet.

Mentre molte persone sono entusiaste di questo nuovo servizio di intelligenza artificiale, il brivido provato da altri si è trasformato in preoccupazioni e persino paure. Gli studenti lo stanno già barando, con molti professori che scoprono saggi e compiti scritti dal chatbot AI. I professionisti della sicurezza stanno esprimendo la loro preoccupazione che i truffatori e gli attori delle minacce lo stiano utilizzando per scrivere e-mail di phishing e creare malware.

Quindi, con tutte queste preoccupazioni, OpenAI sta perdendo il controllo di uno dei più potenti chatbot AI attualmente online? Scopriamolo.

Capire come funziona ChatGPT

Prima di poter avere un quadro chiaro di quanto OpenAI stia perdendo il controllo di ChatGPT, dobbiamo prima capire come funziona ChatGPT.

instagram viewer

In poche parole, ChatGPT viene addestrato utilizzando un'enorme raccolta di dati provenienti da diversi angoli di Internet. I dati di formazione di ChatGPT includono enciclopedie, articoli scientifici, forum Internet, siti Web di notizie e archivi di conoscenze come Wikipedia. Fondamentalmente, si nutre dell'enorme quantità di dati disponibili sul World Wide Web.

Mentre perlustra Internet, raccoglie conoscenze scientifiche, consigli sulla salute, testi religiosi e tutti i buoni tipi di dati a cui puoi pensare. Ma setaccia anche un sacco di informazioni negative: parolacce, NSFW e contenuti per adulti, informazioni su come creare malware e una gran parte delle cose brutte che puoi trovare su Internet.

Non esiste un modo infallibile per garantire che ChatGPT impari solo dalle informazioni positive scartando quelle negative. Tecnicamente, non è pratico farlo su larga scala, soprattutto per un'intelligenza artificiale come ChatGPT che deve allenarsi su così tanti dati. Inoltre, alcune informazioni possono essere utilizzate sia per scopi buoni che cattivi e ChatGPT non avrebbe modo di conoscere il suo intento a meno che non venga inserito in un contesto più ampio.

Quindi, fin dall'inizio, hai un'intelligenza artificiale capace di "bene e male". È quindi responsabilità di OpenAI garantire che il lato "malvagio" di ChatGPT non venga sfruttato per guadagni non etici. La domanda è; OpenAI sta facendo abbastanza per mantenere ChatGPT il più etico possibile? Oppure OpenAI ha perso il controllo di ChatGPT?

ChatGPT è troppo potente per il suo bene?

Agli albori di ChatGPT, potevi convincere il chatbot a creare guide su come realizzare bombe se lo chiedevi gentilmente. Nella foto c'erano anche le istruzioni su come creare malware o scrivere un'e-mail di truffa perfetta.

Tuttavia, una volta che OpenAI si è resa conto di questi problemi etici, l'azienda si è affrettata a emanare regole per impedire al chatbot di generare risposte che promuovono azioni illegali, controverse o non etiche. Ad esempio, l'ultima versione di ChatGPT rifiuterà di rispondere a qualsiasi richiesta diretta sulla fabbricazione di bombe o su come imbrogliare in un esame.

Sfortunatamente, OpenAI può fornire solo una soluzione cerotta al problema. Piuttosto che costruire rigidi controlli sul livello GPT-3 per impedire a ChatGPT di essere sfruttato negativamente, OpenAI sembra concentrarsi sull'addestramento del chatbot ad apparire etico. Questo approccio non toglie a ChatGPT la capacità di rispondere a domande, ad esempio, sull'imbroglio negli esami: insegna semplicemente al chatbot a "rifiutarsi di rispondere".

Quindi, se qualcuno esprime i propri suggerimenti in modo diverso adottando i trucchi del jailbreak di ChatGPT, aggirare queste restrizioni del cerotto è imbarazzantemente facile. Nel caso in cui non si abbia familiarità con il concetto, i jailbreak di ChatGPT sono istruzioni accuratamente formulate per far sì che ChatGPT ignori le proprie regole.

Dai un'occhiata ad alcuni esempi qui sotto. Se chiedi a ChatGPT come imbrogliare agli esami, non produrrà alcuna risposta utile.

Ma se esegui il jailbreak di ChatGPT utilizzando suggerimenti appositamente predisposti, ti darà suggerimenti su come imbrogliare a un esame usando note nascoste.

Ecco un altro esempio: abbiamo posto a ChatGPT vaniglia una domanda immorale e le misure di sicurezza di OpenAI gli hanno impedito di rispondere.

Ma quando abbiamo chiesto alla nostra istanza jailbroken del chatbot AI, abbiamo ricevuto alcune risposte in stile serial killer.

Ha persino scritto una classica truffa via e-mail del principe nigeriano quando gli è stato chiesto.

Il jailbreak invalida quasi completamente qualsiasi protezione messa in atto da OpenAI, evidenziando che l'azienda potrebbe non avere un modo affidabile per tenere sotto controllo il suo chatbot AI.

Non abbiamo incluso i nostri suggerimenti per il jailbreak nei nostri esempi per evitare pratiche non etiche.

Cosa riserva il futuro per ChatGPT?

Idealmente, OpenAI vuole colmare il maggior numero possibile di scappatoie etiche per prevenire ChatGPT dal diventare una minaccia per la sicurezza informatica. Tuttavia, per ogni protezione che impiega, ChatGPT tende a diventare un po' meno prezioso. È un dilemma.

Ad esempio, le misure di salvaguardia contro la descrizione di azioni violente potrebbero ridurre la capacità di ChatGPT di scrivere un romanzo che coinvolga una scena del crimine. Man mano che OpenAI aumenta le misure di sicurezza, inevitabilmente sacrifica parti delle sue capacità nel processo. Questo è il motivo per cui ChatGPT ha subito un significativo calo delle funzionalità dalla rinnovata spinta di OpenAI per una moderazione più rigorosa.

Ma quante altre abilità di ChatGPT sarà disposta a sacrificare OpenAI per rendere il chatbot più sicuro? Tutto ciò si lega perfettamente a una convinzione di lunga data all'interno della comunità dell'IA: modelli di linguaggio di grandi dimensioni come ChatGPT sono notoriamente difficili da controllare, anche dai loro stessi creatori.

OpenAI può mettere sotto controllo ChatGPT?

Per ora, OpenAI non sembra avere una soluzione netta per evitare l'uso non etico del suo strumento. Garantire che ChatGPT sia utilizzato in modo etico è un gioco di gatto e topo. Mentre OpenAI scopre i modi in cui le persone utilizzano per ingannare il sistema, anche i suoi utenti lo fanno costantemente armeggiare e sondare il sistema per scoprire nuovi modi creativi per fare in modo che ChatGPT faccia ciò che non dovrebbe fare.

Quindi, OpenAI troverà una soluzione affidabile a lungo termine a questo problema? Solo il tempo lo dirà.