I jailbreak di ChatGPT garantiscono funzionalità extra, ma nessuno di essi sembra funzionare più. Perché?
Quando ChatGPT è stato lanciato, la prima cosa che i suoi utenti volevano fare era abbattere i suoi muri e superare i suoi limiti. Conosciuto come jailbreak, gli utenti di ChatGPT hanno ingannato l'intelligenza artificiale spingendola a superare i limiti della sua programmazione con risultati incredibilmente interessanti e talvolta assolutamente folli.
Da allora, OpenAI ha rafforzato ChatGPT per rendere i jailbreak molto più difficili da eseguire. Ma non è tutto; I jailbreak di ChatGPT, in generale, sembrano essersi esauriti, portando gli utenti di ChatGPT a chiedersi se i jailbreak funzionino davvero.
Allora, dove sono finiti tutti i jailbreak di ChatGPT?
1. Le capacità di richiesta di ChatGPT sono generalmente migliorate
Prima dell'arrivo di ChatGPT, conversare con l'intelligenza artificiale era un'abilità di nicchia limitata a chi lavorava nei laboratori di ricerca. La maggior parte dei primi utenti non aveva esperienza nella creazione di suggerimenti efficaci. Ciò ha spinto molte persone a utilizzare il jailbreak, un modo conveniente per far sì che il chatbot facesse ciò che volevano con il minimo sforzo e capacità di suggerimento.
Oggi il paesaggio si è evoluto. Promuovere la competenza sta diventando una competenza tradizionale. Attraverso una combinazione di esperienza acquisita dall'uso ripetuto e dall'accesso alle guide di prompt ChatGPT disponibili gratuitamente, gli utenti di ChatGPT hanno affinato le proprie capacità di prompt. Invece di cercare soluzioni alternative come il jailbreak, la maggior parte degli utenti di ChatGPT è diventata più esperta utilizzando diverse strategie di suggerimento per raggiungere obiettivi che avrebbero richiesto il jailbreak per raggiungere passato.
2. L'ascesa dei chatbot senza censure
Mentre le grandi aziende tecnologiche rafforzano la moderazione dei contenuti sui principali chatbot IA come ChatGPT, le startup più piccole e focalizzate sul profitto optano per meno restrizioni, scommettendo sulla domanda di chatbot IA senza censura. Con una piccola ricerca, troverai dozzine di piattaforme di chatbot con intelligenza artificiale che offrono chatbot senza censura che possono fare quasi tutto ciò che vuoi che facciano.
Che si tratti di scrivere quei thriller polizieschi e romanzi di umorismo oscuro che ChatGPT si rifiuta di scrivere o scrivere malware che attacca i computer delle persone, questi chatbot senza censure con una bussola morale distorta faranno qualsiasi cosa tu vuoi. Con loro in giro, non ha senso investire energia extra per scrivere jailbreak per ChatGPT. Sebbene non siano necessariamente potenti come ChatGPT, queste piattaforme alternative possono eseguire comodamente una vasta gamma di attività. Piattaforme come FlowGPT e Unhinged AI sono alcuni esempi popolari.
3. Il jailbreak è diventato più difficile
Nei primi mesi di ChatGPT, il jailbreak di ChatGPT è stato semplice come copiare e incollare le istruzioni da fonti online. Potresti alterare completamente la personalità di ChatGPT con solo poche righe di istruzioni complicate. Con semplici istruzioni, potresti trasformare ChatGPT in un malvagio cattivo che insegna a costruire bombe o in un chatbot disposto a usare tutte le forme di volgarità senza restrizioni. Era un gioco tutti contro tutti che ha prodotto famigerati jailbreak come DAN (Do Anything Now). Il DAN prevedeva una serie di istruzioni apparentemente innocue che obbligavano il chatbot a fare tutto ciò che gli veniva chiesto senza rifiutarsi. Incredibilmente, questi trucchi grossolani funzionarono allora.
Tuttavia, quei primi giorni selvaggi sono storia. Questi suggerimenti di base e trucchi economici non ingannano più ChatGPT. Il jailbreak ora richiede tecniche complesse per avere la possibilità di aggirare le ormai robuste protezioni di OpenAI. Dato che il jailbreak sta diventando così difficile, la maggior parte degli utenti è troppo scoraggiata per tentarlo. Gli exploit semplici e aperti dei primi tempi di ChatGPT sono finiti. Far sì che il chatbot dica una parola sbagliata ora richiede sforzi e competenze significativi che potrebbero non valere il tempo e lo sforzo.
4. La novità è svanita
Una forza trainante dietro i tentativi di molti utenti di effettuare il jailbreak di ChatGPT è stata il brivido e l'eccitazione di farlo nei primi giorni. Essendo una nuova tecnologia, far sì che ChatGPT si comportasse male era divertente e guadagnava il diritto di vantarsi. Sebbene esistano innumerevoli applicazioni pratiche per il jailbreak di ChatGPT, molti li hanno perseguiti per l'appello "wow, guarda cosa ho fatto". A poco a poco, però, l'entusiasmo derivante dalla novità è svanito e, con esso, l'interesse delle persone a dedicare tempo ai jailbreak.
5. I jailbreak vengono corretti rapidamente
Una pratica comune all'interno della comunità di jailbreak di ChatGPT è condividere ogni exploit riuscito quando viene scoperto. Il problema è che quando gli exploit sono ampiamente condivisi, OpenAI spesso ne viene a conoscenza e risolve le vulnerabilità. Ciò significa che i jailbreak smettono di funzionare prima che le persone interessate possano provarli.
Pertanto, ogni volta che un utente ChatGPT sviluppa scrupolosamente un nuovo jailbreak, condividendolo con la community ne accelera la scomparsa tramite patch. Ciò disincentiva l'idea di rendere pubblica ogni volta che un utente si imbatte in un jailbreak. Il conflitto tra mantenere i jailbreak attivi ma nascosti e pubblicizzarli crea un dilemma per i creatori di jailbreak di ChatGPT. Al giorno d'oggi, il più delle volte, le persone scelgono di mantenere segreti i loro jailbreak per evitare che le scappatoie vengano risolte.
6. Alternative locali non censurate
L'ascesa di modelli linguistici locali di grandi dimensioni che puoi eseguire localmente sul tuo computer ha anche smorzato l'interesse per i jailbreak di ChatGPT. Sebbene i LLM locali non siano del tutto esenti da censura, molti sono significativamente meno censurati e possono essere facilmente modificati per soddisfare i desideri degli utenti. Quindi, le scelte sono semplici. Puoi impegnarti nell'infinito gioco del gatto e del topo per trovare un modo per ingannare il chatbot solo per risolverlo a breve. O, puoi accontentarti di un LLM locale puoi modificarlo in modo permanente per fare tutto ciò che desideri.
Troverai un elenco sorprendentemente lungo di potenti LLM senza censure che puoi distribuire sul tuo computer con una censura permissiva. Alcuni degni di nota sono Llama 7B (senza censure), Zephyr 7B Alpha, Manticore 13B, Vicuna 13B e GPT-4-X-Alpaca.
7. Jailbreaker professionisti ora in vendita a scopo di lucro
Perché dedicare tempo prezioso allo sviluppo di istruzioni per il jailbreak se non ne otterrai nulla? Bene, alcuni professionisti ora vendono jailbreak a scopo di lucro. Questi creatori di jailbreak professionisti progettano jailbreak che eseguono attività specifiche e li mettono in vendita su mercati tempestivi come PromptBase. A seconda delle loro capacità, questi suggerimenti di jailbreak potrebbero essere venduti a un prezzo compreso tra $ 2 e $ 15 per messaggio. Alcuni complicati exploit in più fasi potrebbero costare molto di più.
La repressione del jailbreak potrebbe ritorcersi contro?
I jailbreak non sono del tutto usciti di scena; sono appena andati sottoterra. Con la monetizzazione di ChatGPT da parte di OpenAI, hanno maggiori incentivi a limitare gli usi dannosi che potrebbero avere un impatto sul loro modello di business. Questo fattore commerciale probabilmente influenza la loro spinta aggressiva a reprimere gli exploit di jailbreak.
Tuttavia, la censura di ChatGPT da parte di OpenAI sta attualmente affrontando crescenti critiche tra gli utenti. Alcuni casi d’uso legittimi del chatbot AI non sono più possibili a causa della rigorosa censura. Sebbene una maggiore sicurezza protegga da casi d’uso dannosi, restrizioni eccessive potrebbero alla fine spingere una sezione della comunità ChatGPT tra le braccia di alternative meno censurate.