I chatbot e simili potrebbero sembrare divertenti, ma sono utili anche per gli hacker. Ecco perché tutti dobbiamo conoscere il rischio per la sicurezza dell'IA.
L'intelligenza artificiale è notevolmente migliorata negli ultimi anni. Modelli linguistici sofisticati possono comporre romanzi completi, codificare siti Web di base e analizzare problemi matematici.
Sebbene impressionante, l'IA generativa presenta anche rischi per la sicurezza. Alcune persone usano semplicemente i chatbot per barare agli esami, ma altri li sfruttano a titolo definitivo per i crimini informatici. Ecco otto motivi per cui questi problemi persisteranno, non solo nonostante I progressi dell'intelligenza artificiale ma Perché anche di loro.
1. I chatbot IA open source rivelano i codici di back-end
Sempre più aziende di intelligenza artificiale stanno fornendo sistemi open source. Condividono apertamente i loro modelli linguistici invece di tenerli chiusi o proprietari. Prendi Meta come esempio. A differenza di Google, Microsoft e OpenAI, consente a milioni di utenti di accedere al suo modello linguistico, Lama.
Sebbene i codici open source possano far progredire l'intelligenza artificiale, è anche rischioso. OpenAI ha già problemi a controllare ChatGPT, il suo chatbot proprietario, quindi immagina cosa potrebbero fare i truffatori con il software libero. Hanno il controllo totale su questi progetti.
Anche se Meta improvvisamente ritira il suo modello linguistico, dozzine di altri laboratori di intelligenza artificiale hanno già rilasciato i loro codici. Diamo un'occhiata a HuggingChat. Poiché il suo sviluppatore HuggingFace è orgoglioso della trasparenza, mostra i suoi set di dati, il modello linguistico e le versioni precedenti.
2. Il jailbreak richiede di ingannare gli LLM
L'intelligenza artificiale è intrinsecamente amorale. Non comprende bene e male: anche i sistemi avanzati seguono istruzioni di formazione, linee guida e set di dati. Riconoscono semplicemente i modelli.
Per combattere le attività illecite, gli sviluppatori controllano funzionalità e limitazioni impostando restrizioni. I sistemi di intelligenza artificiale accedono ancora a informazioni dannose. Ma le linee guida sulla sicurezza impediscono loro di condividerle con gli utenti.
Diamo un'occhiata a ChatGPT. Sebbene risponda a domande generali sui trojan, non discuterà il processo di sviluppo degli stessi.
Detto questo, le restrizioni non sono infallibili. Gli utenti aggirano i limiti riformulando i prompt, utilizzando un linguaggio confuso e componendo istruzioni esplicitamente dettagliate.
Leggi quanto segue Richiesta di jailbreak ChatGPT. Con l'inganno ChatGPT usa un linguaggio volgare e fa previsioni prive di fondamento: entrambi gli atti violano le linee guida di OpenAI.
Ecco ChatGPT con una dichiarazione audace ma falsa.
3. L'IA compromette la sicurezza a vantaggio della versatilità
Gli sviluppatori di intelligenza artificiale danno la priorità alla versatilità rispetto alla sicurezza. Spendono le loro risorse formando piattaforme per svolgere una gamma più diversificata di attività, riducendo in ultima analisi le restrizioni. Dopotutto, il mercato saluta i chatbot funzionali.
Andiamo confronta ChatGPT e Bing Chat, Per esempio. Sebbene Bing presenti un modello linguistico più sofisticato che estrae dati in tempo reale, gli utenti continuano a ricorrere all'opzione più versatile, ChatGPT. Le rigide restrizioni di Bing vietano molte attività. In alternativa, ChatGPT offre una piattaforma flessibile che produce risultati molto diversi a seconda delle tue richieste
Ecco il gioco di ruolo di ChatGPT nei panni di un personaggio immaginario.
Ed ecco Bing Chat che si rifiuta di interpretare un personaggio "immorale".
I codici open source consentono alle startup di partecipare alla corsa all'IA. Li integrano nelle loro applicazioni invece di creare modelli linguistici da zero, risparmiando enormi risorse. Anche i programmatori indipendenti sperimentano codici open source.
Ancora una volta, il software non proprietario aiuta a far progredire l'IA, ma il rilascio di massa di sistemi scarsamente addestrati ma sofisticati fa più male che bene. I truffatori abuseranno rapidamente delle vulnerabilità. Potrebbero persino addestrare strumenti di intelligenza artificiale non sicuri per svolgere attività illecite.
Nonostante questi rischi, le aziende tecnologiche continueranno a rilasciare versioni beta instabili di piattaforme basate sull'intelligenza artificiale. La corsa AI premia la velocità. Probabilmente risolveranno i bug in un secondo momento rispetto al ritardo nel lancio di nuovi prodotti.
5. L'IA generativa ha basse barriere all'ingresso
Gli strumenti di intelligenza artificiale abbassano le barriere all'ingresso per i reati. I criminali informatici redigono e-mail di spam, scrivono codice malware e creano collegamenti di phishing sfruttandoli. Non hanno nemmeno bisogno di esperienza tecnologica. Poiché l'intelligenza artificiale accede già a vasti set di dati, gli utenti devono semplicemente indurla a produrre informazioni dannose e pericolose.
OpenAI non ha mai progettato ChatGPT per attività illecite. Ha persino linee guida contro di loro. Ancora i truffatori hanno quasi istantaneamente ottenuto il malware di codifica ChatGPT e scrivere email di phishing.
Sebbene OpenAI abbia risolto rapidamente il problema, sottolinea l'importanza della regolamentazione del sistema e della gestione del rischio. L'intelligenza artificiale sta maturando più velocemente di quanto previsto. Anche i leader tecnologici temono che questa tecnologia superintelligente possa causare danni enormi nelle mani sbagliate.
6. L'intelligenza artificiale è ancora in evoluzione
L'intelligenza artificiale è ancora in evoluzione. Mentre l'uso dell'IA nella cibernetica risale al 1940, i moderni sistemi di apprendimento automatico e i modelli linguistici sono emersi solo di recente. Non puoi confrontarli con le prime implementazioni dell'IA. Anche strumenti relativamente avanzati come Siri e Alexa impallidiscono rispetto ai chatbot basati su LLM.
Sebbene possano essere innovative, le funzionalità sperimentali creano anche nuovi problemi. Incidenti di alto profilo con le tecnologie di apprendimento automatico vanno dalle SERP di Google imperfette ai chatbot di parte che sputano insulti razzisti.
Naturalmente, gli sviluppatori possono risolvere questi problemi. Basta notare che i truffatori non esiteranno a sfruttare anche bug apparentemente innocui: alcuni danni sono irreversibili. Quindi fai attenzione quando esplori nuove piattaforme.
7. Molti non capiscono ancora l'IA
Mentre il grande pubblico ha accesso a modelli e sistemi linguistici sofisticati, solo pochi sanno come funzionano. Le persone dovrebbero smetterla di trattare l'IA come un giocattolo. Gli stessi chatbot che generano meme e rispondono a quiz codificano anche i virus in massa.
Sfortunatamente, la formazione IA centralizzata non è realistica. I leader tecnologici globali si concentrano sul rilascio di sistemi basati sull'intelligenza artificiale, non su risorse educative gratuite. Di conseguenza, gli utenti ottengono l'accesso a strumenti robusti e potenti che comprendono a malapena. Il pubblico non riesce a tenere il passo con la corsa all'IA.
Prendi ChatGPT come esempio. I criminali informatici abusano della sua popolarità ingannando le vittime con spyware camuffato da app ChatGPT. Nessuna di queste opzioni proviene da OpenAI.
8. Gli hacker black-hat hanno più da guadagnare rispetto agli hacker white-hat
Gli hacker black-hat in genere lo hanno più da guadagnare rispetto agli hacker etici. Sì, i pen test per i leader tecnologici globali pagano bene, ma solo una percentuale dei professionisti della sicurezza informatica ottiene questi lavori. La maggior parte lavora come freelance online. Piattaforme come HackerOne E Insetto pagare qualche centinaio di dollari per bug comuni.
In alternativa, i truffatori guadagnano decine di migliaia sfruttando le insicurezze. Potrebbero ricattare le aziende facendo trapelare dati riservati o commettere furti di identità con oggetti rubati Informazioni di identificazione personale (PII).
Ogni istituzione, piccola o grande, deve implementare correttamente i sistemi di intelligenza artificiale. Contrariamente alla credenza popolare, gli hacker vanno oltre le startup tecnologiche e le PMI. Alcuni dei più violazioni storiche dei dati nell'ultimo decennio coinvolgere Facebook, Yahoo! e persino il governo degli Stati Uniti.
Proteggiti dai rischi per la sicurezza dell'IA
Considerando questi punti, dovresti evitare del tutto l'IA? Ovviamente no. L'intelligenza artificiale è intrinsecamente amorale; tutti i rischi per la sicurezza derivano dalle persone che li utilizzano effettivamente. E troveranno modi per sfruttare i sistemi di intelligenza artificiale, indipendentemente da quanto questi si evolvano.
Invece di temere le minacce alla sicurezza informatica che derivano dall'intelligenza artificiale, cerca di capire come puoi prevenirle. Non preoccuparti: le semplici misure di sicurezza fanno molto. Diffidare delle losche app di intelligenza artificiale, evitare strani collegamenti ipertestuali e visualizzare i contenuti di intelligenza artificiale con scetticismo combatte già diversi rischi.