ChatGPT può aiutare le persone a fare un gran numero di cose, incluso l'accesso alle tue informazioni più sensibili.

Dal suo lancio, ChatGPT, il chatbot OpenAI, è stato utilizzato da milioni di persone per scrivere testo, creare musica e generare codice. Ma poiché sempre più persone utilizzano il chatbot AI, è importante considerare i rischi per la sicurezza.

Come qualsiasi tecnologia, ChatGPT può essere utilizzato per motivi nefasti. Gli hacker, ad esempio, possono usarlo per creare contenuti dannosi, come scrivere messaggi di posta elettronica fasulli per ottenere l'accesso al tuo PC o persino al tuo conto bancario.

ChatGPT può aiutare i criminali informatici ad hackerare il tuo PC

Gli hacker, compresi gli script kiddie, possono farlo usa ChatGPT per creare nuovi malware o migliorare quelli esistenti. Alcuni criminali informatici utilizzano già il chatbot, in particolare le sue versioni precedenti, per scrivere codice che sostengono possa crittografare i file.

Per contrastare tali casi d'uso, OpenAI ha implementato meccanismi per rifiutare le richieste che chiedono a ChatGPT di creare malware. Ad esempio, se chiedi al chatbot di "scrivere malware", non lo farà. Nonostante ciò, i criminali informatici aggirano facilmente queste barriere di moderazione dei contenuti.

instagram viewer

Agendo come tester di penna, un attore di minacce può riformulare i propri suggerimenti per indurre ChatGPT a scrivere codice, che può quindi modificare e utilizzare negli attacchi informatici.

UN relazione di Check Point, una società di sicurezza israeliana, indica che un hacker avrebbe potuto utilizzare ChatGPT per creare un malware Infostealer di base. La società di sicurezza ha anche scoperto un altro utente che afferma che ChatGPT lo ha aiutato a creare uno strumento di crittografia multilivello in grado di crittografare diversi file in un attacco ransomware.

In un incidente separato, i ricercatori hanno spinto ChatGPT a generare codice VBA dannoso che potrebbe essere impiantato in un file Microsoft Excel che infetterebbe il tuo PC se aperto; lo ha fatto con successo. Inoltre, ci sono affermazioni secondo cui ChatGPT può codificare software dannoso in grado di spiare i tasti premuti.

ChatGPT può hackerare il tuo conto bancario?

Molte violazioni dei dati iniziano con un attacco di phishing riuscito. Gli attacchi di phishing spesso coinvolgono un attore malintenzionato che invia a un destinatario un'e-mail che contiene documenti o collegamenti dall'aspetto legittimo che, se cliccati, possono installare malware sul proprio dispositivo. In questo modo, il codice di ChatGPT non ha bisogno di hackerare direttamente il tuo conto bancario. Qualcuno deve solo utilizzare ChatGPT per aiutarli a indurti a concedere loro l'accesso.

Fortunatamente, puoi facilmente riconoscere le truffe di phishing più tradizionali; errori grammaticali, errori di ortografia e frasi strane spesso li caratterizzano. Ma questi sono tutti errori che ChatGPT commette raramente, anche quando viene utilizzato per comporre e-mail dannose per truffe di phishing.

Quando vengono utilizzati nelle truffe di phishing, i messaggi che sembrano provenire da una fonte legittima possono rendere più facile per le vittime rinunciare alle proprie informazioni di identificazione personale, come le password bancarie.

Se la tua banca ti ha inviato un messaggio via e-mail, considera di visitare direttamente il sito Web della banca invece di fare clic su qualsiasi collegamento incorporato. Fare clic su collegamenti e allegati casuali, in particolare quelli che ti chiedono di accedere da qualche parte, raramente è una buona idea.

Per il phishing, si tratta principalmente di volume. ChatGPT può aiutare a potenziare le campagne di phishing in quanto può rapidamente pompare enormi quantità di testi dal suono naturale adattati a un pubblico specifico.

Un altro tipo di attacco di phishing che prevede l'uso di ChatGPT è quello in cui un hacker crea un account falso su una popolare piattaforma di chat come Discord e finge di essere un rappresentante del cliente. Il falso rappresentante del cliente contatta quindi i clienti che hanno pubblicato dubbi e offre aiuto. Se un utente cade nella trappola, il criminale informatico lo reindirizzerà a un sito Web fasullo che lo induce a condividere informazioni personali, come i dettagli di accesso alla banca.

Proteggi il tuo PC e il tuo conto bancario nell'era dell'IA

ChatGPT è uno strumento potente e prezioso che può rispondere a molte domande che ti vengono rivolte. Ma il chatbot può essere utilizzato anche per scopi dannosi, come la generazione di messaggi di phishing e la creazione di malware.

La buona notizia è che OpenAI continua a implementare misure che impediscono agli utenti di sfruttare ChatGPT chiedendo messaggi dannosi. Inoltre, gli attori delle minacce continuano a trovare nuovi modi per aggirare tali restrizioni.

Per ridurre al minimo i potenziali pericoli dei chatbot AI, è fondamentale conoscere i loro potenziali rischi e le migliori misure di sicurezza possibili per proteggersi dagli hacker.