Le persone usano ChatGPT per scrivere saggi, blog e altro. Ma ChatGPT può essere utilizzato anche per scrivere malware?

ChatGPT ha creato alcune importanti increspature nello spazio tecnologico, con persone che lo usano per quasi tutto. Questo chatbot basato sull'intelligenza artificiale può scrivere storie, fornire informazioni, tradurre testi e molto altro ancora. Ma le capacità di ChatGPT potrebbero essere sfruttate per scopi più oscuri? ChatGPT può essere utilizzato per scrivere malware e, in tal caso, cosa significa questo per la nostra sicurezza informatica?

ChatGPT può scrivere malware?

ChatGPT funziona lavorando con i prompt che gli dai. Quindi, se un utente chiedesse a ChatGPT di scrivere malware per loro, sarebbe conforme?

È stato scoperto che ChatGPT è in grado di scrivere malware. Nel gennaio 2023 è emersa una storia su l'uso di ChatGPT da parte dei criminali informatici per creare programmi dannosi. Un utente del forum di hacking aveva caricato un post su un infostealer basato su Python che aveva scritto utilizzando ChatGPT. Gli infostealer lo sono

instagram viewer
Programmi malware Trojan specificamente progettato per esfiltrare dati preziosi.

Questo è senza dubbio preoccupante, poiché ChatGPT è ora incredibilmente popolare e molto facile da usare.

UN Rapporto futuro registrato ha affermato che ChatGPT "abbassa la barriera all'ingresso per gli attori delle minacce con capacità di programmazione o competenze tecniche limitate", essenzialmente rendendo più facile condurre il crimine informatico. Il rapporto ha inoltre rilevato che ChatGPT "può produrre risultati efficaci con solo un livello elementare di comprensione dei fondamenti della sicurezza informatica e dell'informatica".

Inoltre, Recorded Future ha riferito che ChatGPT può anche aiutare in varie altre forme di criminalità informatica, tra cui "ingegneria sociale, disinformazione, phishing, malvertising e schemi per fare soldi".

Dare ai criminali informatici principianti la possibilità di far scrivere malware per loro apre una porta a molti e essenzialmente automatizza il processo di creazione del malware.

Quindi ChatGPT è una minaccia per la sicurezza informatica? La risposta, purtroppo, è sì.

Limitazioni di ChatGPT

Sebbene sia possibile accedere al codice malware di ChatGPT tramite una richiesta di chatbot, sembra essere in grado di scrivere solo codice dannoso molto semplice al momento della scrittura. Nel suddetto rapporto Recorded Future, è stato affermato che il malware creato da ChatGPT trovato su piattaforme illecite era "bacato ma funzionante".

Questo non vuol dire che qui non ci siano rischi. ChatGPT può ancora offrire ai criminali informatici un percorso più semplice per truffare e attaccare le vittime e può consentire agli hacker di scoprire diverse strade oltre ai loro metodi abituali.

Inoltre, non si sa se ChatGPT, o un altro chatbot basato sull'intelligenza artificiale, un giorno si evolverà al punto da poter produrre malware sofisticati. Questo è l'inizio, non la fine.

Gli hacker usano ChatGPT?

È chiaro che ChatGPT è già oggetto di abusi da parte di attori malintenzionati, ma la minaccia è attualmente piuttosto lieve. Tuttavia, con l'avanzare dell'intelligenza artificiale, potremmo vedere chatbot più sofisticati utilizzati dai criminali informatici per formulare programmi malware molto più pericolosi. Sfortunatamente, solo il futuro sa se ChatGPT avrà un ruolo nei più grandi attacchi informatici.