FraudGPT è un modello linguistico messo a punto per assistere i criminali nelle attività fraudolente. Scopri cosa significa proteggersi da potenziali minacce.
L'ascesa dell'intelligenza artificiale (AI) è un'arma a doppio taglio. Come ogni tecnologia trasformativa, l'IA offre un potenziale immenso ma anche enormi rischi. Nonostante l'enfatica spinta a regolamentare l'IA, gli attori delle minacce sembrano aver anticipato la curva.
Un nuovo strumento in stile ChatGPT, FraudGPT, sta guadagnando terreno tra i criminali informatici, consentendo loro di automatizzare ed eseguire meglio gran parte delle loro operazioni di frode. Chiunque può diventare una vittima, quindi è importante rimanere informati. Ecco tutto ciò che sappiamo finora su FraudGPT.
Cos'è FraudGPT?
FraudGPT è uno strumento di intelligenza artificiale alimentato da un modello di linguaggio di grandi dimensioni particolarmente ottimizzato per aiutare i criminali informatici a commettere crimini informatici. Lo strumento AI basato su abbonamento consente agli attori delle minacce di facilitare le loro attività criminali come il carding, il phishing e la creazione di malware.
Sebbene i dettagli sullo strumento rimangano molto limitati, i ricercatori di Netenrich, una società di ricerca sulla sicurezza, hanno scoperto diversi annunci sul dark web che pubblicizzano lo strumento. Secondo il rapporto di ricerca di Netenrich, le tariffe di abbonamento vanno da $ 200 al mese a $ 1.700 all'anno.
Per immaginare meglio lo strumento, puoi pensare a FraudGPT come ChatGPT ma per frode. Ma come funziona esattamente FraudGPT e in che modo viene utilizzato dai criminali informatici?
Come funziona FraudGPT?
Fondamentalmente, FraudGPT non è significativamente diverso da qualsiasi strumento basato su un modello linguistico di grandi dimensioni. In altre parole, lo strumento stesso è un'interfaccia interattiva che consente ai criminali di accedere a un tipo speciale di modello linguistico che è stato messo a punto per commettere crimini informatici.
Ancora non capisci? Ecco una vaga idea di cosa stiamo parlando. Nei primi giorni del lancio di ChatGPT, il chatbot AI poteva essere utilizzato per fare praticamente qualsiasi cosa, incluso aiutare i criminali informatici a creare malware. Ciò è stato possibile perché il modello linguistico sottostante di ChatGPT è stato addestrato su un set di dati che probabilmente conteneva campioni di un'ampia gamma di dati, inclusi dati che potrebbero aiutare un'impresa criminale.
I modelli di linguaggio di grandi dimensioni sono in genere alimentati di tutto, dalle cose buone, come teorie scientifiche, informazioni sulla salute e politica, a quelli meno buoni, come campioni di codice malware, messaggi di carding e campagne di phishing e altri criminali materiali. Quando si ha a che fare con il tipo di set di dati necessari per addestrare modelli linguistici come il tipo che alimenta ChatGPT, è quasi inevitabile che il modello contenga campioni di materiali indesiderati.
Nonostante gli sforzi tipicamente meticolosi per eliminare i materiali indesiderati nel set di dati, alcuni sfuggono, e di solito sono ancora sufficienti per dare al modello la capacità di generare materiali per facilitare crimine informatico. Ecco perché con la destra ingegneria tempestiva, puoi ottenere strumenti come ChatGPT, Google Bard e Bing AI per aiutarti a scrivere e-mail di truffa o malware per computer.
Se strumenti come ChatGPT possono aiutare i criminali informatici a commettere crimini nonostante tutti gli sforzi per rendere sicuri questi chatbot di intelligenza artificiale, ora pensa a potere che uno strumento come FraudGPT potrebbe offrire, considerando che è stato specificamente messo a punto su materiali dannosi per renderlo adatto crimine informatico. È come se il gemello malvagio di ChatGPT assumesse steroidi.
Quindi, per utilizzare lo strumento, i criminali potrebbero semplicemente sollecitare il chatbot come farebbero con ChatGPT. Potrebbero chiedergli, ad esempio, di scrivere un'e-mail di phishing per Jane Doe, che lavora presso l'azienda ABC, o magari chiedergli di scrivere malware utilizzando C++ per rubare tutti i file PDF da un computer Windows 10. Fondamentalmente, i criminali inventerebbero solo una meccanizzazione malvagia e lascerebbero che il chatbot faccia il lavoro pesante.
Come puoi proteggerti da FraudGPT?
Nonostante sia un nuovo tipo di strumento, la minaccia rappresentata da FraudGPT non è fondamentalmente diversa. Si potrebbe dire che introduce più automazione ed efficienza ai metodi già consolidati di esecuzione del crimine informatico.
I criminali che utilizzano lo strumento sarebbero, almeno in teoria, in grado di scrivere e-mail di phishing più convincenti, pianificare meglio truffe e creare malware più efficaci, ma per lo più farebbero ancora affidamento sui metodi consolidati per eseguire i loro nefasti piani. Di conseguenza, si applicano ancora i modi stabiliti per proteggersi:
- Fai attenzione ai messaggi non richiesti che richiedono informazioni o che ti indirizzano a fare clic sui collegamenti. Non fornire informazioni o fare clic su collegamenti in questi messaggi a meno che tu non verifichi la fonte.
- Contatta direttamente le aziende utilizzando un numero indipendente e verificato per verificare la legittimità. Non utilizzare le informazioni di contatto fornite nei messaggi sospetti.
- Usa password complesse e univoche difficili da decifrare e abbracciare l'autenticazione a due fattori quando disponibile per tutti gli account. Non condividere mai password o codici che ti sono stati inviati.
- Controlla regolarmente gli estratti conto per attività sospette.
- Mantieni aggiornato il software e utilizza strumenti antivirus o antimalware.
- Distruggi i documenti contenenti informazioni di identificazione personale o finanziarie quando non sono più necessari.
Per ulteriori informazioni su come proteggersi, leggi la nostra guida su come proteggersi nell'era dell'IA.
Tieniti informato per proteggerti
L'emergere di strumenti come FraudGPT ci ricorda che, nonostante tutto il bene che l'IA può fare per noi, rappresenta ancora uno strumento molto potente nelle mani degli attori delle minacce.
Mentre i governi e le grandi aziende di intelligenza artificiale intraprendono una corsa frenetica per attuare modi migliori per regolamentare l'IA, lo è importante essere consapevoli della minaccia che l'IA rappresenta attualmente e prendere le precauzioni necessarie per proteggere te stesso.