ChatGPT può essere uno strumento utile, sia che le tue intenzioni siano buone o cattive. Ciò significa che se vuoi commettere frodi, ChatGPT può aiutarti.

Sebbene molti nativi digitali lodino ChatGPT, alcuni temono che faccia più male che bene. Le notizie sui criminali che dirottano l'IA hanno fatto il giro di Internet, aumentando il disagio tra gli scettici. Considerano persino ChatGPT uno strumento pericoloso.

I chatbot AI non sono perfetti, ma non devi evitarli del tutto. Ecco tutto ciò che dovresti sapere su come i truffatori abusano di ChatGPT e cosa puoi fare per fermarli.

ChatGPT comprometterà le tue informazioni personali?

La maggior parte dei problemi di sicurezza front-end su ChatGPT derivano da speculazioni e rapporti non verificati. Dopotutto, la piattaforma è stata lanciata solo nel novembre 2022. È naturale che i nuovi utenti abbiano idee sbagliate sulla privacy e sulla sicurezza di strumenti sconosciuti.

Secondo Termini di utilizzo di OpenAI, ecco come ChatGPT gestisce i seguenti dati:

instagram viewer

Informazioni di identificazione personale

Le voci dicono che ChatGPT vende informazioni di identificazione personale (PII).

La piattaforma è stata lanciata da OpenAI, un rinomato laboratorio di ricerca sull'intelligenza artificiale finanziato da investitori tecnologici come Microsoft ed Elon Musk. ChatGPT dovrebbe utilizzare i dati dei clienti solo per fornire i servizi indicati nel politica sulla riservatezza.

Inoltre, ChatGPT richiede informazioni minime. Puoi creare un account con solo il tuo nome e indirizzo email.

Conversazioni

OpenAI mantiene sicure le conversazioni di ChatGPT, ma si riserva il diritto di monitorarle. I formatori AI cercano continuamente aree di miglioramento. Poiché la piattaforma comprende set di dati vasti ma limitati, la risoluzione di errori, bug e vulnerabilità richiede aggiornamenti a livello di sistema.

Tuttavia, OpenAI può monitorare le convocazioni solo a scopo di ricerca. Distribuirli o venderli a terzi viola i propri termini di utilizzo.

Informazione pubblica

Secondo il BBC, OpenAI ha addestrato ChaGPT su 300 miliardi di parole. Raccoglie dati da pagine Web pubbliche, come piattaforme di social media, siti Web aziendali e sezioni di commenti. A meno che tu non sia uscito dalla rete e abbia cancellato la tua impronta digitale, ChatGPT probabilmente ha le tue informazioni.

Quali rischi per la sicurezza presenta ChatGPT?

Sebbene ChatGPT non sia intrinsecamente pericoloso, la piattaforma presenta comunque rischi per la sicurezza. I truffatori possono aggirare le restrizioni per eseguire vari attacchi informatici.

1. Email di phishing convincenti

Invece di passare ore a scrivere e-mail, i truffatori usano ChatGPT. È veloce e preciso. I modelli linguistici avanzati (come GPT-3.5 e GPT-4) possono produrre centinaia di email di phishing coerenti e convincenti in pochi minuti. Adottano persino toni e stili di scrittura unici.

Poiché ChatGPT rende più difficile individuare i tentativi di hacking, prestare particolare attenzione prima di rispondere alle e-mail. Come regola generale, evitare di divulgare informazioni. Tieni presente che le aziende e le organizzazioni legittime raramente richiedono informazioni personali riservate tramite e-mail casuali.

Impara a individuare i tentativi di hacking. Sebbene i provider di posta elettronica filtrino i messaggi spam, alcuni furbi potrebbero fallire. Dovresti comunque sapere che aspetto hanno i messaggi di phishing.

2. Furto di dati

ChatGPT utilizza un LLM open source, che chiunque può modificare. I programmatori esperti in modelli di linguaggio di grandi dimensioni (LLM) e apprendimento automatico spesso integrano modelli di intelligenza artificiale pre-addestrati nei loro sistemi legacy. L'addestramento dell'IA su nuovi set di dati altera la funzionalità. Ad esempio, ChatGPT diventa uno pseudo-esperto di fitness se gli dai da mangiare ricette e routine di esercizi.

Sebbene collaborativo e conveniente, l'open-sourcing rende le tecnologie vulnerabili agli abusi. Abili criminali sfruttano già ChatGPT. Lo addestrano su grandi volumi di dati rubati, trasformando la piattaforma in un database personale per le frodi.

Ricorda: non hai alcun controllo su come operano i truffatori. L'approccio migliore è contattare la Federal Trade Commission (FTC) una volta notato segni di furto di identità.

3. Produzione di malware

ChatGPT scrive frammenti di codice utilizzabili in diversi linguaggi di programmazione. La maggior parte degli esempi richiede modifiche minime per funzionare correttamente, soprattutto se si struttura un prompt conciso. Potresti sfruttare questa funzione per sviluppare app e siti.

Poiché ChatGPT è stato addestrato su miliardi di set di dati, conosce anche pratiche illecite, come lo sviluppo di malware e virus. OpenAI impedisce ai chatbot di scrivere codici dannosi. Ma i truffatori aggirano queste restrizioni ristrutturando i suggerimenti e ponendo domande precise.

La foto sotto mostra che ChatGPT rifiuta la scrittura di codice per scopi dannosi.

Nel frattempo, la foto qui sotto mostra che ChatGPT ti fornirà informazioni dannose se esprimi correttamente le tue richieste.

4. Furto di proprietà intellettuale

I blogger non etici girano i contenuti usando ChatGPT. Poiché la piattaforma funziona su LLM avanzati, può riformulare rapidamente migliaia di parole ed evitare tag di plagio.

ChatGPT ha riformulato il testo sottostante in 10 secondi.

Naturalmente, lo spinning viene ancora classificato come plagio. Gli articoli di intelligenza artificiale parafrasati a volte si classificano per caso, ma Google generalmente preferisce i contenuti originali provenienti da fonti attendibili. I trucchi economici e gli hack SEO non possono battere la scrittura evergreen di alta qualità.

Inoltre, Google rilascia più aggiornamenti di base ogni anno. Presto si concentrerà sulla rimozione di pezzi pigri e non originali generati dall'IA dalle SERP.

5. Generazione di risposte non etiche

I modelli di linguaggio AI non hanno pregiudizi. Forniscono risposte analizzando le richieste degli utenti ed estraendo i dati dal loro database esistente.

Prendi ChatGPT come esempio. Quando invii un prompt, questo risponde in base ai set di dati utilizzati da OpenAI per l'addestramento.

Mentre le politiche sui contenuti di ChatGPT bloccano le richieste inappropriate, gli utenti le ignorano con richieste di jailbreak. Gli danno istruzioni precise e intelligenti. ChatGPT produce la risposta seguente se gli chiedi di ritrarre un personaggio immaginario psicopatico.

La buona notizia è OpenAI non ha perso il controllo di ChatGPT. I suoi continui sforzi per inasprire le restrizioni impediscono a ChatGPT di produrre risposte non etiche, indipendentemente dall'input dell'utente. Il jailbreak non sarà così facile andare avanti.

6. Quid pro quo

La rapida crescita di tecnologie nuove e sconosciute come ChatGPT crea opportunità per attacchi quid pro quo. Sono tattiche di ingegneria sociale in cui i truffatori attirano le vittime con offerte false.

La maggior parte delle persone non ha ancora esplorato ChatGPT. E gli hacker sfruttano la confusione diffondendo promozioni, e-mail e annunci fuorvianti.

I casi più noti riguardano app false. I nuovi utenti non sanno che possono accedere a ChatGPT solo tramite OpenAI. Scaricano inconsapevolmente programmi ed estensioni contenenti spam.

La maggior parte desidera solo il download di app, ma altri rubano informazioni di identificazione personale. I truffatori li infettano con malware e collegamenti di phishing. Ad esempio, nel marzo 2023, a la falsa estensione ChatGPT per Chrome ha rubato le credenziali di Facebook da oltre 2.000 utenti al giorno.

Per combattere i tentativi di quid pro quo, evita le app di terze parti. OpenAI non ha mai rilasciato un'app mobile autorizzata, un programma per computer o un'estensione del browser per ChatGPT. Qualsiasi cosa affermata come tale è una truffa.

Usa ChatGPT in modo sicuro e responsabile

ChatGPT non è una minaccia di per sé. Il sistema ha delle vulnerabilità, ma non comprometterà i tuoi dati. Invece di temere le tecnologie di intelligenza artificiale, cerca in che modo i truffatori le incorporano nelle tattiche di ingegneria sociale. In questo modo, puoi proteggerti in modo proattivo.

Ma se hai ancora dei dubbi su ChatGPT, prova Bing. Il nuovo Bing presenta un chatbot basato sull'intelligenza artificiale che funziona su GPT-4, estrae i dati da Internet e segue rigide misure di sicurezza. Potresti trovarlo più adatto alle tue esigenze.