Che tu stia utilizzando ChatGPT o un altro chatbot, devi essere consapevole delle potenziali minacce che mettono in discussione la privacy dei tuoi dati.
I chatbot esistono da anni, ma l’ascesa di grandi modelli linguistici, come ChatGPT e Google Bard, ha dato al settore dei chatbot una nuova prospettiva di vita.
Milioni di persone ora utilizzano chatbot IA in tutto il mondo, ma ci sono alcuni importanti rischi e preoccupazioni per la privacy da tenere a mente se vuoi provare uno di questi strumenti.
1. Raccolta dati
La maggior parte delle persone non usa i chatbot solo per salutare. I chatbot moderni sono progettati per elaborare e rispondere a domande e richieste complesse, con gli utenti che spesso includono molte informazioni nelle loro richieste. Anche se stai facendo solo una domanda semplice, non vuoi che vada oltre la conversazione.
Secondo Sezione di supporto di OpenAI, puoi eliminare i registri della chat di ChatGPT ogni volta che lo desideri e tali registri verranno poi cancellati definitivamente dai sistemi di OpenAI dopo 30 giorni. Tuttavia, la società conserverà ed esaminerà alcuni registri delle chat se sono stati contrassegnati per contenuti dannosi o inappropriati.
Un altro popolare chatbot AI, Claude, tiene traccia anche delle tue conversazioni precedenti. Centro di supporto di Anthropic afferma che Claude tiene traccia "delle tue richieste e dei tuoi risultati nel prodotto per fornirti un'esperienza di prodotto coerente nel tempo in conformità con i tuoi controlli". Voi può cancellare le tue conversazioni con Claude, quindi dimentica di cosa hai parlato, ma questo non significa che Anthropic cancellerà immediatamente i tuoi log dal suo sistemi.
Ciò, ovviamente, fa sorgere la domanda: i miei dati vengono conservati o no? ChatGPT o altri chatbot utilizzano i miei dati?
Ma le preoccupazioni non si fermano qui.
Come apprende ChatGPT?
Per fornire informazioni, vengono addestrati grandi modelli linguistici con enormi quantità di dati. Secondo Focus sulla scienza, Solo ChatGPT-4 ha ricevuto 300 miliardi di parole di informazioni durante il periodo di formazione. Questo non è preso direttamente da alcune enciclopedie. Piuttosto, gli sviluppatori di chatbot utilizzano masse di informazioni provenienti da Internet per addestrare i loro modelli. Ciò può includere dati provenienti da libri, film, articoli, voci di Wikipedia, post di blog, commenti e persino siti di recensioni.
Tieni presente che, a seconda della politica sulla privacy dello sviluppatore di chatbot, alcune delle fonti sopra menzionate potrebbero non essere utilizzate nella formazione.
Molti hanno criticato ChatGPT, sostenendo che sia una sorta di incubo in termini di privacy ChatGPT non può essere considerato attendibile. Allora perché è così?
È qui che le cose diventano un po' confuse. Se chiedi direttamente a ChatGPT-3.5 se ha accesso alle recensioni dei prodotti o ai commenti sugli articoli, otterrai un netto rifiuto. Come puoi vedere nello screenshot qui sotto, GPT-3.5 afferma che non gli è stato concesso l'accesso ai commenti degli articoli degli utenti o alle recensioni dei prodotti nella sua formazione.
Piuttosto, è stato formato utilizzando "una vasta gamma di testi provenienti da Internet, inclusi siti Web, libri, articoli e altro materiale scritto disponibile al pubblico fino a settembre 2021".
Ma è lo stesso anche per GPT-4?
Quando abbiamo chiesto a GPT-4, ci è stato detto che "OpenAI non ha utilizzato specifiche recensioni di utenti, dati personali o commenti ad articoli" durante il periodo di formazione del chatbot. Inoltre, GPT-4 ci ha detto che le sue risposte sono generate da "modelli nei dati su cui è stato addestrato, che consistono principalmente in libri, articoli e altri testi provenienti da Internet".
Quando abbiamo indagato ulteriormente, GPT-4 ha affermato che alcuni contenuti dei social media potrebbero, effettivamente, essere inclusi nei suoi dati di addestramento, ma i creatori rimarranno sempre anonimi. GPT-4 affermava specificatamente che "Anche se il contenuto di piattaforme come Reddit faceva parte dei dati di addestramento, [non ha] accesso a commenti, post o dati specifici che possano essere collegati a un individuo utente."
Un'altra parte degna di nota della risposta di GPT-4 è la seguente: "OpenAI non ha elencato esplicitamente tutte le fonti dati utilizzate". Di Naturalmente, sarebbe difficile per OpenAI elencare 300 miliardi di parole di fonti, ma questo lascia spazio a speculazione.
In un Articolo di Ars Technica, è stato affermato che ChatGPT raccoglie "informazioni personali ottenute senza consenso". Nello stesso articolo, è stata menzionata l'integrità contestuale, un concetto che si riferisce all'utilizzo delle informazioni di qualcuno solo nel contesto in cui si trovavano inizialmente utilizzato. Se ChatGPT viola questa integrità contestuale, i dati delle persone potrebbero essere a rischio.
Un altro punto di preoccupazione qui è la conformità di OpenAI con il Regolamento generale sulla protezione dei dati (GDPR). Si tratta di un regolamento imposto dall'Unione Europea per proteggere i dati dei cittadini. Vari paesi europei, tra cui Italia e Polonia, hanno avviato indagini su ChatGPT a causa delle preoccupazioni relative alla sua conformità al GDPR. Per un breve periodo ChatGPT è stato addirittura vietato in Italia per motivi di privacy.
OpenAI ha minacciato di ritirarsi dall’UE in passato a causa delle normative previste sull’IA, ma da allora questa decisione è stata ritirata.
ChatGPT potrebbe essere il più grande chatbot AI oggi, ma i problemi di privacy del chatbot non iniziano e finiscono con questo provider. Se utilizzi un chatbot losco con una politica sulla privacy poco brillante, le tue conversazioni potrebbero essere utilizzate in modo improprio o informazioni altamente sensibili potrebbero essere utilizzate nei suoi dati di addestramento.
2. Furto di dati
Come qualsiasi strumento o piattaforma online, i chatbot sono vulnerabili alla criminalità informatica. Anche se un chatbot facesse tutto il possibile per proteggere gli utenti e i loro dati, c'è sempre la possibilità che un hacker esperto riesca a infiltrarsi nei suoi sistemi interni.
Se un determinato servizio chatbot memorizzasse le tue informazioni sensibili, come i dettagli di pagamento per il tuo premio abbonamento, dati di contatto o simili, questi potrebbero essere rubati e sfruttati in caso di attacco informatico verificarsi.
Ciò è particolarmente vero se utilizzi un chatbot meno sicuro i cui sviluppatori non hanno investito in un'adeguata protezione della sicurezza. Non solo i sistemi interni dell'azienda potrebbero essere violati, ma il tuo account rischia di essere compromesso se non dispone di avvisi di accesso o di un livello di autenticazione.
Ora che i chatbot basati sull’intelligenza artificiale sono così popolari, i criminali informatici si sono naturalmente rivolti a utilizzare questo settore per le loro truffe. I siti Web e i plug-in ChatGPT falsi sono stati un grosso problema da quando il chatbot di OpenAI è diventato mainstream fine del 2022, con persone che cadono in truffe e divulgano informazioni personali con il pretesto di legittimità e Fiducia.
Nel marzo 2023, il MUO ha riferito di a falsa estensione ChatGPT per Chrome che ruba gli accessi a Facebook. Il plugin potrebbe sfruttare una backdoor di Facebook per hackerare account di alto profilo e rubare i cookie degli utenti. Questo è solo un esempio dei numerosi servizi ChatGPT fasulli progettati per truffare vittime inconsapevoli.
3. Infezione da malware
Se utilizzi un chatbot losco senza rendertene conto, potresti scoprire che il chatbot ti fornisce collegamenti a siti Web dannosi. Forse il chatbot ti ha avvisato di un omaggio allettante o ha fornito una fonte per una delle sue affermazioni. Se gli operatori del servizio hanno intenzioni illecite, lo scopo principale della piattaforma potrebbe essere quello di diffondere malware e truffe tramite collegamenti dannosi.
In alternativa, gli hacker potrebbero compromettere un servizio chatbot legittimo e utilizzarlo per diffondere malware. Se questo chatbot è composto da molte persone, migliaia o addirittura milioni di utenti saranno esposti a questo malware. Le app ChatGPT false sono state persino presenti sull'Apple App Store, quindi è meglio procedere con cautela.
In generale, non dovresti mai fare clic prima sui collegamenti forniti da un chatbot eseguendolo tramite un sito Web di controllo dei collegamenti. Questo può sembrare irritante, ma è sempre meglio essere sicuri che il sito a cui vieni indirizzato non abbia un design dannoso.
Inoltre, non dovresti mai installare plugin ed estensioni di chatbot senza prima verificarne la legittimità. Fai una piccola ricerca sull'app per vedere se è stata ben recensita ed esegui anche una ricerca presso lo sviluppatore dell'app per vedere se trovi qualcosa di losco.
I chatbot non sono impermeabili ai problemi di privacy
Come la maggior parte degli strumenti online odierni, i chatbot sono stati ripetutamente criticati per le loro possibili trappole in termini di sicurezza e privacy. Che si tratti di un fornitore di chatbot che prende scorciatoie in termini di sicurezza degli utenti o dei rischi continui di attacchi informatici e truffe, è fondamentale che tu sappia cosa sta raccogliendo su di te il tuo servizio chatbot e se utilizza un'adeguata sicurezza le misure.