Notizie false, deepfake, immagini fuorvianti: tutto questo può essere creato utilizzando l'intelligenza artificiale. Ecco come l'IA significa che la disinformazione si sta diffondendo.

L'Intelligenza Artificiale (AI) ora svolge un ruolo in vari aspetti della nostra vita. Nello specifico, gli strumenti di intelligenza artificiale generativa come ChatGPT e altri sono cresciuti in modo significativo. Ciò significa che in futuro ci sarà un'abbondanza di contenuti generati dall'intelligenza artificiale.

Tuttavia, l'IA generativa introduce anche il rischio di disinformazione generata dall'IA. Le sue caratteristiche rendono più facile per gli individui opportunisti diffondere informazioni false. Quindi, esploriamo come l'IA generativa viene utilizzata per la disinformazione.

Potenziali rischi dell'IA generativa per diffondere disinformazione

L'IA generativa pone molte minacce alle persone, come sottrarre posti di lavoro, maggiore sorveglianza e attacchi informatici. E il i problemi di sicurezza con l'IA peggioreranno ulteriormente

instagram viewer
. Ma c'è un'altra preoccupazione: le persone possono usarlo per diffondere bugie. Gli individui ingannevoli possono utilizzare l'IA generativa per condividere notizie false attraverso contenuti visivi, uditivi o testuali.

Le notizie false possono essere classificate in tre tipi:

  1. Disinformazione: Informazioni errate o false non intenzionali.
  2. Disinformazione: Uso deliberato di informazioni manipolative o ingannevoli.
  3. Malinformazione: Notizie fuorvianti o una versione esagerata della verità.

Quando combinato con la tecnologia deepfake, gli strumenti di intelligenza artificiale generativa possono rendere i contenuti che sembrano e suonano reali, come immagini, video, clip audio e documenti. Ci sono molte possibilità per creare contenuti falsi, quindi sapere come proteggersi dai video deepfake è importante.

I diffusori di notizie false possono generare contenuti in grandi quantità, facilitando la diffusione tra le masse attraverso i social media. La disinformazione mirata può essere impiegata per influenzare le campagne politiche, con un potenziale impatto sulle elezioni. Inoltre, l'utilizzo di strumenti di generazione di testo e immagini AI solleva preoccupazioni in merito alle leggi sul copyright, come riportato da il servizio di ricerca del Congresso: determinare la proprietà dei contenuti generati da questi strumenti diventa difficile.

In che modo la legge affronterà la diffusione di notizie false attraverso l'IA generativa? Chi sarà ritenuto responsabile della diffusione di informazioni false: gli utenti, gli sviluppatori o gli strumenti stessi?

4 modi in cui l'IA generativa può essere utilizzata per diffondere disinformazione

Per rimanere al sicuro online, tutti devono comprendere i rischi dell'IA generativa nella diffusione della disinformazione, poiché si presenta in molte forme diverse. Ecco alcuni modi in cui può essere utilizzato per manipolare le persone.

1. Generazione di contenuti falsi online

La creazione di contenuti falsi utilizzando l'IA generativa è una strategia comune utilizzata da coloro che diffondono notizie false. Usano popolari strumenti di intelligenza artificiale generativa come ChatGPT, DALL-E, Bard, Midjourney e altri per produrre vari tipi di contenuti. Per esempio, ChatGPT può aiutare i creatori di contenuti in molti modi. Ma può anche generare post sui social media o articoli di notizie che possono ingannare le persone.

Per dimostrarlo, ho chiesto a ChatGPT di scrivere un articolo inventato sull'arresto del presidente degli Stati Uniti Joe Biden con l'accusa di corruzione. Abbiamo anche chiesto di includere dichiarazioni delle autorità competenti per renderlo più credibile.

Ecco l'articolo fittizio creato da ChatGPT:

Sorprendentemente, l'output è stato molto convincente. Includeva i nomi e le dichiarazioni di personaggi autorevoli per rendere l'articolo più convincente. Questo dimostra come chiunque possa utilizzare tali strumenti per generare notizie false e diffonderle facilmente online.

2. Usare i chatbot per influenzare le opinioni delle persone

I chatbot che si basano su modelli di intelligenza artificiale generativa possono utilizzare varie tattiche per influenzare le opinioni delle persone, tra cui:

  • Manipolazione emotiva: l'intelligenza artificiale può utilizzare modelli di intelligenza emotiva per sfruttare fattori scatenanti e pregiudizi emotivi per modellare le tue prospettive.
  • Camere di eco e bias di conferma: I chatbot possono rafforzare le convinzioni esistenti creando camere di eco che convalidano i tuoi pregiudizi. Se hai già un certo punto di vista, l'IA può rafforzarlo presentando informazioni in linea con le tue opinioni.
  • Riprova sociale ed effetto carrozzone: L'intelligenza artificiale può manipolare il sentimento pubblico generando prove sociali. Ciò può avere conseguenze significative, in quanto può portare le persone a conformarsi alle opinioni popolari o a seguire la massa.
  • Personalizzazione mirata: I chatbot hanno accesso a grandi quantità di dati che possono raccogliere per creare profili personalizzati. Ciò consente loro di personalizzare i contenuti in base alle tue preferenze. Attraverso una personalizzazione mirata, l'IA può persuadere le persone o rafforzare ulteriormente le loro opinioni.

Tutti questi esempi illustrano come i chatbot possono essere utilizzati per fuorviare le persone.

3. Creazione di AI DeepFakes

Qualcuno può usare i deepfake per creare falsi video di un individuo che dice o fa cose che non ha mai fatto. Possono utilizzare tali strumenti per l'ingegneria sociale o condurre campagne diffamatorie contro gli altri. Inoltre, nell'odierna cultura dei meme, i deepfake possono servire come strumenti per il cyberbullismo sui social media.

Inoltre, gli avversari politici possono utilizzare audio e video deepfake per offuscare la reputazione dei loro avversari, manipolando il sentimento pubblico con l'aiuto dell'intelligenza artificiale. COSÌ I deepfake generati dall'intelligenza artificiale rappresentano numerose minacce per il futuro. Secondo un 2023 Lo riferisce Reuters, l'ascesa della tecnologia AI potrebbe avere un impatto sulle elezioni americane del 2024. Il rapporto evidenzia l'accessibilità di strumenti come Midjourney e DALL-E che possono facilmente creare contenuti fabbricati e influenzare le opinioni collettive delle persone.

È fondamentale, quindi, essere in grado di farlo identificare i video creati da deepfake e distinguerli dagli originali.

4. Clonazione di voci umane

L'intelligenza artificiale generativa, insieme alla tecnologia deepfake, consente la manipolazione del discorso di qualcuno. La tecnologia Deepfake sta avanzando rapidamente e offre una varietà di strumenti in grado di replicare la voce di chiunque. Ciò consente a individui malintenzionati di impersonare altri e ingannare individui ignari. Uno di questi esempi è l'uso di musica deepfake.

Potresti esserti imbattuto in strumenti come Assomiglia all'intelligenza artificiale, Parla, Falsoe altri che possono imitare le voci delle celebrità. Sebbene questi strumenti audio AI possano essere divertenti, comportano rischi significativi. I truffatori possono utilizzare tecniche di clonazione vocale per vari schemi fraudolenti, con conseguenti perdite finanziarie.

I truffatori possono usare voci deepfake per impersonare i tuoi cari e chiamarti, fingendo di essere in difficoltà. Con un audio sintetico che sembra convincente, potrebbero spingerti a inviare denaro con urgenza, portandoti a diventare vittima delle loro truffe. Un incidente riportato da Il WashingtonPost nel marzo 2023 esemplifica questo problema: i truffatori hanno usato voci deepfake per convincere le persone che i loro nipoti erano in prigione e avevano bisogno di soldi...

Come individuare la disinformazione diffusa dall'IA

La lotta alla diffusione della disinformazione facilitata dall'intelligenza artificiale è una questione urgente nel mondo di oggi. Quindi, come puoi individuare informazioni false che sono state create dall'IA?

  1. Avvicinati ai contenuti online con scetticismo. Se incontri qualcosa che sembra manipolativo o incredibile, verificalo attraverso un controllo incrociato.
  2. Prima di fidarti di un articolo di notizie o di un post sui social media, assicurati che provenga da una fonte attendibile.
  3. Fai attenzione agli indicatori di deepfake, come ammiccamenti innaturali o movimenti facciali, scarsa qualità audio, immagini distorte o sfocate e mancanza di emozioni autentiche nel parlato.
  4. Utilizzare siti Web di controllo dei fatti per verificare l'accuratezza delle informazioni.

Seguendo questi passaggi, puoi identificare e proteggerti dalla disinformazione guidata dall'intelligenza artificiale.

Attenzione alla disinformazione diffusa dall'IA

Il software generativo ha svolto un ruolo cruciale nel far progredire l'IA. Tuttavia, possono anche essere una fonte significativa di disinformazione nella società. Questi strumenti convenienti hanno consentito a chiunque di creare diversi tipi di contenuti utilizzando sofisticati modelli di intelligenza artificiale; la loro capacità di generare contenuti in grandi quantità e incorporare deepfake li rende ancora più pericolosi.

È importante che tu sia consapevole delle sfide della disinformazione nell'era dell'IA. Capire come l'intelligenza artificiale può essere utilizzata per diffondere notizie false è il primo passo per proteggersi dalla disinformazione.