I lettori come te aiutano a sostenere MUO. Quando effettui un acquisto utilizzando i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Per saperne di più.

L'intelligenza artificiale (AI) ha il potenziale per cambiare la natura stessa della nostra società. E se gli strumenti di intelligenza artificiale che abbiamo attualmente a nostra disposizione sono un'indicazione di ciò che verrà, abbiamo molto da aspettarci.

Abbiamo anche molto di cui diffidare. Vale a dire, l'armamento dell'intelligenza artificiale da parte di criminali informatici e altri attori delle minacce. Questa non è una preoccupazione teorica e nemmeno i generatori di immagini AI sono immuni agli abusi.

Cosa sono i generatori di immagini AI? Come funzionano?

Se hai mai usato un generatore di immagini AI, hai una buona idea di cosa si tratti. Anche se non ne hai mai usato uno, molto probabilmente ti sei imbattuto in immagini generate dall'intelligenza artificiale sui social media e altrove. Il software oggi popolare funziona secondo un principio molto semplice: l'utente digita il testo e l'intelligenza artificiale genera un'immagine basata su quel testo.

instagram viewer

Quello che succede sotto il cofano è molto più complesso. L'intelligenza artificiale è migliorata molto negli ultimi anni e la maggior parte generatori di testo in immagine al giorno d'oggi sono i cosiddetti modelli di diffusione. Ciò significa che vengono "addestrati" per un lungo periodo di tempo su un numero enorme di testi e immagini, che è ciò che rende le loro creazioni così impressionanti e incredibilmente realistiche.

Ciò che rende questi strumenti di intelligenza artificiale ancora più impressionanti è il fatto che non si limitano a modificare le immagini esistenti o a combinare migliaia di immagini in una sola, ma creano anche nuove immagini originali da zero. Più persone usano questi generatori di testo in immagini, più informazioni ricevono e migliori diventano le loro creazioni.

Alcuni dei più noti I generatori di immagini AI sono Dream di WOMBO, DALL-E, Diffusione stabile, Midjourney, DeepAI, Fotor e Craiyon. Ne stanno spuntando di nuove a destra ea sinistra, e i giganti della tecnologia, incluso Google, ne stanno rilasciando di proprie, quindi possiamo solo speculare su cosa porterà il futuro.

4 modi in cui gli attori delle minacce armano i generatori di immagini AI

Come praticamente tutta la tecnologia, i generatori di immagini AI possono essere oggetto di abusi da parte di attori malevoli. In realtà, vengono già utilizzati per tutti i tipi di scopi nefasti. Ma esattamente che tipo di truffe e attacchi informatici può eseguire un criminale con l'aiuto dei generatori di immagini AI?

1. Ingegneria sociale

Una cosa ovvia che gli attori delle minacce potrebbero fare con i generatori di immagini AI è impegnarsi nell'ingegneria sociale; ad esempio, creare falsi profili sui social media. Alcuni di questi programmi possono creare immagini incredibilmente realistiche che assomigliano a fotografie autentiche di persone reali e un truffatore potrebbe utilizzare questi falsi profili di social media per la pesca al gatto.

A differenza delle foto di persone reali, quelle generate dall'intelligenza artificiale non possono essere scoperte tramite la ricerca inversa di immagini e il criminale informatico non deve lavorare con un numero limitato di fotografie per truffare il loro obiettivo: utilizzando l'intelligenza artificiale, possono generarne quante ne vogliono, costruendo un'identità online convincente da graffio.

Ma ci sono esempi reali di autori di minacce che utilizzano generatori di immagini AI per truffare le persone. Nell'aprile 2022, TechTalk Il blogger Ben Dickinson ha ricevuto un'e-mail da uno studio legale in cui affermava di aver utilizzato un'immagine senza autorizzazione. Gli avvocati hanno inviato per e-mail un avviso di violazione del copyright DMCA, dicendo a Dickinson che doveva collegarsi a un loro cliente o rimuovere l'immagine.

Dickinson ha cercato su Google lo studio legale e ha trovato il sito ufficiale. Sembrava tutto del tutto legittimo; il sito conteneva anche le foto di 18 avvocati, complete delle loro biografie e credenziali. Ma niente di tutto ciò era reale. Le foto sono state tutte generate da AI e sono state inviate le presunte notifiche di violazione del copyright da qualcuno che cerca di estorcere backlink da ignari blogger, come parte di un non etico, black cappello SEO (ottimizzazione per i motori di ricerca) strategia.

2. Truffe di beneficenza

Quando devastanti terremoti hanno colpito la Turchia e la Siria nel febbraio 2023, milioni di persone in tutto il mondo hanno espresso la loro solidarietà alle vittime donando vestiti, cibo e denaro.

Secondo un rapporto di BBC, i truffatori ne hanno approfittato, utilizzando l'intelligenza artificiale per creare immagini realistiche e sollecitare donazioni. Un truffatore ha mostrato immagini di rovine generate dall'intelligenza artificiale su TikTok Live, chiedendo donazioni ai propri spettatori. Un altro ha pubblicato un'immagine generata dall'intelligenza artificiale di un vigile del fuoco greco che salva un bambino ferito dalle rovine e ha chiesto ai suoi seguaci donazioni in Bitcoin.

Si può solo immaginare che tipo di truffe di beneficenza i criminali gestiranno in futuro con l'aiuto dell'intelligenza artificiale, ma è lecito ritenere che miglioreranno solo nell'abusare di questo software.

3. Deepfake e disinformazione

Governi, gruppi di attivisti e think tank hanno a lungo messo in guardia contro il pericoli dei deepfake. I generatori di immagini AI aggiungono un altro componente a questo problema, dato quanto sono realistiche le loro creazioni. In effetti, nel Regno Unito, c'è persino uno spettacolo comico chiamato Deep Fake Neighbor Wars che trova umorismo in improbabili accoppiamenti di celebrità. Cosa impedirebbe a un agente di disinformazione di creare un'immagine falsa e di promuoverla sui social media con l'aiuto di bot?

Ciò può avere conseguenze nella vita reale, come è quasi successo nel marzo 2022, quando è circolato online un falso video che ritraeva il presidente ucraino Volodymyr Zelensky che ordinava agli ucraini di arrendersi, per National Public Radio, Radio Pubblica. Ma questo è solo un esempio, perché le possibilità sono quasi infinite e ci sono innumerevoli modi in cui a l'attore della minaccia potrebbe danneggiare la reputazione di qualcuno, promuovere una falsa narrativa o diffondere notizie false con l'aiuto dell'IA.

4. Frode pubblicitaria

TrendMicro i ricercatori hanno scoperto nel 2022 che i truffatori utilizzavano contenuti generati dall'intelligenza artificiale per creare pubblicità fuorvianti e promuovere prodotti loschi. Hanno creato immagini che suggerivano alle celebrità famose di utilizzare determinati prodotti e hanno pubblicato campagne pubblicitarie basate su tali immagini.

Ad esempio, un annuncio per una "opportunità di consulenza finanziaria" presentava il miliardario Elon Musk, fondatore e CEO di Tesla. Ovviamente, Musk non ha mai approvato il prodotto in questione, ma il filmato generato dall'IA lo faceva sembrare così, presumibilmente attirando spettatori ignari a fare clic sugli annunci.

AI e sicurezza informatica: una questione complessa che dobbiamo affrontare

In futuro, le autorità di regolamentazione del governo e gli esperti di sicurezza informatica dovranno probabilmente lavorare insieme per affrontare la minaccia emergente del crimine informatico basato sull'intelligenza artificiale. Ma come possiamo regolamentare l'IA e proteggere la gente comune, senza soffocare l'innovazione e limitare le libertà digitali? Questa domanda sembrerà grande per gli anni a venire.

Fino a quando non c'è una risposta, fai il possibile per proteggerti: controlla attentamente tutte le informazioni che vedi online, evita siti Web ombreggiati, utilizzare software sicuro, mantenere aggiornati i dispositivi e imparare a utilizzare l'intelligenza artificiale per il proprio vantaggio.