Stai cercando di verificare se qualcosa è stato creato dall'intelligenza artificiale? I rilevatori spesso non funzionano e questa è una cattiva notizia per la tua sicurezza.

L'Intelligenza Artificiale (AI) trasformerà interi segmenti della nostra società, che ci piaccia o no, e questo include il World Wide Web.

Con software come ChatGPT a disposizione di chiunque disponga di una connessione Internet, sta diventando sempre più difficile separare i contenuti generati dall'intelligenza artificiale da quelli creati da un essere umano. Meno male che abbiamo rilevatori di contenuti AI, giusto?

I rilevatori di contenuti AI funzionano?

I rilevatori di contenuto AI sono strumenti specializzati che determinano se qualcosa è stato scritto da un programma per computer o da un essere umano. Se cerchi solo su Google le parole "Rilevatore di contenuto AI", vedrai ci sono dozzine di rivelatori là fuori, tutti affermano di poter distinguere in modo affidabile tra testo umano e non umano.

Il modo in cui funzionano è abbastanza semplice: incolli un pezzo di scrittura e lo strumento ti dice se è stato generato dall'intelligenza artificiale o meno. In termini più tecnici, utilizzando una combinazione di tecniche di elaborazione del linguaggio naturale e macchine algoritmi di apprendimento, i rilevatori di contenuto AI cercano modelli e prevedibilità ed effettuano chiamate basate su Quello.

instagram viewer

Sembra fantastico sulla carta, ma se hai mai usato uno strumento di rilevamento AI, sai benissimo che sono incostante, per usare un eufemismo. Il più delle volte, rilevano il contenuto scritto dall'uomo come AI o il testo creato da esseri umani come generato dall'IA. In effetti, alcuni sono imbarazzantemente cattivi in ​​quello che dovrebbero fare.

Quanto sono accurati i rilevatori di contenuti AI?

Se ti trovi negli Stati Uniti, il primo risultato di ricerca di Google per "Rilevatore di contenuto AI" è writer.com (precedentemente noto come Qordoba; questa è una piattaforma di contenuti AI che ha anche un proprio rilevatore). Ma quando incolli una sezione di questo random Stampa associata articolo nello strumento, afferma che ci sono ottime possibilità che sia stato generato dall'intelligenza artificiale.

Quindi, writer.com ha sbagliato.

Ad essere onesti, altri rilevatori di contenuti AI non sono certo migliori. Non solo producono falsi positivi, ma contrassegnano anche i contenuti AI come umani. E anche quando non lo fanno, è sufficiente apportare piccole modifiche al testo generato dall'intelligenza artificiale per passare a pieni voti.

Nel febbraio 2023, il docente dell'Università di Wollongong Armin Alimardani e il professore associato presso l'UNSW Sydney Emma A. Jane ha testato una serie di noti rilevatori di contenuto di intelligenza artificiale, stabilendo che nessuno di essi è affidabile. Nella loro analisi, pubblicata in La conversazione, Alimardani e Jane hanno concluso che questa "corsa agli armamenti" dell'IA tra generatori di testo e rilevatori rappresenterà una sfida significativa in futuro, soprattutto per gli educatori.

Ma non sono solo gli educatori e gli insegnanti ad avere motivo di preoccupazione: lo fanno tutti. Man mano che il testo generato dall'intelligenza artificiale diventa onnipresente, essendo in grado di distinguere tra ciò che è "reale" e ciò che non lo è, cioè effettivamente individuare quando qualcosa è scritto da AI, diventerà più difficile. Ciò avrà un impatto enorme su praticamente tutti i settori e le aree della società, anche le relazioni personali.

Le implicazioni dell'intelligenza artificiale per la sicurezza informatica e la privacy

Il fatto che non esistano meccanismi affidabili per determinare se qualcosa sia stato creato da un software o da un essere umano ha gravi implicazioni per la sicurezza informatica e la privacy.

Gli attori della minaccia lo sono già utilizzando ChatGPT per scrivere malware, generare e-mail di phishing, scrivere spam, creare siti di truffa e altro ancora. E mentre ci sono modi per difendersi da questo, è certamente preoccupante che non ci sia un software in grado di differenziare in modo affidabile tra contenuti organici e bot.

Anche le notizie false sono già un grosso problema. Con l'IA generativa nella foto, gli agenti di disinformazione sono in grado di scalare le loro operazioni in un modo senza precedenti. Una persona normale, nel frattempo, non ha modo di sapere se qualcosa che sta leggendo online è stato creato da un software o da un essere umano.

La privacy è tutta un'altra cosa. Prendi ChatGPT, per esempio. Era alimentato più di 300 miliardi di parole prima del suo lancio. Questo contenuto è stato estratto da libri, post di blog e forum, articoli e social media. È stato raccolto senza il consenso di nessuno e apparentemente con totale disprezzo per la protezione della privacy e del copyright.

Poi c'è anche il problema dei falsi positivi. Se il contenuto viene erroneamente contrassegnato come generato dall'intelligenza artificiale, non potrebbe portare alla censura, che è comunque un grosso problema? Per non parlare del danno che l'accusa di utilizzare testo creato dall'intelligenza artificiale potrebbe arrecare alla propria reputazione, sia online che nella vita reale.

Se c'è davvero una corsa agli armamenti tra AI generativa e rilevatori di contenuti, la prima sta vincendo. Quel che è peggio, sembra non esserci soluzione. Tutti abbiamo i nostri prodotti semicotti che non funzionano nemmeno la metà delle volte o che possono essere ingannati molto facilmente.

Come rilevare i contenuti AI: potenziali soluzioni

Il fatto che al momento non sembriamo avere risposte reali a questo problema non significa che non ne avremo in futuro. In effetti, ci sono già diverse proposte serie che potrebbero funzionare. La filigrana è una.

Quando si tratta di intelligenza artificiale e modelli di linguaggio profondo, il watermarking si riferisce all'incorporamento di una sorta di codice segreto nel testo generato dall'intelligenza artificiale (ad esempio modello di parole, stile di punteggiatura). Tale filigrana sarebbe invisibile ad occhio nudo, e quindi quasi impossibile da rimuovere, ma un software specializzato sarebbe in grado di rilevarla.

Infatti, nel 2022, Università del Maryland i ricercatori hanno sviluppato un nuovo metodo di filigrana per le reti neurali artificiali. Il capo ricercatore Tom Goldstein ha detto all'epoca che il suo team era riuscito a "dimostrare matematicamente" che la loro filigrana non può essere rimossa del tutto.

Per il momento, ciò che una persona normale può fare è affidarsi al proprio istinto e al proprio buon senso. Se c'è qualcosa di strano nel contenuto che stai leggendo, se sembra innaturale, ripetitivo, privo di fantasia, banale, potrebbe essere stato creato da un software. Naturalmente, dovresti anche verificare tutte le informazioni che vedi online, ricontrollare la fonte e stare lontano da siti Web loschi.

La rivoluzione dell'IA è in corso

Alcuni sostengono che la quinta rivoluzione industriale sia già qui, poiché l'intelligenza artificiale è al centro di quella che viene descritta come una convergenza del digitale e del fisico. Che sia davvero così o no, tutto ciò che possiamo fare è adattarci.

La buona notizia è che il settore della sicurezza informatica si sta adattando a questa nuova realtà e sta implementando nuove strategie di difesa con AI e machine learning in prima linea.