L'idea che le tecnologie AI debbano essere regolamentate è un sentimento comune. La maggior parte dei governi, degli sviluppatori di prodotti di intelligenza artificiale e persino degli utenti ordinari di prodotti di intelligenza artificiale sono d'accordo su questo. Sfortunatamente, il modo migliore per regolamentare questo campo in rapida crescita è un enigma irrisolto.

Se lasciate incontrollate, le tecnologie AI possono sconvolgere negativamente il nostro modo di vivere e minacciare la nostra esistenza. Ma come possono i governi navigare nel labirinto di sfide che deriva da questo campo in rapida evoluzione?

1. Norme sulla privacy e sulla protezione dei dati

Una delle preoccupazioni principali delle tecnologie AI è la privacy e la sicurezza dei dati. I sistemi di intelligenza artificiale sono macchine affamate di dati. Hanno bisogno di dati per funzionare, più dati per essere efficienti e ancora più dati per migliorare. Sebbene questo non sia un problema, il modo in cui questi dati vengono reperiti, la loro natura e il modo in cui vengono elaborati e archiviati è uno dei maggiori punti di discussione sulle normative AI.

Considerando questo, il percorso logico da intraprendere è mettere in atto rigide normative sulla privacy dei dati che regolano i dati raccolta, archiviazione ed elaborazione, nonché i diritti delle persone fisiche, i cui dati vengono utilizzati, di accesso e controllo i loro dati. Le domande che queste normative probabilmente affronterebbero sono:

  • Che tipo di dati possono essere raccolti?
  • Alcuni dati privati ​​dovrebbero essere considerati tabù nell'IA?
  • In che modo le aziende di intelligenza artificiale dovrebbero gestire i dati personali sensibili, come le cartelle cliniche o le informazioni biometriche?
  • Le aziende di intelligenza artificiale dovrebbero essere tenute a implementare meccanismi che consentano alle persone di richiedere facilmente la cancellazione o la correzione dei propri dati personali?
  • Quali sono le conseguenze per le aziende di intelligenza artificiale che non rispettano le normative sulla privacy dei dati? Come dovrebbe essere monitorata la conformità e come dovrebbe essere assicurata l'applicazione?
  • Forse la cosa più importante, quale standard dovrebbero implementare le aziende di intelligenza artificiale per garantire la sicurezza della natura sensibile delle informazioni in loro possesso?

Queste domande e poche altre costituivano il punto cruciale di perché ChatGPT è stato temporaneamente bannato in Italia. A meno che queste preoccupazioni non vengano affrontate, lo spazio dell'intelligenza artificiale potrebbe essere un selvaggio west per la privacy dei dati e il divieto dell'Italia potrebbe rivelarsi un modello per i divieti di altri paesi in tutto il mondo.

2. Sviluppo di un quadro etico per l'IA

Le aziende di intelligenza artificiale si vantano spesso del loro impegno nei confronti delle linee guida etiche nello sviluppo di sistemi di intelligenza artificiale. Almeno sulla carta, sono tutti fautori di uno sviluppo responsabile dell'IA. Nei media, i dirigenti di Google hanno sottolineato come l'azienda prenda sul serio la sicurezza e l'etica dell'IA. Allo stesso modo, "IA sicura ed etica" è un mantra per il CEO di OpenAI, Sam Altman. Questi sono abbastanza lodevoli.

Ma chi fa le regole? Chi decide quali linee guida etiche per l'IA sono abbastanza buone? Chi decide che aspetto ha uno sviluppo sicuro dell'IA? In questo momento, ogni azienda di intelligenza artificiale sembra dare il proprio contributo allo sviluppo di un'IA responsabile ed etico. OpenAI, Anthropic, Google, Meta, Microsoft, tutti. Affidarsi semplicemente alle aziende di intelligenza artificiale per fare la cosa giusta è pericoloso.

IL le conseguenze di uno spazio AI non controllato possono essere catastrofiche. Lasciare che le singole aziende decidano quali linee guida etiche adottare e quali scartare è come un sonnambulismo verso un'apocalisse dell'IA. La soluzione? Un quadro di IA etico chiaro che garantisca:

  • I sistemi di intelligenza artificiale non svantaggiano o discriminano ingiustamente individui o determinati gruppi in base a razza, genere o stato socioeconomico.
  • I sistemi di intelligenza artificiale sono sicuri, protetti e affidabili e riducono al minimo il rischio di conseguenze indesiderate o comportamenti dannosi.
  • I sistemi di intelligenza artificiale sono costruiti tenendo presente il più ampio impatto sociale delle tecnologie di intelligenza artificiale.
  • Che gli esseri umani mantengano il controllo finale dei sistemi di intelligenza artificiale e del loro processo decisionale in modo trasparente.
  • I sistemi di intelligenza artificiale sono intenzionalmente limitati in modi vantaggiosi per gli esseri umani.

3. Agenzia di regolamentazione dedicata

A causa del suo potenziale impatto sulla civiltà umana, la discussione sulla sicurezza dell'IA è tipicamente parallela al rischio di una crisi sanitaria o di un disastro nucleare. Per evitare potenziali incidenti nucleari è necessaria un'agenzia dedicata come la NRC (Nuclear Regulatory Commission) degli Stati Uniti. Per evitare il rischio di pericolose crisi sanitarie è necessaria l'istituzione della FDA (Food and Drug Administration)

Allo stesso modo, per garantire che le cose non vadano male nello spazio dell'IA, è necessaria un'agenzia dedicata simile alla FDA e all'NRC poiché l'IA continua a fare incursioni aggressive in tutte le aree della nostra vita. Sfortunatamente, la questione della regolamentazione dell'IA all'interno del paese è delicata. È probabile che il lavoro di qualsiasi agenzia di regolamentazione dedicata sia incredibilmente duro senza la cooperazione transfrontaliera. Proprio come la NRC (Nuclear Regulatory Commission) degli Stati Uniti deve lavorare mano nella mano con l'energia atomica internazionale Agenzia (AIEA) per essere al suo meglio, qualsiasi agenzia di regolamentazione dell'IA interna dedicata avrebbe bisogno anche di un analogo internazionale.

Tale agenzia sarebbe responsabile di quanto segue:

  • Sviluppo di regolamenti AI
  • Garantire la conformità e l'applicazione
  • Supervisione del processo di revisione etica dei progetti di intelligenza artificiale
  • Collaborazione e cooperazione transnazionale sulla sicurezza e l'etica dell'IA

4. Affrontare i problemi di copyright e proprietà intellettuale

Le leggi sul copyright e i quadri giuridici esistenti si sgretolano di fronte all'Intelligenza Artificiale. Il modo in cui sono progettati gli strumenti di intelligenza artificiale, in particolare gli strumenti di intelligenza artificiale generativa, li fa sembrare una macchina per la violazione del copyright pubblicamente approvata su cui non puoi fare nulla.

Come? Ebbene, molti dei sistemi di IA odierni vengono addestrati utilizzando materiali protetti da copyright. Sai, articoli protetti da copyright, canzoni protette da copyright, immagini protette da copyright, ecc. Ecco come piacciono gli strumenti ChatGPT, Bing AI e Google Bard possono fare le cose fantastiche che fanno.

Sebbene questi sistemi stiano chiaramente sfruttando la proprietà intellettuale delle persone, il modo in cui lo fanno questi sistemi di intelligenza artificiale non è diverso da un essere umano che legge un libro protetto da copyright, ascolta canzoni protette da copyright o guarda canzoni protette da copyright immagini.

Puoi leggere un libro protetto da copyright, apprendere nuovi fatti da esso e utilizzare quei fatti come base per il tuo libro. Puoi anche ascoltare una canzone protetta da copyright come ispirazione per creare la tua musica. In entrambi i casi, hai utilizzato materiali protetti da copyright, ma ciò non significa necessariamente che il prodotto derivato violi il copyright dell'originale.

Sebbene questa sia una spiegazione logica per spiegare il pasticcio che l'IA fa delle leggi sul copyright, danneggia comunque i proprietari dei diritti d'autore e della proprietà intellettuale. In considerazione di ciò, le normative sono necessarie per:

  • Definire chiaramente la responsabilità e le responsabilità di tutte le parti coinvolte nel ciclo di vita di un sistema di IA. Ciò include chiarire i ruoli di ogni parte, dagli sviluppatori di intelligenza artificiale agli utenti finali, per garantire che siano responsabili le parti sono ritenute responsabili per qualsiasi violazione del copyright o violazioni della proprietà intellettuale commesse da AI sistemi.
  • Rafforzare i quadri di copyright esistenti e forse introdurre leggi sul copyright specifiche per l'IA.
  • Per garantire l'innovazione nello spazio AI salvaguardando i diritti dei creatori originali, AI regolamenti dovrebbero ridefinire i concetti di fair use e lavoro trasformativo nel contesto di Contenuti generati dall'intelligenza artificiale. Sono necessarie definizioni e linee guida più chiare per garantire che lo spazio AI possa continuare a migliorare rispettando i limiti del diritto d'autore. È essenziale trovare un equilibrio tra innovazione e salvaguardia dei diritti dei creatori di contenuti.
  • Percorsi chiari per la collaborazione con i titolari dei diritti. Se i sistemi di intelligenza artificiale utilizzeranno comunque la proprietà intellettuale delle persone, dovrebbero esserci percorsi o strutture chiari per gli sviluppatori di intelligenza artificiale e titolari dei diritti a collaborare, soprattutto in termini di compensi finanziari, se il lavoro derivato da tali proprietà intellettuali è commercializzato.

La regolamentazione dell'IA è una soluzione disperatamente necessaria

Mentre l'intelligenza artificiale è emersa come una soluzione promettente a molti dei nostri problemi sociali, l'IA stessa sta rapidamente diventando un problema che necessita di una soluzione urgente. È tempo di fare un passo indietro, riflettere e apportare le correzioni necessarie per garantire l'impatto positivo dell'IA sulla società. Abbiamo un disperato bisogno di una ricalibrazione urgente del nostro approccio alla costruzione e all'utilizzo dei sistemi di intelligenza artificiale.