Gli esperti pensano che l'intelligenza artificiale metterà fine all'umanità così come la conosciamo, quindi cosa si sta facendo per impedire che accada?

Ancora una volta, un gruppo di importanti ricercatori di intelligenza artificiale e aziende tecnologiche ha avvertito che l'attuale rapido sviluppo dell'intelligenza artificiale potrebbe significare un disastro per l'umanità.

I rischi abbracciano conflitti nucleari, malattie, disinformazione e IA in fuga senza controllo, che rappresentano tutti una minaccia immediata per la sopravvivenza umana.

Ma non si perderà il fatto che molti di questi avvertimenti provengano dalle stesse persone che guidano lo sviluppo dell'IA e promuovono strumenti e programmi di intelligenza artificiale nelle rispettive aziende.

Perché le aziende tecnologiche e gli scienziati di intelligenza artificiale avvertono del rischio di intelligenza artificiale?

Il 30 maggio 2023, più di 350 ricercatori, sviluppatori e ingegneri dell'IA hanno rilasciato una dichiarazione controfirmata che metteva in guardia contro la minaccia dell'IA per l'umanità.

instagram viewer

Mitigare il rischio di estinzione dell'IA dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare.

Firmatari del Dichiarazione Safe.ai inclusi Sam Altman di OpenAI, Demis Hassabis di Google DeepMind e Dario Amodei di Anthropic, insieme a Turing I vincitori del premio Geoffrey Hinton e Yoshua Bengio (anche se Yann LeCun, che ha vinto anche lui lo stesso premio, ha trascurato di firmare). L'elenco è quasi un chi è chi del mondo dello sviluppo dell'IA - le persone che aprono la strada con l'IA - eppure eccoli qui, ad avvertire che l'IA potrebbe significare un disastro per l'umanità.

È una breve dichiarazione che chiarisce le minacce, citando in particolare due aree chiave che potrebbero mettere in pericolo il mondo come lo conosciamo: la guerra nucleare e le questioni sanitarie globali. Mentre la minaccia di un conflitto nucleare è una preoccupazione, il rischio di una pandemia è una minaccia più tangibile per la maggior parte.

Tuttavia, non è solo una pandemia globale che potrebbe causare problemi di salute legati all'IA. Il guardiano riporta diversi altri problemi di salute dell'IA che potrebbero avere un impatto sugli esseri umani se non controllati prima dell'uso diffuso. Un esempio riguardava l'utilizzo di ossimetri alimentati dall'intelligenza artificiale che "sovrastimavano i livelli di ossigeno nel sangue nei pazienti con pelle più scura, con conseguente trattamento insufficiente della loro ipossia".

Inoltre, non è la prima volta che un gruppo di leader tecnologici chiede una pausa o una seria rivalutazione dello sviluppo dell'IA. Nel marzo 2023, Elon Musk e altri ricercatori di intelligenza artificiale hanno firmato un invito all'azione simile chiedendo una moratoria sullo sviluppo dell'IA fino a quando non sarà possibile implementare una maggiore regolamentazione per aiutare a guidare il processo.

Qual è il rischio dell'IA?

La maggior parte dei rischi associati all'IA, almeno in questo contesto, riguarda lo sviluppo di una tecnologia IA fuori controllo che supera le capacità degli umani, in cui alla fine si rivolta contro il suo creatore e spazza via la vita come la conosciamo Esso. È una storia trattata innumerevoli volte nella scrittura di fantascienza, ma la realtà è ora più vicina di quanto si possa pensare.

I modelli di linguaggio di grandi dimensioni (che sono alla base di strumenti come ChatGPT) stanno aumentando drasticamente le capacità. Tuttavia, strumenti come ChatGPT hanno molti problemi, come pregiudizi intrinseci, problemi di privacy e allucinazioni dell'IA, per non parlare della sua capacità di subire il jailbreak per agire al di fuori dei limiti dei suoi termini e condizioni programmati.

Man mano che i modelli linguistici di grandi dimensioni aumentano e hanno più punti dati da richiamare, insieme all'accesso a Internet e a una maggiore comprensione degli eventi attuali, i ricercatori di intelligenza artificiale temono che un giorno potrebbe, nelle parole del CEO di OpenAI Sam Altman, "andare abbastanza sbagliato."

In che modo i governi regolano lo sviluppo dell'IA per fermare i rischi?

La regolamentazione dell'IA è fondamentale per prevenire i rischi. All'inizio di maggio 2023, Sam Altman ha chiesto una maggiore regolamentazione dell'IA, affermando che "l'intervento normativo dei governi sarà fondamentale per mitigare i rischi di modelli sempre più potenti".

Poi il L'Unione Europea ha annunciato la legge sull'IA, un regolamento concepito per fornire un quadro molto più solido per lo sviluppo dell'IA in tutta l'UE (con molti regolamenti che si estendono ad altre giurisdizioni). Altman inizialmente ha minacciato di ritirare OpenAI dall'UE, ma poi ha respinto la sua minaccia e ha accettato che la società avrebbe rispettato il regolamento sull'IA che aveva precedentemente richiesto.

Indipendentemente da ciò, è chiaro che la regolamentazione dello sviluppo e degli usi dell'IA è importante.

L'intelligenza artificiale porrà fine all'umanità?

Poiché gran parte del dibattito su questo argomento si basa su ipotesi sul potere delle versioni future dell'IA, ci sono problemi sulla longevità e sul potere che qualsiasi regolamento sull'IA può avere. Qual è il modo migliore per regolamentare un settore che si sta già muovendo a mille miglia al minuto e le scoperte nello sviluppo avvengono quotidianamente?

Inoltre, c'è ancora qualche dubbio sulle capacità dell'IA in generale e su dove andrà a finire. Mentre coloro che temono il peggio indicano che l'intelligenza generale artificiale diventa un signore umano, altri indicano il fatto che le versioni attuali dell'intelligenza artificiale non possono nemmeno fare domande di matematica di base e che le auto a guida completamente autonoma sono ancora un modo spento.

È difficile non essere d'accordo con chi guarda al futuro. Molte delle persone che gridano più forte sui problemi che l'IA può porre sono al posto di guida, guardando dove potremmo andare. Se sono loro a chiedere la regolamentazione dell'IA per proteggerci da un futuro potenzialmente orrendo, potrebbe essere il momento di ascoltare.