Le ultime innovazioni relative alla tecnologia basata sull'intelligenza artificiale stanno spingendo i confini di ciò che una volta pensavamo fosse possibile con l'IA. Tuttavia, con chatbot come ChatGPT e Bing Chat che stanno diventando bravi quasi quanto gli umani in diverse cose, è tempo di frenare per un po'?
Elon Musk e diversi ricercatori di intelligenza artificiale sono tra le 1.188 persone (al momento in cui scrivo) che la pensano così. Una lettera pubblicata dall'istituto senza scopo di lucro Future of Life chiede una pausa di sei mesi sulla formazione di tecnologie AI migliori di GPT 4, ma è davvero necessaria una pausa?
Qual è la lettera aperta del futuro della vita?
IL lettera pubblicata dall'istituto Future of Life sottolinea che i laboratori di intelligenza artificiale sono stati "bloccati in una corsa fuori controllo" per sviluppare e implementare più e modelli di intelligenza artificiale più potenti che nessuno, inclusi i loro creatori, può "comprendere, prevedere o affidarsi in modo affidabile controllo".
Sottolinea inoltre che i sistemi di intelligenza artificiale contemporanei stanno ora diventando competitivi per l'uomo in compiti e domande generali se dovremmo sviluppare "menti non umane che potrebbero alla fine essere più numerose, superare in astuzia, obsolete e sostituire noi".
La lettera alla fine invita tutti i laboratori di intelligenza artificiale a sospendere immediatamente l'addestramento di sistemi di intelligenza artificiale più potenti di GPT-4 per almeno sei mesi. La pausa dovrebbe essere pubblica e verificabile anche tra tutti gli attori chiave. Afferma inoltre che se tale pausa non può essere applicata rapidamente, i governi dovrebbero intervenire per vietare temporaneamente l'addestramento del modello AI.
Una volta che la pausa è attiva, i laboratori di intelligenza artificiale e gli esperti indipendenti sono invitati a utilizzarla per sviluppare e implementare congiuntamente a "insieme condiviso di protocolli di sicurezza" per garantire che i sistemi che aderiscono a queste regole siano "sicuri oltre il ragionevole dubbio".
Questa lettera è stata firmata da parecchie personalità nominate, tra cui Elon Musk, Steve Wozniak e ricercatori e autori di intelligenza artificiale. In effetti, l'elenco dei firmatari è attualmente sospeso a causa dell'elevata domanda.
Quali sono le preoccupazioni di Musk con Advanced AI Tech e OpenAI?
Mentre la firma della lettera di Future of Life potrebbe indicare che Musk è preoccupato per i rischi per la sicurezza che tali sistemi di intelligenza artificiale avanzati pongono, la vera ragione potrebbe essere qualcos'altro.
Musk ha co-fondato OpenAI con l'attuale CEO Sam Altman nel 2015 come organizzazione no-profit. Tuttavia, si è scontrato con Altman più tardi nel 2018 dopo aver realizzato di non essere soddisfatto dei progressi dell'azienda. Secondo quanto riferito, Musk voleva subentrare per accelerare lo sviluppo, ma Altman e il consiglio di amministrazione di OpenAI hanno respinto l'idea.
Musk si è allontanato da OpenAI poco dopo e ha portato con sé i suoi soldi rompendo la sua promessa di contribuire con 1 miliardo di finanziamenti e dando solo 100 milioni prima di andarsene. Ciò ha costretto OpenAI a diventare una società privata poco dopo, nel marzo 2019, per raccogliere fondi per continuare la sua ricerca.
Un altro motivo per cui Musk se ne andò era che lo sviluppo dell'IA in Tesla avrebbe causato un conflitto di interessi in futuro. È ovvio che Tesla ha bisogno di sistemi di intelligenza artificiale avanzati per alimentarlo Funzionalità complete di guida autonoma. Da quando Musk ha lasciato OpenAI, l'azienda è scappata con il lancio dei suoi modelli di intelligenza artificiale ChatGPT basato su GPT3.5 nel 2022 e successivamente in seguito a GPT-4 nel marzo 2023.
Il fatto che il team di intelligenza artificiale di Musk non sia neanche lontanamente vicino a OpenAI deve essere tenuto in considerazione ogni volta che afferma che i moderni modelli di intelligenza artificiale potrebbero comportare dei rischi. Anche lui non ha avuto problemi lancio della versione beta di Tesla Full Self-Driving sulle strade pubbliche, essenzialmente trasformando i normali conducenti Tesla in beta tester.
Anche questo non finisce qui. Musk è stato anche piuttosto critico nei confronti di OpenAI su Twitter, con Altman che è arrivato al punto di dire che li sta attaccando mentre appariva di recente nel podcast "On with Kara Swisher".
Al momento, sembra che Musk stia solo usando la lettera di Future of Life per fermare lo sviluppo di OpenAI e di qualsiasi altra azienda che sta recuperando terreno a GPT-4 per dare alle sue aziende la possibilità di recuperare il ritardo invece di preoccuparsi effettivamente dei potenziali pericoli di questi modelli di intelligenza artificiale posa. Si noti che la lettera chiede anche di sospendere per sei mesi la "formazione" dei sistemi di intelligenza artificiale, che può essere elusa relativamente facilmente per continuare a svilupparli nel frattempo.
È davvero necessaria una pausa?
La necessità di una pausa dipende dallo stato dei modelli di intelligenza artificiale in futuro. La lettera ha sicuramente un tono un po' drammatico e non stiamo rischiando di perdere il controllo della nostra civiltà a causa dell'IA, come afferma così apertamente. Detto ciò, Le tecnologie AI rappresentano alcune minacce.
Dato che OpenAI e altri laboratori di intelligenza artificiale possono mettere in atto migliori controlli di sicurezza, una pausa farebbe più male che bene. Tuttavia, il suggerimento della lettera di una serie di protocolli di sicurezza condivisi che sono "rigorosamente verificati e supervisionati da esperti esterni indipendenti" suona come una buona idea.
Con giganti della tecnologia come Google e Microsoft che investono miliardi nello sviluppo e nell'integrazione dell'IA nei loro prodotti, è improbabile che la lettera influisca sul ritmo attuale dello sviluppo dell'IA.
L'intelligenza artificiale è qui per restare
Con i giganti della tecnologia che spingono ulteriormente l'integrazione dell'IA nei loro prodotti e investono miliardi di dollari in ricerca e sviluppo, l'IA è qui per restare, indipendentemente da ciò che dice l'opposizione.
Ma non è una cattiva idea implementare misure di sicurezza per evitare che queste tecnologie vadano fuori dai binari e si trasformino potenzialmente in strumenti di danno.