Le discussioni sull'intelligenza artificiale non sono una novità, ma le notizie sull'IA LaMDA di Google hanno alimentato le fiamme. Dopo che un ingegnere ha affermato che il robot era cosciente, pur avendo un'anima, alcune domande familiari sono sorte di nuovo.
L'IA come LaMDA può effettivamente essere senziente o consapevole di sé e, in tal caso, come puoi dirlo? Importa?
Cos'è LaMDA?
LaMDA, abbreviazione di Language Model for Dialogue Applications, è apparso per la prima volta nel 2021 alla conferenza degli sviluppatori di Google. Il sistema avanzato di intelligenza artificiale dovrebbe aiutare a costruire altri chatbot più piccoli. Quando Google lo ha introdotto per la prima volta, ha annunciato l'intenzione di integrarlo in tutto, aiutando servizi come Google Assistant e Ricerca a sentirsi più umani, o almeno naturali.
Quando l'ingegnere di Google Blake Lemoine ha parlato con LaMDA per vedere se utilizzava l'incitamento all'odio, ha avuto un'impressione diversa. Lemoine ha affermato che LaMDA era senziente e, se non avesse saputo che si trattava di un robot, avrebbe pensato che fosse un bambino di otto anni.
Dopo le sue conversazioni con LaMDA, Lemoine ha cercato di dimostrare che era cosciente e di difendere quelli che credeva fossero i suoi diritti legali. In risposta, Google ha messo Lemonine in congedo amministrativo retribuito per aver infranto gli accordi di riservatezza.
LaMDA è effettivamente senziente?
Quindi, LaMDA è effettivamente senziente? La maggior parte degli esperti che si sono occupati della questione sono scettici. LaMDA è una piattaforma di chat AI altamente avanzata che analizza trilioni di parole da Internet, quindi è abile nel suonare come una persona reale.
Questa non è la prima volta che una delle IA di Google ha ingannato le persone facendole pensare che sia umano. Nel 2018, Google ha dimostrato la sua IA duplex chiamando un ristorante per prenotare un tavolo. In nessun momento il dipendente dall'altra parte sembrava dubitare che stessero parlando con una persona.
La sensibilità è difficile da definire, sebbene la maggior parte delle persone dubbio che l'IA abbia raggiunto quel punto ancora. Tuttavia, la domanda importante potrebbe non essere se LaMDA sia effettivamente senziente, ma che differenza fa se può ingannare le persone facendole credere che lo sia.
Possibili implicazioni legali di LaMDA
La situazione LaMDA solleva molte questioni legali ed etiche. In primo luogo, alcune persone potrebbero chiedersi se Google avesse ragione a mettere Lemoine in congedo per averne parlato.
Secondo la sezione 740 della legge sul lavoro di New York, le protezioni degli informatori difendono i dipendenti da tali conseguenze se ritengono che le pratiche del loro datore di lavoro violino la legge o rappresentino un rischio significativo per il pubblico sicurezza. La presunta sensibilità di LaMDA non soddisfa del tutto questo requisito legale, ma dovrebbe?
Concedere i diritti all'IA è un argomento delicato. Mentre l'IA può creare cose e sembrare umani, puoi imbatterti in alcune situazioni complicate se queste macchine hanno protezioni legali. I diritti legali operano attorno a ricompense e punizioni che non influiscono sull'IA, complicando la giustizia.
Se un'auto a guida autonoma colpisce un pedone, l'IA è colpevole se la legge lo tratta come un essere umano? E se è così, non rende rigorosamente giustizia alla vittima poiché non puoi tecnicamente punire l'IA nello stesso modo in cui faresti con un essere umano.
Un'altra domanda che sorge con LaMDA e chatbot AI simili è la loro sicurezza. Se questi robot sembrano reali in modo convincente, le persone potrebbero fidarsi di loro di più ed essere disposte a darli informazioni più sensibili. Ciò apre la porta a una serie di problemi di privacy e sicurezza se questa tecnologia cade nelle mani sbagliate.
L'IA introduce complesse questioni etiche
Le IA come LaMDA continuano a diventare più sofisticate e realistiche. Man mano che questa tendenza cresce, le aziende e i legislatori dovrebbero rivalutare il modo in cui trattano l'IA e come queste decisioni potrebbero influenzare la giustizia e la sicurezza.
Allo stato attuale, l'IA LaMDA di Google potrebbe non essere senziente, ma è abbastanza buona da indurre le persone a pensare che lo sia, il che dovrebbe sollevare alcuni allarmi.