Solo negli ultimi anni, le capacità dell'IA sono progredite drasticamente. Oggi possiamo usare l'intelligenza artificiale per creare arte, scrivere storie, conoscere il mondo e molto altro ancora. Ma tutto questo sta accadendo un po' troppo presto? L'intelligenza artificiale si sta sviluppando troppo rapidamente e quali segnali ci sono per suggerirlo?
Perché le persone sono preoccupate per l'IA?
Alla fine di marzo 2023, un documento è stato pubblicato online dal Future of Life Institute intitolato "Pause Giant AI Experiments: una lettera aperta". Il documento conteneva argomenti contro lo sviluppo dell'IA oltre la sofisticazione di GPT-4, l'ultima iterazione di OpenAI di un chatbot basato sull'intelligenza artificiale.
All'interno della lettera, è stato scritto che "i sistemi di intelligenza artificiale con intelligenza umana-competitiva possono comportare gravi rischi per la società e l'umanità" e che "potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo certi che i loro effetti saranno positivi e i loro rischi lo saranno gestibile».
Un certo numero di figure di spicco nel regno della tecnologia tra cui Steve Wozniak e Elon Musk ha firmato la lettera e desidera sospendere lo sviluppo dell'IA. Questo appello per l'arresto dello sviluppo dell'IA ha messo in dubbio quanto stia diventando pericolosa l'IA e i rischi che pone alla vita umana.
Quindi, quali segnali indicano che l'IA si sta muovendo troppo velocemente?
1. Competizione con gli esseri umani
Abbiamo già visto la tecnologia sostituire i lavoratori umani in innumerevoli scenari. Quando entri in un fast food, ora puoi ordinare tramite lo schermo di un computer e quando vuoi acquistare generi alimentari, puoi effettuare il checkout con un sistema automatizzato. Questa può essere un'opzione rapida e conveniente, ma man mano che l'automazione diventa più importante in vari settori, la necessità di lavoratori umani sta diminuendo.
È qui che inizia il problema. Naturalmente, le persone devono lavorare per mantenersi, ma l'ascesa dell'automazione sta rendendo tutto molto più difficile. Ciò è particolarmente vero per i lavoratori con salario minimo, come quelli del settore della ristorazione, della produzione e della vendita al dettaglio. Le attività di base, come controllare gli ordini, prelevare carichi e pulire, possono essere tutte eseguite dalle macchine. L'integrazione dell'intelligenza artificiale significa che presto potremmo non aver più bisogno di operatori per questa tecnologia.
È stato segnalato da FormStack che il 76% delle aziende utilizza l'automazione per standardizzare o automatizzare i flussi di lavoro quotidiani. E con Zapier segnalando che il 94% dei lavoratori ha dichiarato che il proprio lavoro comporta attività ripetitive e che richiedono tempo, L'automazione basata sull'intelligenza artificiale potrebbe facilmente diventare la maggioranza della forza lavoro globale in tutto il mondo industrie.
2. Incoraggiare la pigrizia umana
Uno dei principali vantaggi dell'intelligenza artificiale è che può semplificare così tante attività. Ma questa comodità può facilmente lasciare il posto alla pigrizia. E, in alcuni casi, lo ha già fatto.
Prendi ChatGPT, per esempio. Puoi usare ChatGPT per fare una varietà di cose come scrivere saggi, ricercare argomenti, creare barzellette, tradurre testi e molto altro ancora. Avere un servizio in grado di eseguire rapidamente le attività per te è fantastico, ma ci porta anche verso l'autocompiacimento. Lo sforzo e la creatività stentati in questo modo possono certamente avere un effetto negativo sull'umanità nel suo insieme, che è una delle ragioni principali per cui così tante persone sono preoccupate per l'IA.
Siamo così abituati ai servizi basati sull'intelligenza artificiale ai nostri giorni, che abbiamo naturalmente riposto molta fiducia in essi. Ad esempio, l'assistente virtuale di Microsoft, Cortana, utilizza l'apprendimento automatico e l'intelligenza artificiale per eseguire i comandi degli utenti. Anche molti altri assistenti virtuali, tra cui Siri di Apple, utilizzano l'intelligenza artificiale per funzionare.
Confidare in questa tecnologia può essere sicuro, ma non c'è davvero niente da sapere, soprattutto dato che l'IA è ancora in una fase di sviluppo.
3. La diffusione di informazioni false
Nei regni tradizionali, l'intelligenza artificiale ha acquisito molta notorietà grazie alla sua capacità di creare arte, immagini e video. Non solo i servizi basati sull'intelligenza artificiale possono essere utilizzati per creare arte, ma possono anche creare una forma di media particolarmente controversa nota come deepfake. I deepfake sono video in cui il volto di una persona viene sovrapposto al corpo di un'altra persona.
Sembra piuttosto divertente, ma può essere facilmente utilizzato in modo improprio.
Esistono già migliaia di video di celebrità e personaggi politici che sembrano dire cose incredibilmente oscene e inappropriate tramite deepfake. Mentre alcuni deepfake sono molto facili da identificare, alcuni sono così sofisticati che è difficile discernere se sono reali o meno. Quando ciò accade, le persone possono presumere che un personaggio pubblico abbia detto qualcosa, che in realtà non è mai stato detto da loro.
Da questo, le persone esprimeranno opinioni su questi video, contribuendo così alla diffusione della disinformazione online.
Inoltre, i chatbot basati sull'intelligenza artificiale possono anche fornire agli utenti informazioni false. Chatbot come ChatGPT, Boost. AI e Drift possono fornire agli utenti molte informazioni, ma queste informazioni non sono sempre necessariamente accurate. Come discusso da Il guardiano, I chatbot AI non si impegnano in alcun modo a fornirti informazioni veritiere, il che significa che le notizie false possono facilmente sfuggire alle fessure e arrivare a te.
4. La creazione di malware
All'inizio del 2023 iniziò a circolare una notizia attori malintenzionati che creano malware utilizzando ChatGPT. In questo caso, la società di analisti informatici Check Point Research ha scoperto che le persone stavano discutendo dei vantaggi dell'utilizzo di ChatGPT per creare malware su un forum di hacking. L'autore del post sul forum ha condiviso un infostealer che aveva scritto in Python utilizzando ChatGPT, incoraggiando altri malintenzionati a creare malware utilizzando il chatbot.
I programmi malware devono essere codificati, il che può richiedere molto tempo, soprattutto se il creatore non utilizza un modello di un programma preesistente.
Utilizzando ChatGPT, non solo gli attori malintenzionati possono semplificare il processo di creazione del malware, ma gli individui meno esperti di tecnologia possono creare malware. Man mano che la sofisticazione dell'IA continua ad avanzare, potrebbe essere possibile creare malware incredibilmente sofisticati in grado di aggirare il rilevamento antivirus, l'autenticazione, i firewall e altre misure protettive.
5. La mancanza di regolamentazione
Un problema comune nel settore tecnologico è la mancanza di regolamentazione per i servizi più recenti, come le piattaforme basate su blockchain e i prodotti AI. La mancanza di regolamentazione può essere considerata una buona cosa da alcuni, ma può anche dar luogo a pratiche illecite.
Non solo la mancanza di regolamentazione può portare a un aumento delle truffe e dei crimini informatici basati sull'intelligenza artificiale, ma anche il modo in cui i ricercatori sviluppano le tecnologie di intelligenza artificiale può iniziare a superare alcuni seri confini. Ci sono considerazioni etiche che devono essere fatte quando si ha a che fare con l'IA. Può un sistema diventare troppo cosciente? Che tipo di effetti che l'IA avrà sulla vita umana? Dovremmo sfruttare l'intelligenza artificiale in questo modo? L'elenco delle domande potrebbe continuare all'infinito.
Senza regolamentazione, alcune aziende potrebbero iniziare a calpestare i limiti morali, il che potrebbe, a sua volta, essere una pessima notizia per il grande pubblico.
L'intelligenza artificiale si sta muovendo a un ritmo rapido e pone sicuramente dei rischi
Non si può negare che il potenziale dell'IA è vasto, ma dovrebbe essere sfruttato in modo appropriato per ridurre la possibilità che le cose vadano fuori controllo. Abbiamo già visto l'IA essere utilizzata in modo dannoso, quindi non si sa come questo problema potrebbe svilupparsi man mano che le cose avanzano ulteriormente. Il tempo dirà se l'IA diventerà una benedizione o una maledizione nel nostro mondo, e il modo in cui viene gestita ora giocherà sicuramente un ruolo in questo risultato.