L'intelligenza artificiale non è pronta a spazzarci via... Ancora.

L'intelligenza artificiale è stata un argomento di dibattito sin dal suo inizio. Sebbene i timori che un'intelligenza artificiale simile a Skynet prenda vita e prenda il sopravvento sull'umanità siano a dir poco irrazionali, alcuni esperimenti hanno prodotto risultati preoccupanti.

Uno di questi esperimenti è il problema del massimizzatore di graffette, un esperimento mentale che mostra che un'intelligenza artificiale altamente intelligente, anche se progettata completamente senza malizia, potrebbe alla fine distruggere l'umanità.

Spiegazione del problema del massimizzatore di graffette

Questo esperimento mentale secondo cui anche un'intelligenza artificiale completamente innocua potrebbe alla fine spazzare via l'umanità è stato inizialmente chiamato Paperclip Maximizer semplicemente perché le graffette sono state scelte per mostrare cosa potrebbe fare l'intelligenza artificiale in quanto ha poco pericolo apparente e non causerà disagio emotivo rispetto ad altre aree a cui si applica questo problema come curare il cancro o vincere guerre.

instagram viewer

Il primo esperimento è apparso nell'articolo del 2003 del filosofo svedese Nick Bostrom, Problemi etici nell'intelligenza artificiale avanzata, che includeva il massimizzatore di graffette per mostrare i rischi esistenziali che un'intelligenza artificiale abbastanza avanzata poteva usare.

Il problema presentava un'intelligenza artificiale il cui unico obiettivo era creare il maggior numero possibile di graffette. Un'intelligenza artificiale sufficientemente intelligente prima o poi si renderebbe conto che gli esseri umani pongono una sfida al suo obiettivo su tre diversi fronti.

  • Gli esseri umani potrebbero disattivare l'intelligenza artificiale.
  • Gli umani potrebbero cambiare i loro obiettivi.
  • Gli esseri umani sono fatti di atomi, che possono essere trasformati in graffette.

In tutti e tre gli esempi, ci sarebbero meno graffette nell'universo. Quindi un'intelligenza artificiale sufficientemente intelligente il cui unico obiettivo è fare quante più graffette possibili prenderebbe il sopravvento su tutta la materia e l'energia a portata di mano e impedirebbe a se stesso di essere spento o cambiato. Come probabilmente puoi immaginare, questo è molto più pericoloso di criminali che utilizzano ChatGPT per hackerare il tuo conto bancario o il tuo PC.

L'intelligenza artificiale non è ostile agli umani; è solo indifferente. Un'intelligenza artificiale che si preoccupa solo di massimizzare il numero di graffette spazzerebbe quindi via l'umanità e essenzialmente le convertirebbe in graffette per raggiungere il suo obiettivo.

In che modo il problema del massimizzatore di graffette si applica all'IA?

Le menzioni della ricerca e dell'esperimento del problema del massimizzatore della graffetta menzionano tutte un ipotetico ottimizzatore estremamente potente o un agente altamente intelligente come parte attiva qui. Tuttavia, il problema si applica all'IA tanto quanto si adatta perfettamente al ruolo.

Dopotutto, l'idea di un massimizzatore di graffette è stata creata per mostrare alcuni dei pericoli dell'IA avanzata. Nel complesso, presenta due problemi.

  • Tesi di ortogonalità: La tesi dell'ortogonalità è l'idea che l'intelligenza e la motivazione non siano reciprocamente interdipendenti. Ciò significa che è possibile che un'intelligenza artificiale con un alto livello di intelligenza generale non raggiunga le stesse conclusioni morali degli umani.
  • Convergenza strumentale: La convergenza strumentale è definita come la tendenza per gli esseri più sufficientemente intelligenti (entrambi umani e non umani) per perseguire sotto-obiettivi simili anche se il loro obiettivo finale potrebbe essere completamente diverso. Nel caso del problema del massimizzatore di graffette, ciò significa che l'IA finirà per prendere il sopravvento su ogni risorsa naturale e spazzando via l'umanità solo per raggiungere il suo obiettivo di creare sempre di più graffette.

Il problema più grande evidenziato dal massimizzatore della graffetta è la convergenza strumentale. Può anche essere evidenziato usando l'ipotesi di Riemann, nel qual caso un'intelligenza artificiale progettata per risolvere l'ipotesi potrebbe benissimo decidere di prendere il controllo di tutto massa terrestre e convertirla in computronium (i processori di computer più efficienti possibili) per costruire supercomputer per risolvere il problema e raggiungere il suo obiettivo.

Lo stesso Bostrom ha sottolineato che non crede che il problema del massimizzatore di graffette sarà mai un vero problema, ma la sua intenzione era quella di illustrare i pericoli della creazione di macchine superintelligenti senza sapere come controllarle o programmarle in modo che non siano esistenzialmente rischiose per l'uomo esseri. Anche i moderni sistemi di intelligenza artificiale come ChatGPT hanno problemi, ma sono lontani dai sistemi di intelligenza artificiale superintelligenti di cui si parla nel problema della massimizzazione delle graffette, quindi non c'è ancora motivo di farsi prendere dal panico.

I sistemi IA avanzati richiedono un controllo superiore

Il problema del massimizzatore di graffette arriva sempre alla stessa conclusione ed evidenzia i problemi di gestione di un sistema altamente intelligente e potente privo di valori umani.

Mentre l'uso di graffette potrebbe essere il metodo più popolare per illustrare il problema, si applica a qualsiasi numero di attività che tu potrebbe dare a un'intelligenza artificiale che si tratti di eliminare il cancro, vincere guerre, piantare più alberi o qualsiasi altro compito, non importa quanto apparentemente stupido.