L'intelligenza artificiale (AI) è tanto controversa quanto impressionante. Può semplificare molte parti del lavoro e della vita quotidiana, ma solleva anche alcune questioni etiche. L'uso dell'IA da parte del governo degli Stati Uniti, in particolare, lascia alcune persone a disagio.

Ci sono molti progetti di intelligenza artificiale del governo in uso o in fase di sviluppo oggi e alcuni hanno fatto molto bene. Allo stesso tempo, sollevano molte preoccupazioni sulla privacy dell'intelligenza artificiale. Ecco uno sguardo più da vicino a questi progetti e cosa significano per la privacy pubblica.

Esempi di progetti di automazione e intelligenza artificiale del governo

Gli esempi più elementari di intelligenza artificiale utilizzati dal governo degli Stati Uniti riguardano l'automazione del lavoro d'ufficio di routine. Nel 2019, Seattle ha utilizzato Automazione robotica dei processi (RPA) per curare l'inserimento dei dati e l'elaborazione delle domande. Da allora, la città ha superato più di 6.000 domande arretrate e ha risparmiato centinaia di ore di lavoro.

instagram viewer

Altri progetti di intelligenza artificiale del governo sono più accattivanti. I vigili del fuoco di New York stanno testando i cani robot Boston Dynamics per misurare danni strutturali e fumi tossici prima dell'ingresso dei vigili del fuoco. Prima del progetto del robot antincendio, il dipartimento di polizia di New York aveva pianificato di implementare gli stessi robot.

I dipartimenti di polizia e altre agenzie governative in tutto il paese stanno valutando l'utilizzo di tecnologie simili. Tuttavia, con il decollo di questi progetti di intelligenza artificiale del governo, le loro potenziali carenze sulla privacy sono diventate più chiare.

L'intelligenza artificiale è una minaccia per la privacy e la sicurezza?

Non è ancora chiaro se vedrai i robot della polizia in futuro, ma le cose sembrano andare in quel modo. Questi progetti hanno molti vantaggi, ma i problemi di privacy dell'intelligenza artificiale diventano più seri quando si ha a che fare con il governo. Ecco alcuni dei maggiori problemi con queste tecnologie.

L'intelligenza artificiale si basa sulla raccolta e l'analisi dei dati. Di conseguenza, più progetti di intelligenza artificiale del governo significano che queste agenzie raccoglieranno e memorizzeranno ulteriori informazioni sui loro cittadini. Alcune persone hanno voglia di raccogliere tutte queste informazioni viola la loro privacy e viola i loro diritti.

Tecnologie come il progetto del cane antincendio sono particolarmente preoccupanti perché possono rendere fuorviante la sorveglianza del governo. Le agenzie affermano che il robot è lì per controllare i problemi di sicurezza, ma non c'è modo per le persone di dire quali dati sta raccogliendo. Potrebbe avere telecamere e sensori che scansionano i loro volti o tracciano i loro cellulari a loro insaputa.

Alcune persone temono che il "fattore interessante" dei robot nasconda il loro potenziale di sorveglianza. I robot della polizia in futuro potrebbero spiare i cittadini senza destare molti sospetti poiché le persone vedono solo nuove tecnologie invece di una violazione della loro privacy.

Responsabilità poco chiare

Questi progetti di intelligenza artificiale e automazione sollevano anche la questione della responsabilità. Se un robot commette un errore che provoca danni, chi ne è responsabile? Quando un dipendente del governo oltrepassa i propri confini e viola i diritti di qualcuno, i tribunali possono ritenerlo responsabile, ma che dire di un robot?

Puoi vedere questo problema nelle auto a guida autonoma. Le persone hanno addebitato al produttore un reclamo per responsabilità del prodotto in alcuni casi di incidenti con pilota automatico, mentre altri incolpano il conducente. In un caso, il Ente nazionale per la sicurezza dei trasporti ha affidato la responsabilità sia al produttore che al conducente, ma alla fine deve essere deciso caso per caso. I robot della polizia infangano le acque allo stesso modo. Se violano la tua privacy, non è chiaro se incolpare il produttore, il dipartimento di polizia o i supervisori umani.

Questa confusione potrebbe rallentare e complicare i procedimenti legali. Potrebbe volerci del tempo prima che le vittime di violazioni della privacy o violazioni dei loro diritti ottengano la giustizia che meritano. Nuove leggi e precedenti legali potrebbero chiarire le cose e risolvere questo problema, ma al momento è incerto.

Rischi di violazione dei dati

L'intelligenza artificiale utilizzata dal governo degli Stati Uniti potrebbe anche ampliare i problemi di privacy dell'IA che vedi nel settore privato. La raccolta di alcuni dati può essere perfettamente legale, ma più organizzazioni raccolgono, più sono a rischio. La società o il governo potrebbero non utilizzare le informazioni per scopi illegali, ma potrebbero rendere le persone vulnerabili alla criminalità informatica.

C'erano più di 28.000 attacchi informatici contro il governo degli Stati Uniti nel solo 2019. Se le agenzie detengono più informazioni private dei cittadini, questi attacchi potrebbero interessare più del solo governo. Una violazione dei dati riuscita potrebbe mettere in pericolo molte persone a loro insaputa. Le violazioni spesso passano inosservate, quindi è necessario controlla che i tuoi dati non siano già in vendita.

Ad esempio, se in futuro un robot della polizia utilizzerà il riconoscimento facciale per cercare i criminali ricercati, potrebbe memorizzare i dati biometrici di molti cittadini. Gli hacker che entrano nel sistema potrebbero rubare tali informazioni e usarle per entrare nei conti bancari delle persone. I progetti di intelligenza artificiale del governo devono disporre di solide misure di sicurezza informatica se non vogliono mettere in pericolo i dati delle persone.

L'IA del governo ha vantaggi ma solleva preoccupazioni

Non è ancora chiaro come il governo americano utilizzerà l'intelligenza artificiale in futuro. Nuove protezioni e leggi potrebbero risolvere questi problemi e portare tutti i vantaggi dell'IA senza i suoi rischi. Per ora, però, queste preoccupazioni sollevano alcuni allarmi.

I problemi di privacy abbondano ovunque funzioni l'IA. Queste domande diventano più serie poiché svolge un ruolo più importante nel governo. I progetti statali di IA potrebbero fare molto bene, ma hanno anche un notevole potenziale di danno.

Microsoft avverte che "1984" potrebbe avverarsi tra tre anni

Leggi Avanti

CondividereTwittaCondividereE-mail

Argomenti correlati

  • Sicurezza
  • Intelligenza artificiale
  • Privacy in linea

Circa l'autore

Shannon Flynn (79 articoli pubblicati)

Shannon è un creatore di contenuti con sede a Philadelphia, Pennsylvania. Scrive in ambito tecnologico da circa 5 anni dopo la laurea in informatica. Shannon è il caporedattore di ReHack Magazine e tratta argomenti come sicurezza informatica, giochi e tecnologia aziendale.

Altro da Shannon Flynn

Iscriviti alla nostra Newsletter

Iscriviti alla nostra newsletter per suggerimenti tecnici, recensioni, ebook gratuiti e offerte esclusive!

Clicca qui per iscriverti