Nell'agosto 2021, Apple ha rivelato i suoi piani per scansionare gli iPhone alla ricerca di immagini di abusi sessuali su minori. La mossa ha suscitato il plauso dei gruppi per la protezione dei minori, ma ha sollevato preoccupazioni tra gli esperti di privacy e sicurezza che la funzione potesse essere utilizzata in modo improprio.

Inizialmente Apple aveva pianificato di includere la tecnologia di scansione del materiale sugli abusi sessuali su minori (CSAM) in iOS 15; ha invece ritardato indefinitamente l'implementazione della funzione per sollecitare un feedback prima del suo rilascio completo.

Allora perché la funzione di rilevamento CSAM è diventata oggetto di accesi dibattiti e cosa ha spinto Apple a posticipare il suo lancio?

Che cosa fa la funzione di scansione delle foto di Apple?

Apple ha annunciato di implementare la funzione di scansione delle foto nella speranza di combattere gli abusi sessuali sui minori. Tutte le foto nei dispositivi degli utenti Apple verranno scansionate alla ricerca di contenuti pedofili utilizzando l'algoritmo "NueralHash" creato da Apple.

instagram viewer

Inoltre, qualsiasi dispositivo Apple utilizzato dai bambini avrebbe una funzione di sicurezza che verrà automaticamente sfoca le immagini degli adulti se ricevute da un bambino e l'utente verrebbe avvisato due volte se provasse ad aprire loro.

Oltre a ridurre al minimo l'esposizione a contenuti per adulti, se i genitori registrano i dispositivi di proprietà dei loro figli per ulteriore sicurezza, i genitori sarebbero informati nel caso in cui il bambino riceva contenuti espliciti da chiunque in linea.

Per saperne di più: Cosa devi sapere sulle protezioni per la sicurezza dei bambini di Apple

Per quanto riguarda gli adulti che usano Siri per cercare qualcosa che sessualizzi i bambini, Siri non farà quella ricerca e suggerirà invece altre alternative.

I dati di qualsiasi dispositivo contenente 10 o più foto ritenute sospette dagli algoritmi verranno decifrati e sottoposti a revisione umana.

Se quelle foto o altre nel dispositivo risultano corrispondere a qualcosa del database fornito da Centro nazionale per i bambini scomparsi e sfruttati, verrà segnalato alle autorità e l'account dell'utente verrà sospeso.

Principali preoccupazioni relative alla funzione di scansione delle foto

La funzione di rilevamento CSAM sarebbe stata attiva con il lancio di iOS 15 a settembre 2021, ma in faccia di proteste diffuse, Apple ha deciso di prendersi più tempo per raccogliere feedback e apportare miglioramenti a questo caratteristica. Qui è La dichiarazione completa di Apple sul ritardo:

"Il mese scorso abbiamo annunciato piani per funzionalità destinate a proteggere i bambini dai predatori che utilizzare strumenti di comunicazione per reclutarli e sfruttarli e limitare la diffusione degli abusi sessuali su minori Materiale.

Sulla base del feedback di clienti, gruppi di difesa, ricercatori e altri, abbiamo deciso di dedicare più tempo nei prossimi mesi per raccogliere input e apportare miglioramenti prima di rilasciare questi elementi di fondamentale importanza per la sicurezza dei bambini caratteristiche".

Quasi la metà delle preoccupazioni relative alla funzione di scansione delle foto di Apple ruotano intorno alla privacy; il resto degli argomenti include la probabile imprecisione degli algoritmi e il potenziale uso improprio del sistema o delle sue scappatoie.

Dividiamolo in quattro parti.

Potenziale abuso

Sapere che qualsiasi materiale che corrisponda a materiale pedopornografico o immagini note di abusi sessuali su minori inserirà un dispositivo nell'elenco dei "sospetti" può mettere in moto i criminali informatici.

Possono bombardare intenzionalmente una persona con contenuti inappropriati tramite iMessage, WhatsApp o qualsiasi altro mezzo e far sospendere l'account di quella persona.

Apple ha assicurato che gli utenti possono presentare ricorso nel caso in cui i loro account siano stati sospesi a causa di un malinteso.

Abuso interno

Sebbene progettata per una causa benevola, questa funzione può trasformarsi in un disastro totale per alcune persone se i loro dispositivi sono registrati nel sistema, con o senza la loro conoscenza, da parenti interessati a monitorare la loro comunicazione.

Anche se ciò non dovesse accadere, Apple ha creato una backdoor per rendere accessibili i dati degli utenti alla fine della giornata. Ora è una questione di motivazione e determinazione che le persone accedano alle informazioni personali di altre persone.

Imparentato: Che cos'è una backdoor e cosa fa?

Non solo facilita una grave violazione della privacy, ma apre anche la strada a comportamenti abusivi, tossici o di controllo parenti, tutori, amici, amanti, tutori ed ex per invadere ulteriormente lo spazio personale di qualcuno o limitare il loro libertà.

Da un lato, ha lo scopo di combattere gli abusi sessuali sui minori; dall'altro, può essere utilizzato per perpetuare ulteriormente altri tipi di abuso.

Sorveglianza governativa

Apple si è sempre pubblicizzata come un marchio più attento alla privacy rispetto ai suoi concorrenti. Ma ora, potrebbe entrare in una china scivolosa di dover soddisfare le infinite richieste di trasparenza in dati degli utenti da parte dei governi.

Il sistema che ha creato per rilevare i contenuti pedofili può essere utilizzato per rilevare qualsiasi tipo di contenuto sui telefoni. Ciò significa che i governi con una mentalità settaria possono monitorare gli utenti a un livello più personale se ci mettono le mani sopra.

Oppressivo o meno, il coinvolgimento del governo nella tua vita quotidiana e personale può essere snervante ed è un'invasione della tua privacy. L'idea che devi preoccuparti di tali invasioni solo se hai fatto qualcosa di sbagliato è un pensiero imperfetto e non riesce a vedere il suddetto pendio scivoloso.

Falsi Allarmi

Una delle maggiori preoccupazioni dell'utilizzo di algoritmi per abbinare le immagini al database sono i falsi allarmi. Gli algoritmi di hashing possono identificare erroneamente due foto come corrispondenze anche quando non sono le stesse. Questi errori, chiamati "collisioni", sono particolarmente allarmanti nel contesto dei contenuti di abusi sessuali su minori.

I ricercatori hanno trovato diverse collisioni in "NeuralHash" dopo che Apple ha annunciato che avrebbe utilizzato l'algoritmo per la scansione delle immagini. Apple ha risposto alle domande sui falsi allarmi sottolineando che il risultato sarà esaminato da un essere umano alla fine, quindi le persone non devono preoccuparsene.

La pausa CSAM di Apple è permanente?

Ci sono molti pro e contro della funzionalità proposta da Apple. Ognuno di loro è genuino e tiene il peso. Non è ancora chiaro quali modifiche specifiche Apple potrebbe introdurre alla funzione di scansione CSAM per soddisfare i suoi critici.

Potrebbe limitare la scansione agli album iCloud condivisi invece di coinvolgere i dispositivi degli utenti. È molto improbabile che Apple abbandoni del tutto questi piani poiché la società non è generalmente incline a cedere ai suoi piani.

Tuttavia, è chiaro dal contraccolpo diffuso e Apple sta trattenendo i suoi piani, che le aziende dovrebbero incorporare la comunità di ricerca fin dall'inizio, soprattutto per un non testato tecnologia.

CondividereTweetE-mail
Sicurezza in Internet: oltre 50 suggerimenti per proteggere i tuoi bambini online

I bambini sono i bersagli principali dei predatori online e dei cyberbulli. Questi pratici suggerimenti possono insegnare ai genitori come tenerli al sicuro online.

Leggi Avanti

Argomenti correlati
  • Sicurezza
  • I phone
  • Privacy dello smartphone
  • Mela
  • Privacy online
  • Sorveglianza
Circa l'autore
Fawad Ali (19 Articoli Pubblicati)

Fawad è un ingegnere informatico e della comunicazione, aspirante imprenditore e scrittore. È entrato nell'arena della scrittura di contenuti nel 2017 e da allora ha lavorato con due agenzie di marketing digitale e numerosi clienti B2B e B2C. Scrive di sicurezza e tecnologia al MUO, con l'obiettivo di educare, intrattenere e coinvolgere il pubblico.

Altro da Fawad Ali

Iscriviti alla nostra Newsletter

Iscriviti alla nostra newsletter per consigli tecnici, recensioni, ebook gratuiti e offerte esclusive!

Clicca qui per iscriverti