I lettori come te aiutano a sostenere MUO. Quando effettui un acquisto utilizzando i link sul nostro sito, potremmo guadagnare una commissione di affiliazione. Per saperne di più.

Apple ha annunciato l'intenzione di scansionare i tuoi contenuti iCloud alla ricerca di materiale pedopornografico (CSAM) nell'agosto 2021 per proteggere i bambini dagli abusi da parte dei predatori.

La società ha pianificato di lanciare una nuova funzione di rilevamento CSAM in iCloud Photos che eseguirà la scansione di tali contenuti e segnalerà le immagini corrispondenti ad Apple mantenendo la privacy degli utenti.

Tuttavia, la nuova funzionalità è stata accolta con reazioni contrastanti. A più di un anno dall'annuncio iniziale, Apple sta ufficialmente abbandonando il suo piano per scansionare le foto di iCloud per CSAM.

Apple abbandona il suo piano per scansionare iCloud alla ricerca di materiale pedopornografico

Secondo un rapporto di CABLATO, Apple si sta allontanando dal suo piano per scansionare il tuo iCloud alla ricerca di contenuti pedopornografici. Lo strumento esegue la scansione delle foto archiviate su iCloud per trovare quelle che corrispondono a immagini CSAM note identificate dalle organizzazioni per la sicurezza dei bambini. Potrebbe quindi segnalare quelle immagini perché il possesso di immagini CSAM è illegale nella maggior parte delle giurisdizioni, inclusi gli Stati Uniti.

instagram viewer

Perché Apple ha annullato il suo piano per scansionare le foto di iCloud

Dopo l'annuncio iniziale nel 2021, Apple ha dovuto affrontare il contraccolpo di clienti, gruppi e individui che sostenevano la privacy e la sicurezza digitali in tutto il mondo. Gli iPhone in genere offrono maggiore sicurezza rispetto ai dispositivi Android, e molti lo hanno visto come un passo indietro. Sebbene sia stata una vittoria per le organizzazioni per la sicurezza dei bambini, oltre 90 gruppi politici hanno scritto una lettera aperta ad Apple più tardi nello stesso mese, chiedendo alla società di annullare il piano.

La lettera ha sostenuto che mentre lo strumento intende proteggere i bambini dagli abusi, potrebbe essere sfruttato per censurare la libertà di parola e minacciare la privacy e la sicurezza degli utenti. A causa della crescente pressione, Apple ha interrotto i suoi piani di lancio per raccogliere feedback e apportare le modifiche necessarie alla funzionalità. Tuttavia, il feedback non ha favorito il piano di Apple di scansionare le foto di iCloud, quindi la società sta ufficialmente abbandonando definitivamente i piani.

In una dichiarazione a WIRED, la società ha dichiarato:

"Abbiamo... deciso di non andare avanti con il nostro strumento di rilevamento CSAM precedentemente proposto per iCloud Photos. I bambini possono essere protetti senza che le aziende raccolgano i dati personali e continueremo a lavorare con i governi, i difensori dei bambini e altre società per aiutare a proteggere i giovani, preservare il loro diritto alla privacy e rendere Internet un luogo più sicuro per i bambini e per noi Tutto."

Il nuovo piano di Apple per proteggere i bambini

Apple sta reindirizzando i suoi sforzi per migliorare le funzionalità di sicurezza delle comunicazioni annunciate nell'agosto 2021 e lanciate nel dicembre dello stesso anno.

Sicurezza delle comunicazioni è facoltativo e può essere utilizzato da genitori e tutori per proteggere i bambini dall'invio e dalla ricezione di immagini sessualmente esplicite in iMessage. La funzione offusca automaticamente tali foto e il bambino verrà avvisato dei pericoli coinvolti. Avvisa anche chiunque provi a cercare CSAM sui dispositivi Apple.

Con l'annullamento dei piani per il lancio di uno strumento di rilevamento CSAM, la società non vede l'ora di migliorare ulteriormente la funzionalità ed espanderla a più app di comunicazione.