Apple ha recentemente annunciato nuove protezioni per la sicurezza dei bambini che arriveranno questo autunno con l'introduzione di iOS 15, iPadOS 15 e macOS Monterey.
Daremo un'occhiata più da vicino a queste funzionalità estese per la sicurezza dei bambini e alla tecnologia dietro di esse di seguito.
Scansione di materiale pedopornografico
Il cambiamento più notevole è che Apple inizierà a utilizzare una nuova tecnologia per rilevare immagini raffiguranti immagini di abusi sui minori archiviate in iCloud Photos.
Queste immagini sono note come Child Sexual Abuse Material, o CSAM, e Apple ne segnalerà le istanze al National Center for Missing and Exploited Children. L'NCMEC è un centro di segnalazione per CSAM e lavora con le forze dell'ordine.
La scansione CSAM di Apple sarà limitata agli Stati Uniti al momento del lancio.
Apple afferma che il sistema utilizza la crittografia ed è stato progettato pensando alla privacy. Le immagini vengono scansionate sul dispositivo prima di essere caricate su iCloud Photos.
Secondo Apple, non c'è bisogno di preoccuparsi che i dipendenti Apple vedano le tue foto reali. Invece, l'NCMEC fornisce ad Apple hash di immagini di immagini CSAM. Un hash prende un'immagine e restituisce una lunga stringa univoca di lettere e numeri.
Apple prende quegli hash e trasforma i dati in un insieme illeggibile di hash archiviati in modo sicuro su un dispositivo.
Relazionato: In che modo iOS 15 protegge la privacy del tuo iPhone meglio che mai
Prima che l'immagine venga sincronizzata con Foto di iCloud, viene confrontata con le immagini CSAM. Con una speciale tecnologia crittografica, l'intersezione di set privati, il sistema determina se esiste una corrispondenza senza rivelare un risultato.
Se c'è una corrispondenza, un dispositivo crea un voucher di sicurezza crittografico che codifica la corrispondenza insieme a più dati crittografati sull'immagine. Quel buono viene caricato su iCloud Photos con l'immagine.
A meno che un account iCloud Photos non superi una soglia specifica di contenuti CSAM, il sistema garantisce che i voucher di sicurezza non possano essere letti da Apple. Questo grazie a una tecnologia crittografica chiamata condivisione segreta.
Secondo Apple, la soglia sconosciuta fornisce un'elevata precisione e garantisce meno di una possibilità su un trilione di segnalare erroneamente un account.
Quando la soglia viene superata, la tecnologia consentirà ad Apple di interpretare i voucher e le immagini CSAM corrispondenti. Apple esaminerà quindi manualmente ogni rapporto per confermare una corrispondenza. Se confermato, Apple disabiliterà l'account di un utente e quindi invierà un rapporto all'NCMEC.
Ci sarà una procedura di ricorso per il ripristino se un utente ritiene che il suo account sia stato erroneamente segnalato dalla tecnologia.
Se hai problemi di privacy con il nuovo sistema, Apple ha confermato che nessuna foto verrà scansionata utilizzando la tecnologia di crittografia se disabiliti iCloud Photos. Puoi farlo andando su Impostazioni > [Il tuo nome] > iCloud > Foto.
Ci sono alcuni aspetti negativi quando si disattivano le foto di iCloud. Tutte le foto e i video verranno archiviati sul tuo dispositivo. Ciò potrebbe causare problemi se hai molte immagini e video e un vecchio iPhone con spazio di archiviazione limitato.
Inoltre, le foto e i video acquisiti sul dispositivo non saranno accessibili su altri dispositivi Apple utilizzando l'account iCloud.
Relazionato: Come accedere alle foto di iCloud
Apple spiega di più sulla tecnologia utilizzata nel rilevamento CSAM in a PDF carta bianca. Puoi anche leggere an Domande frequenti su Apple con ulteriori informazioni sul sistema.
Nelle FAQ, Apple osserva che il sistema di rilevamento CSAM non può essere utilizzato per rilevare altro che CSAM. La società afferma inoltre che negli Stati Uniti, e in molti altri paesi, il possesso delle immagini CSAM è un crimine e che Apple è obbligata a informare le autorità.
La società afferma inoltre che rifiuterà qualsiasi richiesta del governo di aggiungere un'immagine non CSAM all'elenco degli hash. Spiega anche perché le immagini non CSAM non possono essere aggiunte al sistema da terze parti.
A causa della revisione umana e del fatto che gli hash utilizzati provengono da immagini CSAM note ed esistenti, Apple afferma che il sistema è stato progettato per essere accurato ed evitare problemi con altre immagini o utenti innocenti segnalati al NCMEC.
Protocollo di sicurezza della comunicazione aggiuntivo nei messaggi
Un'altra nuova funzionalità saranno i protocolli di sicurezza aggiunti nell'app Messaggi. Questo offre strumenti che avvertono i bambini e i loro genitori quando inviano o ricevono messaggi con foto sessualmente esplicite.
Alla ricezione di uno di questi messaggi, la foto risulterà sfocata e verrà avvisato anche il bambino. Possono vedere risorse utili e gli viene detto che va bene se non visualizzano l'immagine.
La funzione sarà disponibile solo per gli account configurati come famiglie in iCloud. I genitori o i tutori dovranno dare il consenso per abilitare la funzione di sicurezza della comunicazione. Possono anche scegliere di essere avvisati quando un bambino di 12 anni o più giovane invia o riceve un'immagine sessualmente esplicita.
Per i ragazzi dai 13 ai 17 anni non si avvisano i genitori. Ma il bambino verrà avvertito e gli verrà chiesto se desidera visualizzare o condividere un'immagine sessualmente esplicita.
Relazionato: In che modo iOS 15 utilizza l'intelligenza per rendere il tuo iPhone più intelligente che mai
Messaggi utilizza l'apprendimento automatico sul dispositivo per determinare se un allegato o un'immagine sono sessualmente espliciti. Apple non riceverà alcun accesso ai messaggi o al contenuto dell'immagine.
La funzione funzionerà sia per i normali messaggi SMS che iMessage e non è collegata alla funzione di scansione CSAM che abbiamo descritto sopra.
Guida alla sicurezza estesa in Siri e nella ricerca
Infine, Apple amplierà le linee guida sia per Siri che per le funzionalità di ricerca per aiutare bambini e genitori a rimanere al sicuro online e ricevere aiuto in situazioni non sicure. Apple ha indicato un esempio in cui agli utenti che chiedono a Siri come possono segnalare CSAM o sfruttamento minorile verranno fornite risorse su come presentare una segnalazione alle autorità.
Gli aggiornamenti arriveranno a Siri e Cerca quando qualcuno esegue query di ricerca relative a CSAM. Un intervento spiegherà agli utenti che l'interesse per l'argomento è dannoso e problematico. Mostreranno anche risorse e partner per aiutare a ottenere aiuto con il problema.
Altre modifiche in arrivo con l'ultimo software di Apple
Sviluppate in collaborazione con esperti di sicurezza, le tre nuove funzionalità di Apple sono progettate per aiutare a proteggere i bambini online. Anche se le funzionalità potrebbero destare preoccupazione in alcuni ambienti incentrati sulla privacy, Apple è stata disponibile sulla tecnologia e su come bilanciare le preoccupazioni sulla privacy con la protezione dei bambini.
Hai già sentito parlare delle principali modifiche a iOS 15, ma ecco tutte le modifiche nascoste che Apple ha lasciato fuori dal WWDC.
Leggi Avanti
- I phone
- Mac
- Mela
- Privacy dello smartphone
- Genitori e Tecnologia
Nato e cresciuto nel soleggiato Texas occidentale, Brent si è laureato in giornalismo alla Texas Tech University. Scrive di tecnologia da più di 5 anni e ama tutto ciò che riguarda Apple, gli accessori e la sicurezza.
Iscriviti alla nostra Newsletter
Iscriviti alla nostra newsletter per suggerimenti tecnici, recensioni, ebook gratuiti e offerte esclusive!
Clicca qui per iscriverti