Spiegazione: come Apple eseguirà la scansione delle immagini di sfruttamento minorile sui dispositivi e perché sta sollevando le sopracciglia
Inizialmente previsto negli Stati Uniti, le funzionalità includono l'uso di nuove tecnologie per limitare la diffusione di CSAM online, in particolare tramite la piattaforma Apple.

Apple ha annunciato che gli aggiornamenti software entro la fine dell'anno porteranno nuove funzionalità che aiuterà a proteggere i bambini dai predatori che utilizzano strumenti di comunicazione per reclutarli e sfruttarli e a limitare la diffusione di materiale sugli abusi sessuali su minori (CSAM).
Inizialmente previsto negli Stati Uniti, le funzionalità includono l'uso di nuove tecnologie per limitare la diffusione di CSAM online, in particolare tramite la piattaforma Apple.
Poi ci sarà la protezione sul dispositivo per i bambini dall'invio o dalla ricezione di contenuti sensibili, con meccanismi per avvisare i genitori nel caso in cui l'utente abbia meno di 13 anni. Apple interverrà anche quando Siri o Search vengono utilizzati per cercare argomenti relativi a CSAM .
Quale tecnologia sta facendo Apple per prevenire la diffusione di CSAM online?
In un post sul blog, Apple ha spiegato che utilizzerà applicazioni di crittografia tramite iOS e iPadOS per abbinare le immagini CSAM note archiviate su iCloud Photo. La tecnologia abbinerà le immagini su iCloud di un utente con le immagini note fornite dalle organizzazioni per la sicurezza dei bambini. E questo viene fatto senza vedere effettivamente l'immagine e solo cercando quella che è come una corrispondenza dell'impronta digitale. Nel caso in cui ci siano corrispondenze che superano una soglia, Apple segnalerà questi casi al National Center for Missing and Exploited Children (NCMEC).
Apple ha chiarito che la sua tecnologia tiene a mente la privacy degli utenti, e quindi il database viene trasformato in un insieme illeggibile di hash che viene archiviato in modo sicuro sui dispositivi degli utenti. Ha aggiunto che prima che qualsiasi immagine venga caricata su iCloud, il sistema operativo la abbinerà agli hash CSAM noti utilizzando una tecnologia crittografica chiamata intersezione di set privati. Questa tecnologia determinerà anche una partita senza rivelare il risultato.
A questo punto, il dispositivo crea un voucher di sicurezza crittografico con il risultato della partita e dati crittografati aggiuntivi e lo salva su iClouds con l'immagine. La tecnologia di condivisione di soglia segreta garantisce che questi voucher non possano essere interpretati da Apple a meno che l'account Foto di iCloud non superi una soglia di contenuto CSAM noto. Questa soglia, ha affermato il blog, è stata messa in atto per fornire un livello estremamente elevato di precisione e garantisce meno di una possibilità su un trilione all'anno di segnalare erroneamente un determinato account. Quindi è improbabile che una singola immagine attivi un avviso.
Ma se la soglia viene superata, Apple può interpretare il contenuto dei voucher di sicurezza e rivedere manualmente ogni rapporto per una corrispondenza, disabilitare l'account dell'utente e inviare un rapporto a NCMEC. Apple ha affermato che gli utenti potranno presentare ricorso se ritengono di essere stati segnalati erroneamente.
patrimonio netto jacksepticeye
Come funzionano le altre funzionalità?
La nuova sicurezza della comunicazione di Apple per i Messaggi offuscherà un'immagine sensibile e metterà in guardia un bambino sulla natura del contenuto. Se abilitato dal backend, al bambino potrebbe anche essere detto che i suoi genitori sono stati avvisati del messaggio che hanno visualizzato. Lo stesso vale se il bambino decide di inviare un messaggio sensibile. Apple ha affermato che Messaggi utilizzerà l'apprendimento automatico sul dispositivo per analizzare gli allegati di immagini e determinare se una foto è sessualmente esplicita e che Apple non avrà accesso ai messaggi. La funzione arriverà come un aggiornamento sugli account configurati come famiglie in iCloud per le ultime versioni del sistema operativo.
Inoltre, con l'aggiornamento, quando un utente prova a cercare potenziali argomenti CSAM, Siri e Search spiegheranno perché ciò potrebbe essere dannoso e problematico. Gli utenti riceveranno anche indicazioni su come presentare una denuncia sullo sfruttamento minorile se lo richiedono.
| Spiegazione: come e perché Google offrirà maggiore protezione ai bambini online
Perché Apple lo fa e quali sono le preoccupazioni sollevate?
Le grandi aziende tecnologiche sono state sotto pressione per anni per reprimere l'uso della loro piattaforma per lo sfruttamento dei bambini. Molti rapporti nel corso degli anni hanno sottolineato come non sia stato fatto abbastanza per impedire alla tecnologia di rendere più ampiamente disponibile il contenuto CSAM.
Tuttavia, l'annuncio di Apple è stato accolto con critiche da parte di molti che hanno sottolineato come questo sia esattamente il tipo di tecnologia di sorveglianza che molti governi vorrebbero avere e che amano abusare. Il fatto che questo provenga da Apple, che è stata a lungo sostenitrice della privacy, ha sorpreso molti.
Inoltre, esperti di crittografia come Matthew Green della Johns Hopkins University hanno espresso il timore che il sistema possa essere utilizzato per incastrare persone innocenti inviando loro immagini destinate ad attivare le corrispondenze per CSAM. I ricercatori sono stati in grado di farlo abbastanza facilmente, ha detto a NPR, aggiungendo che è possibile ingannare tali algoritmi.
quanti soldi guadagna imaqtpie in un anno
Ma il New York Times ha citato il responsabile della privacy di Apple, Erik Neuenschwander, affermando che queste funzionalità non significheranno nulla di diverso per gli utenti normali.
Se stai archiviando una raccolta di materiale CSAM, sì, questo è un male per te, ha detto alla pubblicazione.
Newsletter| Fai clic per ricevere le spiegazioni migliori della giornata nella tua casella di posta
Altre grandi aziende tecnologiche hanno tecnologie simili?
Sì. In effetti, Apple è entrata relativamente in ritardo sulla scena poiché Microsoft, Google e Facebook hanno avvisato le forze dell'ordine delle immagini CSAM. Apple è rimasta indietro perché qualsiasi tecnologia del genere sarebbe andata contro il suo tanto pubblicizzato impegno per la privacy degli utenti. Di conseguenza, nel 2020, quando Facebook ha segnalato 20,3 milioni di violazioni CSAM all'NCMEC, Apple ha potuto segnalare solo 265 casi, secondo quanto riportato dal New York Times.
È solo ora che è stato in grado di trovare lo sweetspot tecnologico per farlo senza influire sugli utenti regolari, o almeno spaventarli. Tuttavia, come ha dimostrato il contraccolpo iniziale, è ancora una passeggiata sul filo del rasoio.
Condividi Con I Tuoi Amici: