Secondo Apple, Apple sta affrontando una causa da parte di vittime di abusi sessuali su minori per aver trascurato di implementare un sistema volto a rilevare materiale di abuso sessuale su minori (CSAM) su iCloud. Il New York Times. Presentata nel nord della California, la causa chiede oltre 1,2 miliardi di dollari di danni per circa 2.680 persone. La causa denuncia la negligenza di Apple nella salvaguardia dei dati degli utenti, in particolare dopo che la società aveva inizialmente proposto di a CSAM strumento di rilevamento nel 2021.
Informazioni sullo strumento CSAM di Apple e successivo abbandono
Nel 2021, Apple ha annunciato i piani per uno strumento di rilevamento CSAM in grado di scansionare iCloud alla ricerca di immagini abusive e avvisare il Centro nazionale per i bambini scomparsi e sfruttati. Questa iniziativa mirava a migliorare la sicurezza dei bambini e a combattere efficacemente lo sfruttamento. Tuttavia, la società ha ritirato il progetto a seguito di un’intensa reazione negativa su potenziali violazioni della privacy. I critici hanno espresso preoccupazione per il fatto che la tecnologia potrebbe violare i diritti alla privacy degli utenti, portando al suo abbandono. Di conseguenza, le persone vittime sostengono che Apple non ha intrapreso le azioni necessarie per prevenire la circolazione di immagini dannose.
La causa descrive l’angoscia vissuta dalle vittime, inclusa una donna di 27 anni che continua a ricevere notifiche delle forze dell’ordine riguardanti la condivisione delle sue immagini dalla sua infanzia. Le immagini che circolano aggravano la sofferenza emotiva delle persone coinvolte. I ricorrenti sostengono che la mancata implementazione da parte di Apple delle misure di sicurezza proposte ha consentito a tali materiali di persistere senza controllo sulla sua piattaforma.
La risposta di Apple e le misure esistenti
In risposta alla causa, Apple ha sottolineato il proprio impegno nel proteggere i bambini mantenendo la privacy degli utenti. Il portavoce Fred Sainz ha dichiarato: “Il materiale pedopornografico è ripugnante e siamo impegnati a combattere il modo in cui i predatori mettono a rischio i bambini”. Ha sottolineato le funzionalità di sicurezza esistenti, come Communication Safety, che avvisa gli utenti quando inviano o ricevono contenuti espliciti. Nonostante questi sforzi continui, l’azienda si trova ad affrontare un controllo sempre più accurato riguardo alla sua efficacia nella gestione delle sfide relative ai prodotti CSAM.
All’inizio di quest’anno, Apple è stata criticata anche dalla National Society for the Prevention of Cruelty to Children (NSPCC) del Regno Unito, che ha accusato la società di sottostimare i casi di materiale pedopornografico riscontrati sulle sue piattaforme. Questa crescente pressione evidenzia le continue preoccupazioni sulle strategie di Apple nella lotta allo sfruttamento minorile e nel garantire la sicurezza degli utenti sui suoi servizi.
Credito immagine in primo piano: Tim Mossholder/Unsplash
Il post che Apple ha citato in giudizio per 1,2 miliardi di dollari per errori di rilevamento di materiale pedopornografico è apparso per la prima volta su TechBriefly.