Apple è stata citata in giudizio da vittime di abusi sessuali su minori per non aver implementato un sistema di scansione di iCloud per rilevare materiale pedopornografico (CSAM). La causa, depositata sabato in California settentrionale, chiede danni per oltre 1,2 miliardi di dollari per un potenziale gruppo di 2.680 vittime.
Nel 2021, Apple aveva annunciato di star lavorando a uno strumento per rilevare CSAM che avrebbe segnalato le immagini di abusi e notificato il National Center for Missing and Exploited Children. Tuttavia, l'azienda ha abbandonato il progetto dopo le immediate critiche sulle implicazioni per la privacy. La causa sostiene che, dopo aver presentato i piani per gli strumenti di sicurezza per i minori, Apple "non ha implementato quei progetti né adottato misure per rilevare e limitare" il CSAM sui suoi dispositivi come gli iPhone, causando danni alle vittime poiché le immagini hanno continuato a circolare.
In una dichiarazione, il portavoce di Apple Fred Sainz ha affermato:
"Il materiale pedopornografico è aberrante e noi ci impegniamo a combattere i modi in cui i predatori mettono a rischio i bambini. Stiamo innovando attivamente e con urgenza per combattere questi crimini senza compromettere la sicurezza e la privacy di tutti i nostri utenti. Funzioni come Communication Safety, ad esempio, avvertono i bambini quando ricevono o tentano di inviare contenuti che contengono nudità, per contribuire a spezzare la catena di coercizione che porta all'abuso sessuale sui minori. Rimaniamo profondamente concentrati sulla creazione di protezioni che aiutino a prevenire la diffusione del CSAM prima che inizi".
La causa arriva pochi mesi dopo che Apple era stata accusata dalla National Society for the Prevention of Cruelty to Children (NSPCC) del Regno Unito di sottostimare la presenza di CSAM sulle sue piattaforme. La vicenda solleva importanti questioni sul difficile equilibrio tra protezione dei minori e tutela della privacy degli utenti nel contesto delle grandi piattaforme tecnologiche.
La lotta contro gli abusi sessuali sui minori è un tema di cruciale importanza che coinvolge non solo le autorità, ma anche le grandi aziende tecnologiche. Questa problematica ha radici profonde nella storia dell'umanità, ma l'avvento di Internet e delle tecnologie digitali ha creato nuove sfide nella protezione dei più vulnerabili.
Con l'esplosione di Internet negli anni '90, il problema ha assunto nuove dimensioni. Nel 1998 è nata la Internet Watch Foundation nel Regno Unito, una delle prime organizzazioni dedicate alla lotta contro il materiale pedopornografico online. Negli Stati Uniti, il National Center for Missing and Exploited Children (NCMEC) ha lanciato nel 2002 la CyberTipline, un sistema di segnalazione per contenuti illegali riguardanti minori.
Per contrastare questo problema, Microsoft ha lanciato nel 2009 PhotoDNA. Questo sistema crea un'"impronta digitale" unica per ogni immagine di abuso, permettendo di identificarla anche se viene modificata. Oggi, molte aziende tecnologiche utilizzano questa tecnologia per combattere la diffusione di materiale illegale.
La lotta contro gli abusi sui minori online continua ad evolversi, con nuove sfide emergenti come l'uso dell'intelligenza artificiale per creare contenuti falsi ma realistici. Le aziende tecnologiche, le autorità e la società civile dovranno continuare a collaborare per trovare soluzioni efficaci che bilancino sicurezza e privacy.