La Commissione Europea ha avviato un'indagine formale nei confronti di Meta, la società madre di Facebook e Instagram, per presunte inadempienze nel proteggere la salute mentale e fisica dei minori che utilizzano queste piattaforme. L'inchiesta si concentrerà in particolare sul rispetto da parte di Meta delle normative stabilite dal Digital Services Act (DSA) dell'Unione Europea.
Uno dei principali timori espressi dalla UE è che le interfacce utente e gli algoritmi di Facebook e Instagram possano indurre nei bambini una "dipendenza comportamentale", facilitando così un effetto di "caduta nel coniglio" (dall'inglese "rabbit-hole effects"), ovvero spingendo gli utenti sempre più a fondo in contenuti potenzialmente dannosi. Inoltre, viene messo in dubbio l'efficacia degli strumenti di verifica dell'età di Meta, ritenuti non sufficientemente "ragionevoli, proporzionati ed efficaci".
Il Commissario europeo Thierry Breton ha sottolineato, attraverso un post su X, l'impegno della Commissione a "non risparmiare alcuno sforzo per proteggere i giovani". Se Meta verrà trovata in violazione delle regole del DSA, potrebbe affrontare sanzioni che raggiungono fino al sei per cento del suo fatturato globale. Al momento non è stata fissata una scadenza formale per la conclusione dell'indagine, ma la UE ha la facoltà di adottare azioni coercitive provvisorie contro Meta mentre le indagini sono in corso.
🚨 Today we open formal #DSA investigation against #Meta.
— Thierry Breton (@ThierryBreton) May 16, 2024
We are not convinced that Meta has done enough to comply with the DSA obligations — to mitigate the risks of negative effects to the physical and mental health of young Europeans on its platforms Facebook and Instagram. pic.twitter.com/WxPwgE5Opc
L'indagine valuterà anche se i sistemi di raccomandazione dei contenuti e le impostazioni predefinite sulla privacy offrono adeguata protezione della privacy, sicurezza e sicurezza per i minori. Questa mossa segue i recenti tentativi di Meta di migliorare la sicurezza dei bambini sulle proprie piattaforme, includendo restrizioni sulla visualizzazione di argomenti dannosi e limitazioni nelle interazioni con account adulti considerati "sospetti".