Meta, la società madre di Facebook, Instagram e Threads, ha annunciato importanti cambiamenti nelle sue politiche di moderazione dei contenuti. L'azienda abbandonerà i fact-checker di terze parti in favore di un programma di Community Notes ispirato a X, come dichiarato da Joel Kaplan, nuovo responsabile delle politiche di Meta.
Questo cambiamento segna una svolta significativa nella gestione dei contenuti sulle piattaforme di Meta. L'azienda ritiene che il nuovo approccio possa essere più efficace nel fornire agli utenti informazioni contestuali sui post potenzialmente fuorvianti, riducendo al contempo il rischio di bias.
Come funzioneranno le Community Notes
Il sistema di Community Notes verrà inizialmente implementato negli Stati Uniti nei prossimi mesi. Invece di mostrare avvisi a schermo intero, verranno visualizzate etichette discrete che indicheranno la disponibilità di informazioni aggiuntive su un post. Meta afferma che, come su X, le Community Notes richiederanno il consenso di persone con diverse prospettive per prevenire valutazioni di parte.
Oltre all'introduzione delle Community Notes, Meta sta apportando altre modifiche significative:
- Spostamento dei team di trust and safety dalla California al Texas e altre località degli Stati Uniti
- Eliminazione di alcune restrizioni su temi come immigrazione e identità di genere
- Reintroduzione graduale di contenuti politici nei feed degli utenti su Facebook, Instagram e Threads
- Focalizzazione dei sistemi di moderazione automatica su violazioni più gravi come terrorismo, sfruttamento minorile, droga, frodi e truffe
Questi cambiamenti mirano a rispondere alle critiche secondo cui Meta censurerebbe troppi contenuti innocui e sarebbe lenta nel rispondere agli utenti con account limitati. L'azienda afferma di voler tornare all'impegno per la libertà di espressione delineato da Mark Zuckerberg nel suo discorso a Georgetown.
Meta ha dichiarato: "Ciò significa essere vigili sull'impatto che le nostre politiche e i nostri sistemi hanno sulla capacità delle persone di far sentire la propria voce, e avere l'umiltà di cambiare il nostro approccio quando sappiamo di sbagliare".
Questi cambiamenti rappresentano un significativo riorientamento delle politiche di moderazione di Meta, con potenziali implicazioni di vasta portata per il dibattito pubblico e la diffusione delle informazioni sulle sue piattaforme.