la censura in Cina sta raggiungendo nuovi livelli tecnologici. Un database di 133.000 esempi, recentemente scoperto in un server non protetto, rivela come Pechino stia addestrando modelli di intelligenza artificiale avanzati per identificare e bloccare contenuti considerati "sensibili". Non si tratta più solo di censurare riferimenti espliciti a eventi storici come il massacro di Piazza Tiananmen, ma di intercettare qualsiasi forma di dissenso, anche la più sottile, attraverso sistemi di apprendimento automatico sempre più raffinati.
Il database, trovato su un server Elasticsearch ospitato da Baidu e analizzato da TechCrunch, contiene istruzioni dettagliate per addestrare un modello linguistico di grandi dimensioni (LLM) a riconoscere e segnalare immediatamente contenuti relativi a tematiche politiche, sociali e militari. I dati più recenti risalgono a dicembre 2024, segno che si tratta di un'iniziativa attuale e in pieno sviluppo.
Sebbene non sia chiaro chi abbia creato questo database, il suo scopo è esplicitamente definito come "lavoro sull'opinione pubblica", un'espressione che in Cina ha un significato ben preciso. Michael Caster, responsabile del programma Asia dell'organizzazione per i diritti Article 19, ha spiegato che questa terminologia è tipicamente associata alle attività di censura e propaganda supervisionate dall'Amministrazione del Cyberspazio della Cina (CAC).
A differenza dei tradizionali meccanismi di censura che si basano su liste di parole proibite, questo nuovo sistema utilizza l'intelligenza artificiale per comprendere il contesto e il significato implicito dei contenuti. Xiao Qiang, ricercatore dell'Università di Berkeley specializzato nello studio della censura cinese, ha definito il database come "prova evidente" che il governo cinese o entità ad esso affiliate intendono utilizzare i modelli linguistici avanzati per migliorare i propri strumenti di repressione.
"A differenza dei meccanismi di censura tradizionali, che si affidano al lavoro umano per il filtraggio basato su parole chiave e la revisione manuale, un LLM addestrato con tali istruzioni migliorerebbe significativamente l'efficienza e la granularità del controllo dell'informazione guidato dallo Stato", ha dichiarato Qiang a TechCrunch.
Tra gli esempi presenti nel database si trovano lamentele sulla povertà nelle aree rurali cinesi, notizie su membri corrotti del Partito Comunista, denunce di estorsioni da parte di poliziotti corrotti ai danni di imprenditori, e persino sottili critiche politiche espresse attraverso proverbi tradizionali cinesi.
L'ampiezza delle tematiche considerate "sensibili" è impressionante. Sono classificati come "massima priorità" i contenuti relativi a scandali sull'inquinamento e sulla sicurezza alimentare, frodi finanziarie e controversie di lavoro – tutte questioni che in passato hanno scatenato proteste pubbliche in Cina. Particolarmente sorvegliati sono anche i contenuti relativi a Taiwan (il termine "Taiwan" appare oltre 15.000 volte nel database) e questioni militari.
Il codice presente nel database fa esplicito riferimento a "token prompt" e LLM, confermando che il sistema utilizza modelli di intelligenza artificiale avanzati. La precisione con cui questi sistemi possono essere addestrati per identificare contenuti problematici, anche quando espressi in modo indiretto, rappresenta un salto qualitativo nelle capacità di censura.
L'Ambasciata cinese a Washington, contattata da TechCrunch, ha risposto opponendosi a quelli che definisce "attacchi e calunnie infondati contro la Cina", affermando che il paese attribuisce grande importanza allo sviluppo etico dell'intelligenza artificiale.
Un fenomeno in espansione oltre la Cina
Questo database non è un caso isolato. A febbraio, OpenAI ha rivelato di aver individuato diverse entità cinesi che utilizzavano modelli linguistici avanzati per monitorare post anti-governativi e diffamare dissidenti cinesi. Il rapporto ha evidenziato come un attore non identificato, probabilmente operante dalla Cina, utilizzasse l'intelligenza artificiale generativa per monitorare conversazioni sui social media, in particolare quelle che sostenevano proteste per i diritti umani contro la Cina.
L'uso dell'IA per scopi repressivi non è limitato alla Cina. Altri regimi autoritari stanno rapidamente adottando tecnologie simili per rafforzare il controllo sull'informazione e monitorare il dissenso. La differenza sta nella scala e nella sofisticazione con cui la Cina sta implementando questi strumenti.
Tradizionalmente, i metodi di censura cinesi si basavano su algoritmi relativamente semplici che bloccavano automaticamente contenuti contenenti termini presenti in una lista nera, come "massacro di Tiananmen" o "Xi Jinping". La nuova tecnologia basata su modelli linguistici avanzati può rendere la censura molto più efficiente, identificando anche le critiche più sottili su vasta scala.
"È fondamentale evidenziare come la censura guidata dall'IA si stia evolvendo, rendendo il controllo statale sul discorso pubblico ancora più sofisticato, specialmente in un momento in cui modelli di IA cinesi come DeepSeek stanno facendo scalpore", ha dichiarato Xiao, il ricercatore di Berkeley, a TechCrunch.
Mentre il mondo discute delle implicazioni etiche dell'intelligenza artificiale, questo database rappresenta un concreto esempio di come la tecnologia possa essere utilizzata per esasperare i sistemi di controllo sociale, sollevando parecchi dubbi, legittimi, sul futuro della libertà d'espressione nell'era dell'IA.
Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?