Google Microsoft e Perplexity sotto accusa per le loro IA razziste

L'intelligenza artificiale nei motori di ricerca diffonde ricerche razziste e screditate, sollevando preoccupazioni sulla qualità dell'informazione online.

Avatar di Andrea Maiellano

a cura di Andrea Maiellano

Author

I risultati dei motori di ricerca generati sull'intelligenza artificiale di Google, Microsoft e Perplexity stanno promuovendo ricerche razziste, e ampiamente screditate, che sostengono la superiorità genetica delle persone bianche.

Patrik Hermansson, ricercatore del gruppo antirazzista britannico Hope Not Hate, ha scoperto che questi motori di ricerca, supportati dalla IA, stanno diffondendo dati provenienti da studi discutibili sui quozienti intellettivi delle popolazioni di diverse nazioni. Tali dati vengono presentati come fatti oggettivi, senza alcun contesto o avvertenza sulla loro natura controversa.

L'uso acritico di queste "statistiche" prive di fondamento è profondamente problematico.

Il problema è emerso quando Hermansson stava indagando sulla Human Diversity Foundation, un'organizzazione che promuove teorie razziste fondata nel 2022 come successore del Pioneer Fund, un gruppo creato da simpatizzanti nazisti negli anni '30.

Cercando informazioni sui QI delle popolazioni dei vari paesi, si è imbattuto in risposte generate dall'intelligenza artificiale che riportavano acriticamente dati provenienti da ricerche ampiamente screditate.

In particolare, i motori di ricerca supportati dalla IA, citavano spesso il lavoro di Richard Lynn, ex presidente del Pioneer Fund noto per le sue teorie sulla superiorità intellettiva della "razza bianca". I suoi studi, ampiamente criticati dalla comunità scientifica, per gravi carenze metodologiche, verrebbero ora amplificati, e in parte legittimati, dall'intelligenza artificiale.

Rebecca Sear, direttrice del Centro per la Cultura e l'Evoluzione dell'Università Brunel di Londra, ha commentato: "L'uso di questi dati non solo diffonde disinformazione, ma supporta anche il progetto politico del razzismo scientifico, ovvero l'uso improprio della scienza per promuovere l'idea che le gerarchie e le disuguaglianze razziali siano naturali e inevitabili".

Google ha recentemente lanciato lo strumento IA Overviews, il quale fornisce risposte generate dall'intelligenza artificiale ad alcune query di ricerca. Tuttavia, questo sistema ha mostrato diverse criticità, tra cui la promozione di teorie razziste come quelle di Lynn.

Anche i chatbot IA di Microsoft e di Perplexity sono risultati problematici, citando acriticamente dati sui QI nazionali provenienti da fonti discutibili o direttamente dal lavoro di Lynn.

Un portavoce di Google ha dichiarato che i sistemi non hanno funzionato come previsto in questo caso e che l'azienda sta cercando diversi sistemi per migliorarli e arginare queste problematiche. Microsoft ha affermato che il suo chatbot "distilla informazioni da più fonti web in un'unica risposta" e fornisce citazioni collegate.

La promozione di queste teorie pseudoscientifiche, attraverso strumenti basati sull'IA ampiamente utilizzati, rischia di legittimarle agli occhi del pubblico e di contribuire alla radicalizzazione di alcuni individui. Non a caso, il lavoro di Lynn è stato citato dall'autore della strage di Buffalo nel 2022.

Rutherford sottolinea che il problema non è solo dell'IA, ma anche della comunità accademica che ha citato acriticamente il lavoro di Lynn per anni. È evidente la necessità di implementare sistemi di verifica più rigorosi negli strumenti di ricerca basati sull'IA, per evitare la diffusione di teorie, prive di fondamento, razziste.

Indubbiamente il filtro finale spetta a chi effettua ricerche sul web, ma il rischio che i risultati dei motori di ricerca vengano presi per "validi", potrebbe generare problemi seri in futuro.

Leggi altri articoli