Le IA "pensano" solo in inglese, ecco cosa significa

I modelli linguistici intelligenti (LLM in Inglese) dietro ai chatbot sembrano "pensare" maggiormente in inglese, scopriamo perché

Avatar di Andrea Maiellano

a cura di Andrea Maiellano

Author

I modelli linguistici intelligenti (LLM in Inglese) dietro ai chatbot sembrano "pensare" maggiormente in inglese, anche quando vengono sottoposti a domande in altre lingue.

Ciò è dovuto al fatto che i dati di addestramento di questi modelli sono parzialmente distorti, visto che i concetti più comuni a cui sono sottoposti derivano dalle culture di lingua inglese.

La popolarità degli LLM è cresciuta con il rilascio di ChatGPT nel novembre 2022, e molte di queste intelligenze artificiali vengono, oggi, usate per rispondere a domande in diverse lingue.

Per comprendere quale lingua gli LLM utilizzino effettivamente per elaborare le richieste degli utenti, i ricercatori del Politecnico Federale di Losanna, in Svizzera, hanno esaminato tre versioni del modello Llama 2 di Meta, l'azienda proprietaria di Facebook. Questi modelli sono stati scelti perché sono open source, consentendo agli esperti di analizzare ogni fase del processo di elaborazione.

I ricercatori hanno sottoposto i modelli a tre tipi di prompt in cinese, francese, tedesco e russo, cercando di capire se gli strati interni stessero effettivamente elaborando in inglese.

Pixabay
intelligenza artificiale

I risultati hanno mostrato che il percorso di elaborazione attraverso gli strati degli LLM passava quasi sempre attraverso uno "spazio inglese", indicando che l'inglese è utilizzato come intermediario per comprendere i concetti.

Molto più semplicemente: il prompt in una data lingua viene tradotto prima in inglese, successivamente analizzato attraverso un ambiente virtuale "culturalmente inglese" e successivamente ritradotto per fornire la risposta all'utente.

La predominanza dell'inglese nei dati di addestramento ha sollevato delle ovvie preoccupazioni sul fatto che il modello possa sovrapporre una visione del mondo limitata ad altre regioni linguisticamente e culturalmente distinte.

La limitata diversità linguistica, inoltre, potrebbe portare alla perdita di concetti e sfumature che possono essere apprezzati solo in altre lingue.

Ci sono anche rischi più gravi, come risposte errate o "allucinazioni" culturalmente irrilevanti. Ad esempio, se un modello viene utilizzato per generare testo in una lingua per cui non è stato addestrato, potrebbe produrre risultati culturalmente inappropriati. 

In conclusione, i risultati sottolineano la necessità di una maggiore diversità nei dati di addestramento degli LLM e sollevano preoccupazioni sulla limitata rappresentazione culturale nei modelli linguistici artificiali utilizzati globalmente da migliaia di persone.

Leggi altri articoli