I Grandi Modelli di Linguaggio (LLM), come GPT-4, hanno rivoluzionato l'elaborazione del linguaggio naturale, ma presentano significative problematiche di bias. Si tratta di un problema noto da tempo, nuovamente sottolineato in un recente studio condotto dal Dr. Awais Hameed Khan, che sottolinea come questi modelli riproducano bias simili a quelli umani quando analizzano argomenti controversi. Tuttavia, la loro capacità di identificare lacune analitiche e migliorare il lavoro umano li rende strumenti preziosi per l'interpretazione dei dati complessi.
Il messaggio del professor Kahn sembra essere: attenzione ai messaggi della AI e ai loro pregiudizi, ma usateli comunque. Un messaggio che sembra contrastante perché, verrebbe da pensare, se il modello è biased allora lo sarà anche l’analisi generata. La ricerca sembra però suggerire una realtà differente.
Gli LLM sono addestrati su vasti dataset di testo, riflettendo inevitabilmente i pregiudizi presenti in tali dati. Ad esempio, un modello può associare il termine "medico" con il genere maschile, nonostante non vi sia alcuna logica che giustifichi tale associazione. Una problematica di cui si discute da molto tempo, praticamente da quando i moderni LLM si sono affacciati sul mercato globale. I tentativi di risolvere i problemi non sono mancati, con idee interessanti come le "AI Sub Zero Bias cards", utili per strutturare meglio i prompt e interrogare i bias nei risultati generati dai LLM.
Il progetto che ha portato allo sviluppo delle "AI Sub Zero Bias cards" è nato durante l'Hackathon ADM+S del 2023, e tra le altre cose dimostra l'importanza delle collaborazioni interdisciplinari.
Un'altra area di ricerca riguarda l'implementazione del Reinforcement Learning from Human Feedback (RLHF), un approccio che ottimizza i modelli LLM per rispondere meglio alle preferenze umane in situazioni comunicative. Questo metodo ha mostrato successo nel migliorare l'autenticità e l'etica delle risposte generate dai modelli, sebbene sia costoso e richieda una notevole quantità di dati annotati da umani.
Quest’ultimo aspetto è probabilmente il nocciolo del problema. Stiamo sviluppando le AI prima di tutto affinché facciano lavori di cui oggi si occupano gli esseri umani. L’obiettivo è ridurre i costi e aumentare la produttività, ma è evidente anche un brutto effetto collaterale, cioè la riduzione di lavori disponibili.
Sembra quindi un po’ paradossale che per rendere le AI strumenti di livello superiore sia necessario spendere di più e incrementare la quantità di lavoro umano. Ma si tratta chiaramente di una parentesi: applicando l’RLHF avremo più costi e più lavoratori umani per un breve periodo, che finirebbe nel momento in cui nascono algoritmi privi di quelle problematiche. Una parentesi che potrebbe durare qualche anno, forse più di dieci, ma comunque destinata a chiudersi.
Nel frattempo chi usa un AI, sopratutto le aziende che vogliono integrare gli LLM per ottimizzare costi e risorse, devono mettere in conto un'attenzione costante per mitigare i bias e garantire un uso etico. La loro capacità di analizzare dati complessi li rende strumenti potenti, ma devono essere utilizzati come supporto all'interpretazione umana, non come sostituti.