L'intelligenza artificiale (IA) è ormai pervasiva, dalle raccomandazioni personalizzate di Netflix agli annunci su Facebook. Ma se per un suggerimento su un ristorante ci fidiamo, affideremmo a un algoritmo la scelta di un medico o di un nuovo dipendente? Un nuovo studio dell'Università del South Australia getta luce su questo dilemma, rivelando che la fiducia nell'IA è strettamente legata alla comprensione dei numeri e alla posta in gioco.
La ricerca, pubblicata sulla rivista Frontiers in Artificial Intelligence, ha coinvolto quasi 2.000 partecipanti in 20 Paesi. I risultati mostrano che le persone con una buona alfabetizzazione statistica, ovvero la capacità di comprendere e interpretare i dati, tendono a fidarsi dell'IA in situazioni a basso rischio (come la scelta di una canzone), ma sono più scettiche in contesti ad alto rischio (come le decisioni mediche). Al contrario, chi ha una scarsa comprensione dei numeri o poca familiarità con l'IA tende a fidarsi degli algoritmi indiscriminatamente, sia per scelte banali che per decisioni cruciali.
Lo studio ha anche evidenziato differenze demografiche e geografiche. Gli anziani e gli uomini sono generalmente più cauti nei confronti dell'IA, così come le persone che vivono in nazioni altamente industrializzate come Giappone, Stati Uniti e Regno Unito.
Questi risultati sono particolarmente rilevanti in un momento in cui l'adozione dell'IA nelle aziende sta crescendo a ritmi vertiginosi. Secondo lo studio, il 72% delle organizzazioni utilizza già l'IA in qualche forma.
"Gli algoritmi stanno diventando sempre più influenti nelle nostre vite", afferma il Dr. Fernando Marmolejo-Ramos, esperto di cognizione umana e artificiale e autore principale dello studio. "Impattano su tutto, dalle piccole scelte quotidiane alle decisioni importanti in ambito finanziario, sanitario e persino giudiziario".
Ma l'uso di algoritmi per supportare le decisioni implica che ci sia fiducia nella loro affidabilità.
"Ecco perché è fondamentale capire cosa influenza la fiducia delle persone nel processo decisionale algoritmico" spiega Marmolejo-Ramos.
La Dr.ssa Florence Gabriel, coautrice dello studio, sottolinea l'importanza di promuovere l'alfabetizzazione statistica e la comprensione dell'IA nella popolazione.
"Un algoritmo generato dall'IA è valido solo quanto i dati e il codice su cui si basa", afferma. "Basta guardare al recente divieto di DeepSeek per capire come gli algoritmi possano produrre dati distorti o rischiosi a seconda del contenuto su cui sono stati costruiti".
D'altra parte, quando un algoritmo è sviluppato da una fonte affidabile e trasparente, come il chatbot EdChat creato su misura per le scuole del South Australia, è più facile fidarsi.
"Imparare queste distinzioni è importante", sottolinea Gabriel. "Le persone devono sapere di più su come funzionano gli algoritmi, e dobbiamo trovare modi per comunicarlo in modo chiaro, semplice e pertinente alle esigenze e alle preoccupazioni degli utenti".
La ricerca dell'Università del South Australia solleva questioni cruciali per le aziende italiane che stanno investendo nell'IA. Se da un lato l'adozione di queste tecnologie offre enormi opportunità in termini di efficienza, produttività e innovazione, dall'altro è fondamentale che i dirigenti e i dipendenti abbiano le competenze necessarie per comprendere, valutare e utilizzare correttamente gli algoritmi.
In Italia, la situazione è ancora in evoluzione. Sebbene molte aziende, soprattutto le grandi, stiano sperimentando con l'IA, c'è ancora una forte carenza di competenze digitali e statistiche. Questo divario rischia di limitare il potenziale dell'IA e di creare sfiducia nei confronti di queste tecnologie.
È quindi essenziale investire in formazione, sia a livello aziendale che a livello di sistema educativo. I dirigenti devono essere in grado di comprendere i principi fondamentali dell'IA, i suoi limiti e i suoi potenziali rischi. Devono saper valutare criticamente i risultati prodotti dagli algoritmi e prendere decisioni informate, senza affidarsi ciecamente alla tecnologia.
I dipendenti, a loro volta, devono acquisire competenze di base in statistica e analisi dei dati, per poter interagire efficacemente con i sistemi di IA e interpretarne correttamente i risultati.
La trasparenza è un altro aspetto fondamentale. Le aziende devono comunicare in modo chiaro e comprensibile come vengono utilizzati gli algoritmi, quali dati vengono raccolti e come vengono protetti. Questo contribuirà a creare un clima di fiducia e a favorire un'adozione responsabile dell'IA.
L'IA può essere uno strumento potente per le aziende italiane, ma solo se accompagnata da una solida comprensione dei dati e da un approccio critico e consapevole. La formazione, la trasparenza e la promozione dell'alfabetizzazione statistica sono la chiave per sbloccare il vero potenziale dell'intelligenza artificiale e garantire che sia utilizzata in modo etico e responsabile. Solo così l'IA potrà diventare un motore di crescita e innovazione per il nostro Paese, senza lasciare indietro nessuno.