Activision ha usato l'IA per Call of Duty, ma lo scopriamo solo ora

Activision Blizzard si trova al centro di una controversia sull'uso dell'intelligenza artificiale nello sviluppo di videogiochi.

Avatar di Andrea Riviera

a cura di Andrea Riviera

Managing Editor

Activision Blizzard si trova al centro di una controversia sull'uso dell'intelligenza artificiale nello sviluppo di videogiochi. La recente implementazione di nuove politiche di trasparenza da parte di Steam, la piattaforma di distribuzione digitale di Valve, ha costretto Activision a rivelare l'utilizzo di IA in Call of Duty, scatenando reazioni contrastanti tra i giocatori e gli addetti ai lavori.

A partire dal gennaio 2024, Steam ha introdotto una nuova politica che obbliga gli sviluppatori a dichiarare in modo esplicito l'utilizzo di intelligenza artificiale nei loro giochi. Questa politica si applica sia all'IA utilizzata durante lo sviluppo (pre-produzione) sia a quella presente nel gioco finale e in grado di generare contenuti in tempo reale (live).

In risposta a questa direttiva, Activision Blizzard ha aggiornato la pagina Steam di Call of Duty (Black Ops 6 è acquistabile su Amazon), confermando l'uso di Moderater, un software di moderazione basato sull'IA sviluppato da Modulate. Moderater utilizza l'IA per analizzare le chat vocali in tempo reale e identificare comportamenti tossici, come discorsi d'odio, discriminazioni e molestie. L'obiettivo dichiarato è quello di creare un ambiente di gioco più sano e positivo, contrastando la tossicità dilagante nelle community online.

Modulate, l'azienda dietro Moderater, è specializzata nello sviluppo di soluzioni di IA per la moderazione vocale. Il suo prodotto di punta, ToxMod, è progettato per andare oltre la semplice identificazione di parole chiave proibite. Grazie a sofisticati algoritmi di apprendimento automatico, ToxMod è in grado di analizzare il contesto, il tono e le sfumature emotive delle conversazioni, distinguendo tra un semplice linguaggio colorito e un vero e proprio attacco verbale.

Secondo Modulate, ToxMod non si limita a segnalare i comportamenti tossici, ma fornisce anche informazioni dettagliate sul tipo di offesa, la sua gravità e il contesto in cui si è verificata. Questo permette ai moderatori umani di prendere decisioni più informate e di intervenire in modo mirato, riducendo il rischio di falsi positivi e di sanzioni ingiuste.

La rivelazione di Activision ha generato un acceso dibattito nella comunità di Call of Duty. Da un lato, molti giocatori hanno accolto con favore l'iniziativa, sperando che l'IA possa finalmente arginare il problema della tossicità che affligge il gioco da anni. Le chat vocali di Call of Duty sono tristemente note per essere un terreno fertile per insulti, minacce e comportamenti discriminatori, che rovinano l'esperienza di gioco a molti utenti.

D'altra parte, non mancano le voci critiche e preoccupate. Alcuni giocatori temono che l'IA possa essere troppo invasiva e limitare la libertà di espressione. Il timore è che il sistema possa interpretare erroneamente battute, sarcasmo o linguaggio colorito come offese, portando a ban ingiustificati. Altri sollevano dubbi sull'efficacia reale di ToxMod, sottolineando che i giocatori più tossici potrebbero trovare il modo di aggirare il sistema, ad esempio utilizzando un linguaggio in codice o modificando la propria voce.

Tuttavia, è fondamentale che l'implementazione di queste tecnologie avvenga in modo trasparente e responsabile. È necessario un equilibrio tra la necessità di proteggere i giocatori dai comportamenti tossici e il diritto alla libertà di espressione. Le aziende devono garantire che i sistemi di IA siano accurati, affidabili e non discriminatori, e che i giocatori abbiano la possibilità di contestare eventuali sanzioni ingiuste.

La trasparenza richiesta da Steam è un passo nella giusta direzione, ma è solo l'inizio. È auspicabile che le aziende come Activision Blizzard e Modulate (ma anche la stessa Xbox con Muse) forniscano maggiori dettagli sul funzionamento dei loro sistemi di IA, condividendo dati e metriche sull'efficacia e l'impatto di queste tecnologie. Solo così sarà possibile instaurare un clima di fiducia con la community dei giocatori e garantire che l'IA venga utilizzata per creare un ambiente di gioco più inclusivo e positivo per tutti.

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

0 Commenti

⚠️ Stai commentando come Ospite. Vuoi accedere?


Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.