Google ha rimosso dal proprio sito web la promessa di non utilizzare l'intelligenza artificiale (IA) per lo sviluppo di armi o per la sorveglianza. La modifica, individuata per la prima volta da Bloomberg, ha sollevato preoccupazioni e alimentato le polemiche già esistenti riguardo ai contratti militari dell'azienda.
Fino alla scorsa settimana, la pagina dedicata ai principi sull'IA di Google includeva una sezione intitolata "Applicazioni che non perseguiremo", nella quale si affermava esplicitamente che l'azienda non avrebbe sviluppato o utilizzato l'IA per tecnologie che causano o rischiano di causare danni complessivi, armi o altri dispositivi il cui scopo principale fosse in contrasto con i principi accettati del diritto internazionale e dei diritti umani, e per la sorveglianza che viola le norme internazionali. Questa sezione è ora scomparsa.
La pagina aggiornata sui principi dell'IA di Google ora si concentra su come l'azienda si impegnerà a "mitigare i risultati non intenzionali o dannosi e ad evitare pregiudizi ingiusti", oltre ad allinearsi con "i principi ampiamente accettati del diritto internazionale e dei diritti umani".
Interpellata da TechCrunch, l'azienda ha rimandato a un nuovo post sul blog intitolato "IA responsabile". Nel post, Google afferma:
"Riteniamo che le aziende, i governi e le organizzazioni che condividono questi valori debbano lavorare insieme per creare un'IA che protegga le persone, promuova la crescita globale e supporti la sicurezza nazionale".
Questo cambio di rotta non è passato inosservato, soprattutto alla luce delle recenti controversie che hanno coinvolto Google. Negli ultimi anni, i contratti dell'azienda per la fornitura di servizi cloud agli eserciti statunitense e israeliano hanno scatenato proteste interne da parte dei dipendenti, preoccupati per l'uso etico della tecnologia. Google ha sempre sostenuto che la sua IA non viene utilizzata per danneggiare gli esseri umani. Tuttavia, questa affermazione è stata recentemente messa in discussione dal capo dell'IA del Pentagono, che ha dichiarato a TechCrunch che alcuni modelli di IA di Google stanno accelerando la "catena di uccisione" dell'esercito americano, un termine che si riferisce al processo di identificazione, tracciamento e ingaggio di un bersaglio.
La rimozione della promessa di non sviluppare IA per armi sembra quindi indicare un possibile cambio di strategia da parte di Google, che potrebbe essere più incline a collaborare con il settore della difesa. Questo potrebbe essere interpretato come un tentativo di rimanere competitiva in un mercato in cui altre grandi aziende tecnologiche, come Amazon e Microsoft, sono già attivamente coinvolte in progetti militari.
La decisione di Google arriva in un momento in cui il dibattito sull'uso etico dell'IA in ambito militare è più acceso che mai. L'IA ha il potenziale per rivoluzionare la guerra, rendendola più precisa e meno distruttiva, ma allo stesso tempo solleva preoccupazioni sull'autonomia delle armi e sulla possibilità di delegare decisioni di vita o di morte a macchine.
La rimozione della promessa di non utilizzare l'IA per armi dal sito web di Google non significa necessariamente che l'azienda abbia intenzione di sviluppare attivamente armi autonome. Tuttavia, rappresenta un segnale preoccupante e un passo indietro rispetto alla posizione precedentemente assunta da Google. La mancanza di trasparenza riguardo alle intenzioni future dell'azienda non fa che alimentare le preoccupazioni e le speculazioni.
Sarà fondamentale osservare come si evolverà la situazione nei prossimi mesi e se Google chiarirà la propria posizione in merito allo sviluppo di IA per applicazioni militari. La pressione da parte dei dipendenti, degli attivisti e dell'opinione pubblica potrebbe giocare un ruolo decisivo nel determinare il futuro dell'IA di Google e il suo coinvolgimento nel settore della difesa.