Il governo USA accederà in anticipo a ChatGPT e Claude per "questioni di sicurezza"

I legislatori stanno pensando anche a nuove misure di salvaguardia per l'intelligenza artificiale.

Avatar di Marco Pedrani

a cura di Marco Pedrani

Caporedattore centrale

Il governo degli Stati Uniti avrà accesso ai nuovi modelli di intelligenza artificiale di OpenAI e Anthropic prima del loro rilascio pubblico, al fine di migliorarne la sicurezza. L'annuncio è stato dato giovedì dall'agenzia governativa US AI Safety Institute, con cui le due aziende hanno firmato dei memorandum d'intesa.

Questa collaborazione permetterà al governo di valutare i rischi per la sicurezza e mitigare potenziali problemi legati ai nuovi modelli di IA. L'agenzia statunitense fornirà feedback sui miglioramenti della sicurezza, in collaborazione con la sua controparte nel Regno Unito.

L'iniziativa arriva in un momento in cui le autorità federali e statali stanno valutando quali tutele implementare per l'AI senza soffocare l'innovazione. Mercoledì scorso, i legislatori della California hanno approvato il Safe and Secure Innovation for Frontier Artificial Intelligence Models Act, che richiede alle aziende di IA di adottare specifiche misure di sicurezza prima di addestrare modelli avanzati.

Nel frattempo, la Casa Bianca ha lavorato per ottenere impegni volontari dalle principali aziende sulle misure di sicurezza dell'IA. Diverse aziende leader hanno assunto impegni non vincolanti per investire nella ricerca sulla cybersecurity e la discriminazione, e per lavorare sulla filigrana dei contenuti generati dall'IA, così da identificarli più facilmente.

Elizabeth Kelly, direttrice dell'US AI Safety Institute, ha dichiarato: "Questi accordi sono solo l'inizio, ma rappresentano una pietra miliare importante mentre lavoriamo per contribuire a guidare responsabilmente il futuro dell'AI".

Leggi altri articoli