Dopo l'Europa, anche in California una legge per l'IA

La California approva una legge sulla sicurezza dell'IA simile all'AI Act europeo, imponendo test obbligatori e meccanismi di spegnimento per i modelli avanzati.

Avatar di Valerio Porcu

a cura di Valerio Porcu

Senior Editor

Dopo l'Europa, anche in California una legge per l'IA

La California approva una legge sulla sicurezza dell'IA simile all'AI Act europeo, imponendo test obbligatori e meccanismi di spegnimento per i modelli avanzati.

La legge SB 1047 sulla sicurezza dell’intelligenza artificiale è stata approvata dall’Assemblea della California ed è ora in attesa della firma del governatore Gavin Newsom entro il 30 settembre per diventare ufficialmente legge. Questo disegno di legge introduce rigorosi requisiti di sicurezza per i modelli AI avanzati, imponendo test pre-lancio, misure di cybersicurezza e un “kill switch” per disattivare rapidamente i sistemi in caso di emergenza. La normativa è stata modificata per includere sanzioni civili invece di penali e per affinare i poteri di applicazione conferiti al procuratore generale della California

La strada europea

Il disegno di legge californiano segue un approccio simile a quello dell'AI Act dell'Unione Europea, che stabilisce regole rigorose per l'uso dell'AI, soprattutto nei settori ad alto rischio come la sanità e la gestione delle risorse umane. Entrambe le normative puntano a un quadro di sicurezza che richiede test continui e trasparenza, ma con alcune differenze chiave: mentre l'AI Act europeo stabilisce alcuni divieti assoluti relativamente alla sicurezza e ai diritti della persona, il disegno di legge californiano si concentra principalmente sulla sicurezza e la capacità di controllare i modelli AI avanzati, come quelli utilizzati nelle applicazioni critiche per la sicurezza pubblica.

Impatto sulle imprese, compliance e redditività

Le nuove regole rappresentano una sfida per le imprese, soprattutto per quelle che sviluppano AI avanzata. Le aziende devono investire in revisori esterni per test di sicurezza e modificare i propri processi per conformarsi alle nuove normative, aumentando così i costi di compliance. Secondo i critici, questi obblighi potrebbero ridurre la competitività delle startup e delle piccole imprese, spingendole fuori dalla California verso giurisdizioni con regolamentazioni meno restrittive. 

Le potenziali implicazioni economiche sono significative: la necessità di garantire conformità potrebbe sottrarre risorse alla ricerca e sviluppo, incidendo sul fatturato delle aziende che non riescono ad adattarsi rapidamente. OpenAI e altre grandi compagnie del settore hanno espresso preoccupazioni per i potenziali impatti negativi sull'innovazione e il rischio di creare un mosaico normativo che complicherà l'operatività su scala globale.

Obiezioni che sono sostanzialmente le stesse che abbiamo sentito a riguardo della normativa europea. Tuttavia non è ancora chiaro se gli effetti saranno veramente così nefasti o se invece ci si sta fasciando la testa prima del tempo

I sostenitori della legge vedono una strada per evitare rischi catastrofici, le imprese devono prepararsi a un nuovo panorama di compliance che potrebbe influenzare significativamente la loro strategia e le loro performance economiche. La decisione del governatore Gavin Newsom sarà cruciale: se firmata, questa legge potrebbe definire il futuro della regolamentazione dell’IA non solo in California, ma in tutto il Paese.

Sebbene Newsom non abbia ancora espresso una posizione chiara sul disegno di legge, ha manifestato preoccupazioni sulla possibilità che una regolamentazione eccessiva possa soffocare l’innovazione tecnologica in California. 

Il governatore ha indicato che sta valutando l'impatto della legge sull'industria tecnologica locale, un settore che rappresenta una fonte significativa di entrate fiscali per lo stato. Inoltre, Newsom ha storicamente sostenuto l'industria techmostrando una certa cautela verso regolamentazioni che potrebbero allontanare le imprese da Silicon Valley. Questa posizione è in linea con le preoccupazioni espresse da aziende come OpenAI, che temono un "mosaico" di regolamenti statali piuttosto che un approccio coordinato a livello nazionale. 

 

Leggi altri articoli