L'AI Act è ufficialmente in vigore, cosa cambia adesso in Europa?

Entra in vigore il regolamento UE sull'IA: nuove norme basate sul rischio per disciplinare le applicazioni dell'intelligenza artificiale.

Avatar di Marco Pedrani

a cura di Marco Pedrani

Managing Editor

L'Unione Europea ha ufficialmente dato il via all'applicazione del suo regolamento basato sul rischio per le applicazioni di intelligenza artificiale. La nuova normativa è entrata in vigore ieri, giovedì 1 agosto 2024.

La maggior parte delle disposizioni sarà pienamente applicabile entro la metà del 2026. Tuttavia, la prima scadenza, che impone divieti su un numero limitato di usi proibiti dell'IA in contesti specifici, come l'uso di biometria remota da parte delle forze dell'ordine in luoghi pubblici, entrerà in vigore tra soli sei mesi.

Anche le sanzioni sono graduali, con multe fino al 7% del fatturato annuo globale per violazioni delle applicazioni IA vietate.

L'approccio dell'UE classifica le applicazioni di IA in diverse categorie di rischio. Quella a basso/nessun rischio racchiude la maggior parte delle applicazioni IA, che non saranno soggette alla regolamentazione. La categoria ad alto rischio include tecnologie come biometria, riconoscimento facciale, software medici basati su IA e intelligenza artificiale utilizzata in settori come istruzione e impiego. Gli sviluppatori dovranno garantire la conformità agli obblighi di gestione del rischio e della qualità, compresa una valutazione di conformità.

Infine, nella categoria a rischio limitato si trovano applicazioni come chatbot, o strumenti per la creazione di deepfake, che dovranno soddisfare alcuni requisiti di trasparenza per evitare di ingannare gli utenti.

Pixabay
intelligenza artificiale

Il regolamento prevede anche disposizioni specifiche per gli sviluppatori di general-pupose AI: la maggior parte di loro dovrà rispettare requisiti di trasparenza leggeri, fornendo un riepilogo dei dati di addestramento e impegnandosi a rispettare le regole sul copyright.

Solo un sottoinsieme di modelli più potenti, definiti come quelli addestrati con una potenza di calcolo totale superiore a 10^25 FLOP, dovrà intraprendere misure di valutazione e mitigazione del rischio.

Saranno gli Stati membri a dover applicare le regole generali dell'AI Act, ad eccezione di quelle dedicate alla GPAI, che saranno applicate a livello europeo. I requisiti esatti per i sistemi di IA ad alto rischio sono ancora in fase di elaborazione, con gli organismi di standardizzazione europei coinvolti nello sviluppo di queste disposizioni fino ad aprile 2025.

Leggi altri articoli