AI Act: arriva l'accordo definitivo

Lo scorso venerdì gli stati dell'Unione Europea sono giunti a un accordo definitivo sul contenuto dell'AI Act, il regolamento che mira a definire un quadro normativo e giuridico per l'intelligenza artificiale.

Avatar di Marina Londei

a cura di Marina Londei

Editor

Lo scorso venerdì le nazioni europee hanno finalmente raggiunto un accordo definitivo sull'AI Act, il regolamento che governerà lo sviluppo e  l'uso dei sistemi di intelligenza artificiale nell'Unione.

Reuters riporta che l'accordo è stato siglato dopo 24 ore di dibattito e altre 15 di negoziazione tra gli stati dell'UE e il parlamento.

B2B Labs Corsi di AI GRATIS per le RAGAZZE e aziende che usano anche gli SMS
youtube play
Guarda su youtube logo

"L'Europa è diventata un pioniere, comprendendo l'importanza del suo ruolo nello stabilire standard globali" ha affermato Thierry Breton, commissario europeo per il mercato interno e i servizi, definendo venerdì come un "giorno storico".

L'AI Act mira a garantire che i sistemi utilizzati nell'Unione Europea, indipendentemente dalla loro provenienza, siano sicuri, trasparenti, tracciabili, non discriminatori e sostenibili dal punto di vista ambientale. 

Pixabay
intelligenza artificiale

La classificazione dei sistemi

Il regolamento classifica i sistemi di IA in base al livello di rischio, definendo delle regole specifiche per l'uso di ciascuno di essi. 

I sistemi con un livello di rischio "inaccettabile", ovvero che rappresentano una minaccia per le persone, sono vietati all'interno dell'UE; tra questi ci sono sistemi di "manipolazione cognitivo-comportamentale delle persone o di specifici gruppi vulnerabili", sistemi che classificano le persone basandosi sul loro comportamento, status socio-economico e caratteristiche personali, e sistemi biometrici di identificazione in tempo reale.

Esistono comunque delle eccezioni, come nel caso dei sistemi di identificazione biometrica a posteriori utilizzati per perseguire reati gravi, ma solo dietro approvazione del tribunale. 

Pixabay
intelligenza artificiale

Ci sono poi i sistemi ad alto rischio, come quelli usati nelle operation delle infrastrutture critiche, per l'assistenza legale o per l'istruzione, che verranno valutati approfonditamente prima di essere immessi sul mercato e monitorati per tutto il ciclo di vita.

Gli strumenti di IA generativa come ChatGPT sono una categoria a sé stante; questi devono rispettare alcuni requisiti di trasparenza che impongono la divulgazione del fatto che il contenuto è stato generato dall'intelligenza artificiale, la progettazione accurata del modello per evitare che generi contenuti illegali e la pubblicazione delle sintesi dei dati protetti da copyright utilizzati per l'addestramento.

Infine, i sistemi a rischio limitato hanno requisiti di trasparenza minimi e comprendono tutti gli strumenti che consentono agli utenti di prendere decisioni informate. 

Le ultime decisioni dell'UE

L'accordo di venerdì rafforza i divieti sull'uso di sistemi per la manipolazione cognitivo-comportamentale e bandisce gli strumenti usati per la raccolta non mirata di volti dal web o dai filmati di telecamere a circuito chiuso. 

I consumatori avranno ogni diritto di presentare reclami e ricevere spiegazioni dettagliate sul funzionamento dei modelli, mentre le multe per le violazioni delle regole dell'AI Act andranno dai 7.5 milioni di euro (o l'1,5% del fatturato) ai 35 milioni di euro (o il 7% del fatturato).

Pixabay
intelligenza artificiale

Non sono mancate le lamentele, soprattutto da parte delle compagnie che utilizzano già i sistemi di IA e dall'European Digital Rights, il gruppo per la difesa dei diritti digitale dei cittadini europei.

"È difficile essere entusiasti di una legge che, per la prima volta nell'UE, ha preso provvedimenti per legalizzare il riconoscimento facciale pubblico in diretta in tutta l'Unione" ha dichiarato Ella Jakubowska, consulente senior del gruppo. "Sebbene il Parlamento abbia lottato duramente per limitare i danni, il pacchetto complessivo sulla sorveglianza biometrica e la profilazione è tiepido nel migliore dei casi".

L'AI Act dovrebbe diventare effettivo nel 2024, presumibilmente nella prima metà dell'anno. Il periodo di transizione durerà un massimo di due anni, quindi all'inizio del 2026 tutte le compagnie produttrici di sistemi di IA usati in Europa dovranno rispettare il regolamento. 

Il pacchetto di regole definito dall'Unione Europea potrebbe diventare un modello per gli altri governi, nello sforzo di limitare i rischi dell'intelligenza artificiale e al contempo coglierne i benefici. 

Leggi altri articoli