AI Act, scattano i divieti: cosa cambia per chi sviluppa e usa l’AI

L’AI Act entra in vigore con regole stringenti per lo sviluppo e l’uso dell’AI. Aziende e sviluppatori devono adeguarsi a divieti, obblighi formativi e sanzioni severe.

Avatar di Avv. Giuseppe Croari

a cura di Avv. Giuseppe Croari

avv.

4

Avv. Giuseppe Croari – Dott.ssa Silvia Di Paola

B2B Labs Mi fa VIBRARE COSA? Una sella così non l’hai mai vista! - Viber Alert
youtube play
Guarda su youtube logo

Dal 2 febbraio 2025, il Capo I e il Capo II del Regolamento 1689/2024, meglio noto come AI Act, sono diventati pienamente operativi. Questo segna l’inizio dell’applicazione concreta delle disposizioni che regolano lo sviluppo, la commercializzazione e l’utilizzo dei sistemi di intelligenza artificiale nell’Unione Europea.

L’AI Act, formalmente entrato in vigore il 2 agosto 2024, prevede un’implementazione graduale delle sue norme, con scadenze differenziate fino al 2 agosto 2026. Il processo di applicazione segue una logica progressiva, con l’obiettivo di consentire agli sviluppatori, alle aziende e alle istituzioni di adeguarsi ai nuovi requisiti normativi senza impatti eccessivamente bruschi sul mercato. Avevamo già iniziato a ragionare sulle implicazioni per professionisti e aziende, ma è ora il momento di tornare sul tema con uno sguardo più focalizzato sull’immediato presente. 

Pratiche di AI vietate: quali sono i rischi inaccettabili?

Le società e le organizzazioni che operano nel settore dell’intelligenza artificiale devono, anzitutto, astenersi dal realizzare pratiche a rischio inaccettabile ovvero che consistano in comportamenti che determinano rischi considerati inaccettabili per la salute e la sicurezza o per i diritti fondamentali come sancito dall’art. 5 del Regolamento.

Lo scorso 4 febbraio la Commissione europea ha pubblicato le sue linee guida che, sebbene non siano vincolanti, intervengono a chiarire e quindi a specificare quali siano le pratiche vietate alla luce dell’AI Act. 

Le società e le organizzazioni che operano nel settore dell’intelligenza artificiale devono, anzitutto, astenersi dal realizzare pratiche a rischio inaccettabile

In particolare, secondo le linee guida è vietato:

  • l’uso di sistemi di AI progettati per manipolare il comportamento delle persone, spingendoli a fare scelte che altrimenti non avrebbero compiuto. Sono, quindi, per esempio vietati i giochi AI che analizzano i comportamenti dei bambini per personalizzare i premi ed indurli a giocare in modo compulsivo;
  • l’uso di sistemi di AI progettati per sfruttare vulnerabilità legata a età, disabilità o condizione socioeconomica; un esempio, a tale riguardo, è costituito dall’utilizzo di AI per promuovere prodotti dannosi come trattamenti medici non necessari o prodotti finanziari ingannevoli approfittando, appunto, della vulnerabilità dei destinatari;
  • l’uso di sistemi AI altrimenti conosciuti come social scoring attraverso i quali si realizzano valutazioni sistematiche della reputazione o affidabilità delle persone, basate sul loro comportamento sociale o sulle caratteristiche personali; è dunque vietato, per esempio, decidere o meno di concedere un prestito finanziario basandosi su un “punteggio sociale” generato dall’AI e ottenuto dai dati dei social media;
  • l’uso di sistemi di scansione facciale o altre tecnologie biometriche volte a identificare, in tempo reale, persone in luoghi pubblici salvo che, una simile procedura risulti giustificata da circostanze eccezionali come, ad esempio, la prevenzione di una minaccia terroristica e sempre che venga autorizzata da parte di un’autorità giudiziaria o indipendente (per maggiori informazioni sul tema della scansione facciale e dei dati biometrici clicca qui).
  • l’uso di sistemi AI che “predicono” il rischio che una persona commetta un crimine basandosi esclusivamente sulla profilazione o sulle caratteristiche della sua personalità, salvo che una simile valutazione avvenga rispetto a fatti concreti e verificabili connessi ad una reale attività criminosa;
  • l’uso di sistemi AI di categorizzazione biometrica per dedurre caratteristiche sensibili come orientamento sessuale, convinzioni religiose o opinioni politiche, salvo che si tratti di dati biometrici acquisiti legalmente o nel contesto delle attività di sicurezza e contrasto;
  • l’uso di sistemi AI che estraggono le emozioni di una persona nel contesto lavorativo o educativo, salvo che ciò avvenga per motivi medici e di sicurezza; 
  • l’uso di sistemi di AI che realizzano database di riconoscimento facciale tramite la raccolta massiva di immagini o dati biometrici da fonti online senza il consenso degli individui coinvolti.

La violazione di tali divieti è severamente sanzionata con cifre che possono raggiungere i 35 milioni di euro o il 7 % del fatturato annuo globale della società, a seconda di quale importo sia maggiore.

Obbligo di formazione sul tema AI

A partire da febbraio, i fornitori e gli utilizzatori di AI devono, altresì, adottare tutte le misure atte a garantire che il proprio personale abbia un livello sufficiente di “alfabetizzazione all’AI”, dove per alfabetizzazione si intende il possesso delle competenze adeguate a procedere ad una diffusione informata dei sistemi di AI. 

La violazione di tali divieti è severamente sanzionata con cifre che possono raggiungere i 35 milioni di euro o il 7 % del fatturato annuo globale della società

Il requisito in esame si riferisce a chiunque fornisca o utilizzi o implementi un sistema di AI, indipendentemente dal livello di rischio del loro caso d’uso; esso, dunque, si applica anche ai soggetti che operano fuori dal settore tecnologico, ma che comunque utilizzano le tecnologie di AI. 

Alle organizzazioni viene richiesto uno sforzo attivo nel senso che su di esse grava l’onere di promuovere le competenze e le conoscenze rilevanti ai fini dell’attività svolta. Sebbene poi l’obbligo di alfabetizzazione è diventato applicabile a partire dallo scorso 2 febbraio, le disposizioni sulla governance e sull’enforcement diventeranno applicabili soltanto a partire dal 2 agosto 2025. 

Un cambiamento strategico per il futuro dell’AI

L’entrata in vigore dell’AI Act comporta per le aziende diverse sfide e obblighi significativi. 

In questa prima fase, esse, in particolare, dovranno anzitutto verificare che i programmi di AI utilizzati siano compatibili rispetto ai divieti imposti poi, dovranno altresì investire e quindi organizzare eventi di formazione nonché implementare i sistemi di monitoraggio e documentazione dell’attività svolta. Infine, dovranno costantemente aggiornarsi e mantenersi informate rispetto alla pubblicazione delle prossime linee guida. 

L’entrata in vigore dell’AI Act, dunque, costituisce un momento cruciale soprattutto per le aziende che, in quanto prime destinatarie delle misure previste, sono chiamate a porre in essere cambiamenti significativi (per ulteriori approfondimenti sull’intelligenza artificiale in ambito aziendale clicca qui).

Se sei un’azienda e necessiti di supporto in tema di intelligenza artificiale rivolgiti ai nostri partner dello Studio Legale FCLEX e chiedi dell’Avvocato Giuseppe Croari esperto di diritto dell’informatica e delle nuove tecnologie.

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

4 Commenti

⚠️ Stai commentando come Ospite. Vuoi accedere?


mancano i principi più importanti, e cioè che l ia non deve sottostare ai poteri politici dei governi, mi spiego meglio se i politici dell'Europa fanno schifo, non deve dire che sono bravi e belli. inoltre i giudici non devono rompere con le loro fisse. e comunque io a questo punto preferisco un ai cinesi, oltre a deepseek ce ne sono tante, e che secondo me sono più neutrali le ai cinesi di quelle occidentali
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

in buona sostanza stando al primo punto (manipolare il comportamento delle persone) dovrebbe essere vietato usare l'ia nelle pubblicità
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

il quinto punto è letteralmente Minority Report
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

mancano i principi più importanti, e cioè che l ia non deve sottostare ai poteri politici dei governi, mi spiego meglio se i politici dell'Europa fanno schifo, non deve dire che sono bravi e belli. inoltre i giudici non devono rompere con le loro fisse. e comunque io a questo punto preferisco un ai cinesi, oltre a deepseek ce ne sono tante, e che secondo me sono più neutrali le ai cinesi di quelle occidentali
Beh che dire, poche idee ma confuse :-)
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.