Cosa è il Regolamento (UE) 2024/1689? A chi è destinato? Quali sono i soggetti a rischio?

Intelligenza artificiale SAS -Ai-Docs

Il 2024 segna un punto di svolta nella regolamentazione dell’intelligenza artificiale in Europa. Il Regolamento (UE) 2024/1689, noto come “AI Act“, rappresenta la prima disciplina normativa che regolamenta in modo organico lo sviluppo, l’immissione sul mercato, la messa in servizio e l’utilizzo dei sistemi di intelligenza artificiale.

Numerosi sono gli aspetti che aziende e professionisti devono considerare per garantire la conformità al nuovo quadro normativo. Per comprendere appieno l’impatto dell’AI Act sulla tua organizzazione, è possibile attivare un percorso di supporto tecnico e formazione dedicata, scrivendo all’indirizzo email AIAct@bitmat.it. Prima, però, vediamo più nel dettaglio di cosa si tratta.

Lo scopo del Regolamento (UE) 2024/1689:

L’obiettivo dell’AI Act è duplice: da un lato, tutelare i diritti fondamentali delle persone, quali la salute, la sicurezza e la protezione dei dati personali; dall’altro lato, migliorare il funzionamento del mercato interno, favorendo un’innovazione responsabile e orientata verso un uso dell’intelligenza artificiale affidabile, trasparente e controllabile.

L’oggetto

Il Regolamento si applica ai sistemi di IA come definiti dal suo art. 3(1), ossia ai sistemi automatizzati progettati per funzionare con vari livelli di autonomia e in grado di adattarsi dopo la diffusione. Tali sistemi, con obiettivi espliciti o impliciti, deducono dall’input che ricevono come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali. L’AI Act si applica anche ai modelli di IA per finalità generali, ossia a quei modelli caratterizzati da una generalità significativa e in grado di svolgere un’ampia gamma di compiti distinti.

I destinatari

Il Regolamento si rivolge a tutti gli attori coinvolti nel ciclo di vita di un sistema di IA: fornitori, utilizzatori (c.d. deployer), importatori, distributori e rappresentanti autorizzati. Gli obblighi normativi si applicano alle imprese, alle pubbliche amministrazioni e alle persone fisiche, a condizione che gli strumenti di IA siano utilizzati nell’ambito di attività professionali.

Le categorie di rischio

L’AI Act è strutturato secondo un approccio basato sul rischio, che prevede l’applicazione di regole e obblighi differenziati in funzione del livello di rischio associato ai sistemi di IA. Questi vengono classificati in quattro categorie: pratiche vietate, sistemi ad alto rischio, a rischio limitato e a rischio minimo. Più elevato è il rischio, maggiori sono i requisiti di governance, controllo e trasparenza da rispettare.

a cura di Avv. Claudio Cicu e Avv. Davide Cicu