Cos'è e a cosa serve l'AI Act? Tutto sul regolamento europeo per l'intelligenza artificiale

Alessandro Nodari
Alessandro Nodari
Cos'è AI Act

L'intelligenza artificiale è entrata nelle nostre vite, tanto che difficilmente non avrete già avuto modo di "incontrarla". Che sia utilizzando funzioni sul telefono o computer, leggendo articoli, incappando in immagini sui media o anche sfruttando un servizio, è ovunque. 

Ma come controllare questa diffusione esplosiva? L'Unione Europea si è posta il problema e a luglio 2024 ha pubblicato il primo quadro giuridico sulla tecnologia. Scopriamo quindi cos'è l'AI Act (Artificial Intelligence Act), quali sono i suoi obiettivi, quando entra in vigore ed eventualmente quali sanzioni comporta.

Per rispondere alle preoccupazioni dei cittadini, ma non solo, si è infatti reso necessario introdurre uno strumento in grado di promuovere un'IA sicura. Questa legge intende far rispettare i diritti fondamentali, la trasparenza e i principi etici dell'UE affrontando i rischi che i modelli IA possono comportare. Scopriamo in che modo.

Indice

Che cos'è l'AI Act

L'AI Act (Artificial Intelligence Act, regolamento UE 2024/1689) è il primo quadro giuridico al mondo introdotto dall'Unione Europea per regolamentare l'IA e affrontarne i rischi.

C'era bisogno di una regolamentazione?

L'esplosione dell'intelligenza artificiale in tutti i settori ha portato i legislatori a chiedersi che rischi potesse comportare. Per questo motivo si è giunti alla conclusione che sebbene la maggioranza dei sistemi IA rappresenti un'opportunità (quindi non sia un pericolo o comunque lo sia in modo limitato), in altri casi la situazione è più delicata. 

Non solo, ma la legislazione vigente, per quanto in grado di offrire certe coperture, si è rivelata insufficiente. Per esempio: come sapere perché un modello IA ha deciso di non far assumere una persona?

In molti casi non è possibile stabilirlo, e questo comporta che non si può sapere se un cittadino sia stato ingiustamente svantaggiato. 

Arriva quindi l'IA Act

Per questo l'UE ha lanciato una proposta di regolamento nel 2021, poi approvato a marzo 2024 ed entrato in vigore ad agosto 2024 (ma non ancora applicato).

L'obiettivo delle nuove regole, che si possono leggere per intero qui, è affrontare i rischi dei grandi modelli IA, in modo da promuovere una tecnologia sicura, trasparente, tracciabile e che non favorisce la discriminazione.

Cosa propone l'Artificial Intelligence Act Proposal?

La prima proposta dell'AI Act risale al 21 aprile 2021, quindi ben prima dell'esplosione di strumenti AI come ChatGPT. L'Artificial Intelligence Act Proposal dalla Commissione europea era inteso a stabilire norme armonizzate sull'IA e ha messo le basi per l'IA Act.

Il testo è stato rivisto nel 2023 per affrontare l'aumento della popolarità dei sistemi di intelligenza artificiale generativa, come ChatGPT, le cui capacità di uso generale non si adattavano al quadro principale. 

Il 13 marzo 2024 il Parlamento Europeo ha approvato la legge, che è stata approvata dal Consiglio dell'UE il 21 maggio 2024, per essere pubblicata il 12 luglio 2024.

Gli obiettivi dell'IA Act

L'IA Act si pone quindi una serie di obiettivi, intesi a far sì che i sistemi IA siano riconosciuti a livello europeo e soprattutto ad aumentare la fiducia in questa tecnologia grazie a una maggiore trasparenza.

  • Determinare i rischi dell'IA:
    • Determinare un elenco di applicazioni ad alto rischio
    • Vietare le pratiche di intelligenza artificiale che pongono rischi inaccettabili
  • Definire le regole:
    • Impostare requisiti chiari per i sistemi di intelligenza artificiale per applicazioni ad alto rischio
    • Definire obblighi specifici per distributori e fornitori di applicazioni di intelligenza artificiale ad alto rischio
    • Richiedere una valutazione della conformità prima che un determinato sistema di intelligenza artificiale venga messo in servizio o messo sul mercato
  • Applicare le regole:
    • Mettere in atto l'applicazione dopo che un determinato sistema di intelligenza artificiale è stato immesso sul mercato
    • Stabilire una struttura di governance a livello europeo e nazionale

I termini utilizzati

Giusto per chiarezza, l'AI Act utilizza alcuni termini su cui è opportuno fare chiarezza:

  • Fornitori: chi sviluppa un sistema AI e lo mette sul mercato
  • Importatori: società private stabilite nell'UE o nel SEE che mettono sul mercato un sistema di intelligenza artificiale di un fornitore stabilito al di fuori dell'UE. Ad esempio, la filiale con sede nell'UE di un gruppo aziendale statunitense che colloca il sistema di intelligenza artificiale sviluppato dalla holding statunitense sul mercato dell'UE sarà considerata un importatore
  • Distributori: aziende private che fanno parte della catena di approvvigionamento che rende disponibile un sistema di intelligenza artificiale sul mercato dell'UE, ma non sono né fornitori né importatori. Ad esempio, se una società con sede negli Stati Uniti sviluppa un sistema di intelligenza artificiale, che viene importato nell'UE da una filiale con sede in Germania (l'importatore) e questa filiale tedesca utilizza a turno la propria filiale situata in Grecia per commercializzare il sistema di intelligenza artificiale in Grecia, la società greca sarà definita distributore.
  • Deployer: società private che utilizzano un sistema di intelligenza artificiale sotto la loro autorità, tranne quando il sistema di intelligenza artificiale viene utilizzato nel corso di un'attività personale non professionale. Ad esempio, una società privata nell'UE acquista una licenza per un sistema di intelligenza artificiale per assisterla con il reclutamento del personale

Un approccio basato sul rischio

Come si può vedere, l'IA Act segue un approccio basato sul rischio.

Questo significa che il quadro regolatorio definisce quattro livelli di rischio: minimo, limitato, alto e non accettabile, oltre 

Rischio minimo o nullo

Questo rappresenta la maggioranza delle applicazioni AI, che non hanno un impatto sulla sicurezza. I sistemi che rientrano in questa categoria non sono regolamentati, ma è suggerito un codice di condotta volontario.

Gli Stati membri non possono imporre regolamenti aggiuntivi a causa delle norme armonizzate, ma devono rispettare le leggi nazionali esistenti.

Esempi di sistemi di questo tipo sono applicazioni generiche come videogiochi abilitati all'intelligenza artificiale o filtri antispam.

Rischio limitato

A questa categoria appartengono i sistemi di intelligenza artificiale che hanno un impatto sui cittadini (dal punto di vista delle informazioni, della volontà o dei diritti), seppur limitato.

I sistemi appartenenti a questa categoria sono, ad esempio, applicazioni di intelligenza artificiale che consentono di generare o manipolare immagini, suoni o video (come i deepfake), o quelli che forniscono suggerimenti personalizzati (come i chatbot).

Questi sistemi hanno obblighi di trasparenza, in quanto devono assicurare che gli utenti siano informati che stanno interagendo con un sistema di intelligenza artificiale e devono consentire loro di fare scelte informate.

I fornitori di servizi di questo tipo devono anche garantire che i contenuti generati dall'intelligenza artificiale siano identificabili. Non solo, ma il testo generato dall'IA pubblicato con lo scopo di informare il pubblico su questioni di interesse pubblico deve essere etichettato come tale.

Rischio alto

I sistemi IA che appartengono a questa categoria rappresentano una significativa minaccia per la salute, la sicurezza o i diritti fondamentali delle persone.

L'elenco delle applicazioni ad alto rischio può essere ampliato nel tempo, senza la necessità di modificare l'AI Act stesso, e alcuni esempi sono i sistemi di intelligenza artificiale utilizzati:

  • nelle infrastrutture critiche, come i trasporti, l'energia o l'acqua
  • nella formazione educativa o professionale, che può determinare l'accesso all'istruzione e al corso professionale della vita di qualcuno
  • nella salute
  • nell'istruzione e nella formazione professionale, ad esempio per valutare i risultati dell'apprendimento e guidare il processo di apprendimento e il monitoraggio degli imbrogli
  • nel reclutamento del personale
  • nei servizi privati e pubblici essenziali (come la valutazione per ottenere un prestito)
  • nelle forze dell'ordine (esempio nella sorveglianza biometrica non in tempo reale)
  • nella giustizia (come applicazioni per cercare sentenze giudiziarie))
  • nei componenti di sicurezza dei prodotti (come applicazioni nella chirurgia assistita da robot)
  • nel controllo delle frontiere

Questi sistemi, che sono consentiti, sono soggetti a obblighi di qualità, trasparenza, supervisione umana e sicurezza e in alcuni casi richiedono una "valutazione dell'impatto dei diritti fondamentali" prima dell'implementazione.

Inoltre devono essere valutati sia prima di essere immessi sul mercato che per tutto il loro ciclo di vita.

Rischio non accettabile 

I sistemi appartenenti UA a questa categoria sono vietati (a parte specifiche eccezioni che vedremo più sotto). Sono inclusi in questa sezione le applicazioni di intelligenza artificiale che manipolano il comportamento umano, quelle che utilizzano l'identificazione biometrica remota in tempo reale (come il riconoscimento facciale) negli spazi pubblici e quelle utilizzate per il punteggio sociale (classificare gli individui in base alle loro caratteristiche personali, allo stato socioeconomico o al loro comportamento).

Rischi sistemici - modelli IA generici

Inoltre, l'AI Act considera un'altra categoria, relativa ai modelli IA generici, compresi i grandi modelli di intelligenza artificiale generativi, che potrebbero porre rischi sistemici.

Questi modelli, che stanno diventando la base per molti sistemi IA, se molto capaci o ampiamente utilizzati potrebbero comportare rischi sistemici. Ad esempio, modelli potenti potrebbero causare gravi incidenti o essere utilizzati in modo improprio per attacchi informatici di vasta portata.

Molti individui potrebbero essere colpiti se un modello propaga pregiudizi dannosi in molte applicazioni.

Attualmente si ritiene che i modelli di intelligenza artificiale generica che sono stati addestrati utilizzando una potenza di calcolo totale di oltre 10^25 FLOP rappresentino rischi sistemici (ma la Commissione può aggiornare questa soglia). 

I fornitori di modelli con rischi sistemici sono obbligati a valutare e mitigare i rischi, segnalare incidenti gravi, condurre test all'avanguardia e valutazioni dei modelli e garantire la sicurezza informatica dei loro modelli.

Esenzioni

Ci sono alcune esenzioni al regolamento, indicate per sostenere lo sviluppo o la sicurezza. Ad esempio, le attività di ricerca, sviluppo e prototipazione che si svolgono prima del rilascio sul mercato di un sistema di intelligenza artificiale non sono soggette a questi regolamenti.

Anche i sistemi di intelligenza artificiale progettati esclusivamente per scopi militari, di difesa o di sicurezza nazionale sono esenti, indipendentemente dal tipo di entità che svolge tali attività.

A chi sono rivolte queste regole

L'IA Act viene applicato a tutti quegli attori, sia pubblici che privati, con sede all'interno e all'esterno dell'UE, che immettono un sistema di intelligenza artificiale sul mercato dell'Unione o il suo uso ha un impatto sulle persone situate nell'UE.

Questo riguarda fornitori (provider), importatori, distributori e deployer di strumenti AI. Questo significa che tutte le parti coinvolte nei sistemi di intelligenza artificiale, dallo sviluppo alla distribuzione, saranno ritenute responsabili.

Cosa devono fare le aziende coinvolte

L'applicazione e l'attuazione dell'IA Act con gli Stati membri è deputato all'European AI Office, istituito nel febbraio 2024 all'interno della Commissione.

Come abbiamo spiegato in precedenza, i fornitori di sistemi IA a rischio minimo o nullo non hanno obblighi (se non legati a un codice volontario e alle leggi in vigore.

Quelli a rischio limitato devono rispettare requisiti di trasparenza e permettere ai cittadini di sapere che stanno usando un servizio di questo tipo.

Dopo aver sviluppato un sistema ad alto rischio, i produttori devono:

  • Sottoporsi a valutazioni di conformità pertinenti (che possono coinvolgere un ente terzo)
  • Registrarsi presso il database centralizzato dell'UE, avere un sistema di gestione della qualità conforme in atto e mantenere documentazione e registri adeguati
  • Il sistema riceverà una dichiarazione di conformità, con tanto di marchio CE. A questo punto il sistema può arrivare sul mercato
  • L'azienda deve continuare a garantire la conformità normativa ed essere pronti a dimostrare tale conformità su richiesta: in caso di problemi deve tornare a sottoporsi alla valutazione e ripetere il ciclo

Una volta che un sistema di intelligenza artificiale è sul mercato, saranno le autorità a essere responsabili della sorveglianza del mercato. Chi implementa il sistema deve assicurare la supervisione e il monitoraggio umano e i fornitori hanno un sistema di monitoraggio post-commercializzazione. I fornitori e i distributori dovranno segnalare incidenti gravi e malfunzionamenti.

Non solo regole: le iniziative per sostenere l'innovazione

L'AI Act è solo una parte di un pacchetto di misure politiche per sostenere lo sviluppo di un'IA affidabile, che includono l'AI Innovation Package e il Coordinated Plan on AI.

L'AI Innovation Package include una vasta gamma di misure per sostenere le startup di intelligenza artificiale e l'innovazione, tra cui una proposta per fornire un accesso privilegiato ai supercomputer alle startup di intelligenza artificiale e alla comunità del settore. 

Il Coordinated Plan on AIpubblicato nel 2018, è un impegno congiunto tra la Commissione, gli Stati membri dell'UE, la Norvegia e la Svizzera per massimizzare il potenziale dell'Europa di competere a livello globale sull'IA.

Il piano, aggiornato nel 2021, mira a trasformare la strategia in azione spingendo a:

  • Accelerare gli investimenti nelle tecnologie di intelligenza artificiale per guidare la resilienza della ripresa economica e sociale, aiutata dall'assorbimento di nuove soluzioni digitali
  • Attuare completamente e prontamente strategie e programmi di intelligenza artificiale per garantire che l'UE massimizzi i vantaggi di adottare queste soluzioni
  • Allineare la politica di intelligenza artificiale per rimuovere la frammentazione e affrontare le sfide globali

Quando entrerà in vigore l'AI Act

Quando è entrato in vigore l'AI Act

Come abbiamo anticipato nei capitoli precedenti, l'IA Act (Regolamento europeo 2024/1689 ) è stato approvato a maggio 2024 e la legge pubblicata a luglio 2024.

20 giorni dopo, il 1° agosto 2024, è entrato in vigore in tutti i 27 Stati membri dell'UE. 

Quando verrà applicato

Questo però non significa che la sua applicazione sia immediata. Come stabilito dalla Commissione, l'applicazione della maggior parte delle sue disposizioni inizierà l'1 agosto 2026, due anni dopo, ma con una scaletta precisa: 

  • i divieti entreranno in vigore dopo sei mesi, quindi dall'1 febbraio 2025
  • le regole di governance e gli obblighi per i modelli di intelligenza artificiale generici diventeranno applicabili dopo 12 mesi, quindi dall'1 agosto 2025
  • le regole per i sistemi di intelligenza artificiale - incorporati in prodotti regolamentati - si applicheranno dopo 36 mesi, quindi dall'1 agosto 2027.

L'AI Pact

Per facilitare la transizione al nuovo quadro normativo, la Commissione ha lanciato l'AI Pact, un'iniziativa volontaria che cerca di sostenere la futura attuazione e invita gli sviluppatori di intelligenza artificiale dall'Europa e oltre a rispettare in anticipo gli obblighi chiave della legge sull'IA.

Due sono i "pilastri" di questo quadro preparatorio all'implementazione dell'AI Act: raccolta e scambio con la rete AI Pact, e facilitazione e comunicazione degli impegni aziendali

Il primo pilastro è inteso alla creazione di una comunità collaborativa, in cui le aziende condividono le loro esperienze e conoscenze. Il secondo è vuole invece fornire un quadro per promuovere l'attuazione precoce di alcune delle misure dell'AI Act, incoraggiando le organizzazioni a rivelare in modo proattivo i processi e le pratiche che stanno implementando per anticipare la conformità.

Che sanzioni sono previste per chi viola l'AI Act?

I nuovi organismi istituiti con l'AI Act

La Commissione ha istituito l'European AI Office per sovrintendere all'applicazione e all'attuazione dell'AI Act con gli Stati membri, supervisionando la conformità dei fornitori di intelligenza artificiale generici.

Ma questo non è l'unico organismo creato per organizzare questa complessa architettura.

L'European Artificial Intelligence Board, composto da un rappresentante di ogni Stato membro, consiglierà e assisterà la Commissione e gli Stati membri per facilitare l'applicazione coerente ed efficace della legge sull'IA.

I suoi compiti includono la raccolta e la condivisione di competenze tecniche e normative, la fornitura di raccomandazioni, pareri scritti e altri consigli.

L'Advisory Forum, istituito per consigliare e fornire competenze tecniche al Consiglio e alla Commissione, includerà esponenti dell'industria, delle start-up, delle piccole e medie imprese, della società civile e del mondo accademico, garantendo che un ampio spettro di opinioni sia rappresentato durante il processo di attuazione e applicazione.

Infine, lo Scientific Panel of Independent Experts fornirà consulenza tecnica e input all'Ufficio IA e alle autorità nazionali, applicherà le regole per i modelli di intelligenza artificiale generici e garantirà che le regole e le implementazioni dell'AI Act corrispondano alle ultime scoperte scientifiche.

Le sanzioni

Ma cosa rischiano le aziende che non saranno in regola con l'AI Act? Come indicato nell'Articolo 99 dell'AI Act, le sanzioni possono andare dal semplice avvertimento o diffida a multe anche salatissime. 

La Commissione ha stabilito che gli Stati membri possono stabilire le norme in materia di sanzioni e altre misure di esecuzione, ma devono essere efficaci, proporzionate e dissuasive, e prendere in considerazione gli interessi delle PMI, comprese le start-up, e la loro redditività economica.

Le sanzioni possono essere anche avvertimenti e misure non monetarie, come misure correttive o diffide, ma secondo la commissione queste sono le linee guida generali:

  • In caso di mancato rispetto del divieto delle pratiche di intelligenza artificiale relative all'articolo 5 (pratiche vietate) le sanzioni amministrative arrivano fino a 35 milioni di euro o, se l'autore del reato è un'impresa, fino al 7% del suo fatturato annuo mondiale totale per l'esercizio finanziario precedente, a seconda di quale sia il più alto
  • In caso di mancato rispetto di uno degli obblighi del regolamento diversi da quelle dell'articolo 5, la sanzione arriva fino a 15 milioni di euro o, se l'autore del reato è un'impresa, fino al 3% del suo fatturato annuo totale mondiale per l'esercizio precedente, a seconda di quale sia superiore
  • In caso vengano fornite informazioni errate, incomplete o fuorvianti agli organismi notificati o alle autorità nazionali la sanzione arriva fino a 7,5 milioni di euro o, se l'autore del reato è un'impresa, fino all'1% del suo fatturato annuo mondiale totale per l'esercizio finanziario precedente, a seconda di quale sia il più alto.

Nel decidere se imporre una multa amministrativa e l'importo, il Paese membro deve tenere conto di tutte le circostanze rilevanti della situazione specifica, tenendo conto della gravità del reato, della durata e di altre caratteristiche, come l'eventuale negligenza o cooperazione dell'operatore.

Giustizia riparativa

L'AI Act va oltre, e insieme alle sanzioni stabilisce che chi viene colpito da una violazione del regolamento possa accedere a strumenti riparativi. Secondo la legge, gli Stati devono garantire strumenti di ricorso e di rimedio alle persone colpite da eventuali violazioni dei diritti fondamentali.

Un esempio di applicazione: i deep fake

L'AI Act si propone quindi come un insieme di regole chiare ma plastiche, in grado di adattarsi all'evoluzione delle tecnologie, per chi opera nel settore dell'IA. 

Cosa sono i deep fake secondo l'AI Act

Ma cosa succede nel caso di una violazione? Prendiamo un esempio semplice e popolare, come i deep fake. Secondo l'Articolo 3 (60), i deep fake sono definiti come "contenuti di immagini, audio o video generati o manipolati dall'intelligenza artificiale che assomigliano a persone, oggetti, luoghi, entità o eventi esistenti e che apparirebbero falsamente a una persona autentici o veritieri".

I deep fake sono vietati?

L'AI Act non vieta completamente i deep fake, ma cerca di affrontare le sfide che questi contenuti possono creare imponendo rigorosi requisiti di trasparenza sia ai fornitori che agli utenti dei sistemi di intelligenza artificiale.

In generale, questo significa che i sistemi di intelligenza artificiale per creare deep fake sono tenuti a rivelare chiaramente che il contenuto è stato creato o manipolato artificialmente.

Questo deve avvenire etichettando l'output dell'IA come tale e divulgando la sua origine artificiale (a meno che l'uso non sia autorizzato dalla legge per rilevare, prevenire, indagare e perseguire un reato penale).

Come devono essere etichettati i deep fake

Ai sensi della legge sull'UE sull'IA, i sistemi AI che generano testo, immagini, video o immagini devono etichettare un contenuto sia a livello di fornitore che di deployer. Ma i requisiti sono diversi. 

I fornitori

I fornitori di sistemi AI che generano immagini, audio, video o testi, devono garantire che l'output sia contrassegnato in un formato leggibile dalla macchina.

Tali soluzioni devono essere efficaci, interoperabili, robuste e affidabili nella misura tecnicamente fattibile. I potenziali metodi di identificazione possono essere implementati direttamente dai modelli IA e possono essere:

  • filigrane 
  • metadati
  • metodi crittografici per dimostrare la provenienza e l'autenticità del contenuto
  • metodi di registrazione
  • impronte digitali

Deployer

I deployer di un sistema IA che genera o manipola contenuti di immagini, audio o video che costituiscono un deep fake devono rivelare che il contenuto è stato generato o manipolato artificialmente.

Questa divulgazione deve essere fatta "chiaramente e distintamente" etichettando di conseguenza il contenuto e rivelando la sua origine artificiale.

L'unico momento in cui i deployer non hanno bisogno di rivelare che tale output è creato dall'IA è se la legge consente tale uso di rilevare, prevenire, indagare o perseguire reati.

Laddove il contenuto faccia parte di un'opera evidentemente artistica, gli obblighi di trasparenza si limitano alla divulgazione dell'esistenza di tale contenuto generato o manipolato in un modo che non ostacola la visualizzazione o il godimento dell'opera, come stabilito dall'Art. 50(4).

Anche se non riguarda i deep fake, l'AI Act parla anche del testo, se questo viene pubblicato allo scopo di informare il pubblico su questioni di interesse pubblico. In questo caso, gli utilizzatori di tale sistema di intelligenza artificiale devono rivelare che il testo è stato generato o manipolato artificialmente.

L'eccezione è che questo non sia autorizzato dalla legge per rilevare, prevenire, indagare o perseguire reati penali.

Oppure che il contenuto generato dall'IA sia stato sottoposto a un processo di revisione umana o controllo editoriale e una persona fisica o giuridica abbia la responsabilità editoriale per la pubblicazione del contenuto.

Cosa comporta questo in pratica

In pratica l'AI Act impone che i deep fake siano etichettati almeno a livello di fornitore, ovvero sviluppatore del modello, anche nel caso di un utilizzo non professionale (sotto la categoria deployer non cadono i privati). 

Quindi un deep fake sarà comunque (almeno teoricamente) identificabile da un marchio tecnico, che deve essere rilevabile facilmente.

A questo punto tutto cade nella capacità di rilevare i deep fake: le aziende sviluppatrici di modelli AI sono interessate realmente a mitigare i rischi di questi contenuti? 

Il canale degli sconti tech +50k
Tutti i migliori sconti e coupon per la tecnologia
Seguici