L’IA Act (Artificial Intelligence Act) è una proposta legislativa avanzata dalla Commissione europea per regolamentare l’uso e lo sviluppo dei sistemi di intelligenza artificiale (IA) all’interno della Comunità europea. Questo atto mira a creare un quadro giuridico chiaro e coerente per promuovere l’adozione responsabile dell’IA e proteggere i diritti fondamentali dei cittadini europei.
L’obiettivo principale dell’IA Act è bilanciare l’innovazione tecnologica e la protezione dei diritti umani, evitando abusi e limitando i rischi associati all’uso dei sistemi di IA. La proposta si concentra su tre categorie di sistemi di IA: i sistemi ad alto rischio, i sistemi di intelligenza artificiale limitata e gli altri sistemi di intelligenza artificiale.
I sistemi ad alto rischio includono applicazioni che potrebbero influire sulla salute e la sicurezza delle persone, come ad esempio i sistemi utilizzati nei settori dell’assistenza sanitaria, dei trasporti, della giustizia e della gestione delle infrastrutture critiche. L’IA Act richiede che tali sistemi siano soggetti a requisiti rigorosi, tra cui la certificazione, la documentazione dettagliata, la trasparenza, la supervisione umana e i test indipendenti.
I sistemi di intelligenza artificiale limitata sono quelli che presentano rischi potenziali, ma di minore entità rispetto ai sistemi ad alto rischio. In questo caso, l’IA Act richiede solo una serie di misure di conformità proporzionate al livello di rischio, come la documentazione minima e la marcatura[1].
Gli altri sistemi di intelligenza artificiale sono soggetti a obblighi minimi e alle normative generali dell’UE, come la protezione dei dati personali e la sicurezza dei prodotti.
L’IA Act introduce anche l’istituzione di un organismo di certificazione dell’IA, che valuterà i sistemi ad alto rischio prima che possano essere commercializzati o utilizzati all’interno dell’UE. Questo organismo avrà il compito di effettuare controlli e verifiche indipendenti per garantire che i sistemi di IA rispettino le norme previste dalla legislazione.
L’effetto dell’IA Act sull’evoluzione dei sistemi di intelligenza artificiale potrebbe essere significativo. Da un lato, la normativa definisce standard elevati per garantire la sicurezza, la trasparenza e la responsabilità nell’uso dell’IA. Ciò potrebbe incoraggiare lo sviluppo di tecnologie innovative e fiducia nella loro adozione. D’altro canto, le restrizioni e gli obblighi imposti potrebbero rappresentare una sfida per le aziende che sviluppano sistemi di IA, richiedendo investimenti aggiuntivi in conformità e certificazioni.
Alcuni esperti e gruppi di interesse hanno sollevato preoccupazioni riguardo alla definizione dei sistemi di intelligenza artificiale ad alto rischio: la complessità delle procedure di conformità e i meccanismi di certificazione rischiano di essere un onere eccessivo per le PMI e le startup dove le startup e le PMI ad composte di tecnici di elevate competenze potrebbero essere degli attori importanti negli sviluppi di questi progetti.
Inoltre, ci sono dibattiti aperti sul ruolo dei dati di addestramento, la governance dell’IA e l’efficacia delle misure proposte nel raggiungere i loro obiettivi.
L’ambizione del Parlamento Europeo è quella di diventare una guida per tutto il mondo in materia di regole Tech. Il passo fatto è solo il primo: ore parte, a passi forzati visto che si vuole giungere ad una conclusione quanto prima, il cosiddetto «trilogo» (ossia il negoziato tra le tre istituzioni che gestiscono l’Europa: Parlamento, Commissione e Consiglio).
Se da una parte è apprezzabile il fatto di aver portato il tema al centro del dibattito, dall’altra la preoccupazione. L’esperienza della privacy è lì e duole: non c’è azienda che non abbia visto crescere in modo assai sproporzionato l’onere per la gestione di procedure che, se da una parte erano necessarie, dall’altra sono state fatte in un modo iper-burocratico e senza adempimenti chiari in capo alle aziende. Il risultato è un mostro di burocrazia la cui manifestazione più nota per i cittadini è il dover fare un fastidioso click su ogni sito che si va visitando.
[1] L’IA Act prevede la marcatura per alcuni tipi di software di intelligenza artificiale (IA). La marcatura è un requisito specifico per i sistemi di intelligenza artificiale limitata, che sono considerati a basso rischio. Questi sistemi devono essere chiaramente identificati come software di IA mediante un’etichetta o un simbolo.
La marcatura serve a informare gli utenti e gli operatori sul fatto che stanno utilizzando un software di IA e che è soggetto a requisiti minimi di conformità stabiliti dalla legislazione. La finalità è aumentare la consapevolezza degli utenti riguardo all’uso di IA e promuovere una maggiore trasparenza nell’adozione di tali tecnologie.
Andrea Bicocchi @Andrea_Bicocchi