AI ACT: Un Ostacolo o un beneficio allo sviluppo dell’intelligenza artificiale?

11 Marzo 2024

Rispondono a questa domanda Luca Bixio, CEO di FlairBit e Fabio Pagano, Product Manager di Credemtel.

Ma partiamo dal principio, cos’è l’AI ACT? Si tratta del regolamento recentemente approvato dagli Stati membri dell’Unione Europea il 2 febbraio 2024. Tale normativa regola lo sviluppo, l’introduzione sul mercato e l’utilizzo dei “sistemi di Intelligenza Artificialeall’interno del territorio dell’UE. Ma prima di esaminare i pro e i contro derivanti da questo nuovo regolamento secondo il punto di vista di Luca Bixio e Fabio Pagano, vediamo quali sono le basi dell’Artificial Intelligence ACT

Il suo principale obiettivo è quello di stabilire regole basate sul rischio, con normative più rigide per i sistemi di AI ad alto impatto e potenzialmente più rischiosi. Il regolamento è quindi strutturato in livelli: più alto è il rischio, maggiori sono le responsabilità e i limiti per chi sviluppa o utilizza sistemi di intelligenza artificiale.

Con queste premesse, quindi, la domanda che ci poniamo è questa: la regolamentazione dell’intelligenza artificiale è un’iniziativa utile? Essendo un regolamento soggetto all’approvazione della Comunità Europea, la sua adozione richiederà il recepimento da parte degli Stati membri. 

È importante quindi sottolineare che la decisione di adottarla non è a discapito del singolo stato e che tutti gli stati membri dovranno adeguarsi al momento dell’entrata in vigore. 

Dalla situazione delineata, emerge un chiaro intento da parte dell’Europa di adottare una posizione uniforme nel contesto globale. È importante considerare che l’intelligenza artificiale si applica a molti settori, tra i quali l’industria, la medicina, la farmaceutica e la sicurezza. In tali contesti, la sensibilità agli impatti dell’IA è elevata e la necessità di una regolamentazione che protegga gli individui è indubbiamente auspicabile e vantaggiosa.

“Oltre ai rischi”, aggiunge Fabio Pagano, “è cruciale considerare gli aspetti etici legati all’uso dell’intelligenza artificiale”. Continua “Il giudizio sull’IA dipende fondamentalmente dal modo in cui viene impiegata la tecnologia. Anche quando si perseguono obiettivi eticamente corretti, infatti, è plausibile che gli algoritmi possano essere influenzati da preconcetti umani (bias), rischio spesso radicato.” 

Pertanto, uno degli obiettivi principali della regolamentazione è valutare e mitigare il livello di rischio associato, compresa la possibilità di preconcetti. Nei dati e modelli di AI possono essere presenti pregiudizi legati a fattori come l’orientamento religioso, etnico, sessuale o di genere, tutti elementi che possono influenzare negativamente gli algoritmi, generando bias e distorsioni. Gli effetti in cascata possono essere più o meno profondi, così come le minacce per la comunità. 

Per Luca Bixio, “l’adozione di una regolamentazione è auspicabile poiché impone ai produttori di assumersi la responsabilità degli algoritmi stessi che creano. Ciò significa che non solo i produttori e gli utenti diretti, ma anche coloro che integrano gli algoritmi in sistemi terzi saranno tenuti a rispondere dell’utilizzo dell’IA in contesti specifici.”

Dato che l’AI ACT è un regolamento europeo, sorge la questione delle relazioni con i paesi al di fuori dell’UE. È cruciale comprendere come tali paesi reagiranno, considerando che il primo ad adottare la regolamentazione potrebbe guadagnare un vantaggio competitivo rispetto a coloro che si adeguano successivamente.

In contrasto con gli Stati Uniti, per esempio, dove le linee guida sono di adozione volontaria e a discrezione di chi sviluppa l’algoritmo, nell’Unione Europea la regolamentazione impone requisiti obbligatori. È quindi responsabilità degli sviluppatori decidere autonomamente se adeguarsi alla normativa o meno. All’Europa poi il compito di cercare e instaurare il dialogo con gli stati dove non vige il regolamento. 

Tra gli ostacoli derivanti dall’adeguamento alla regolamentazione, possiamo temere l’onere finanziario per la conformità alla stessa e la sfida nel seguire i rapidi cambiamenti tecnologici e normativi. Tuttavia, poiché la regolamentazione si basa su linee guida procedurali anziché su specifiche tecnologiche, il rischio di obsolescenza dovrebbe essere mitigato. Le linee guida rimangono focalizzate sui principi fondamentali anziché sui dettagli tecnologici in continua evoluzione.

E se tutte queste regole fossero un ostacolo all’innovazione digitale? A prima vista lo si potrebbe pensare, tuttavia il pensiero comune è che siano indispensabili. Le nuove tecnologie portano con sé il rischio di creare situazioni pericolose, è quindi necessario avere un meccanismo in grado di gestirle e contenerle ed un framework che aiuti a mitigarle aumentandone la consapevolezza.

Le conclusioni suggeriscono un sostegno positivo alla regolamentazione. Si ritiene che, se la tecnologia aderisce agli standard stabiliti, i consumatori finali potranno trarne beneficio con fiducia, avendo la garanzia di utilizzare prodotti che rispettino i principi di trasparenza, “assenza” di bias e corretto utilizzo dei dati.

Non solo quindi regole per chi produce, ma anche sicurezza e fiducia per chi le utilizza. “Potenzialmente”, conclude Luca Bixio, “è una regolamentazione interessante in quanto mira a garantire che lo sviluppo e l’utilizzo dell’IA avvengano in modo sicuro, etico e trasparente”.