AttualitàCultura

L’AI secondo l’Europa, tra classificazione del rischio e protezione delle persone

Come l’AI Act costruisce un sistema di regole per un’intelligenza artificiale sicura e sotto controllo umano

di Rosa Buzzi

L’Unione Europea, prima organizzazione al mondo a dotarsi di un quadro giuridico organico in materia, ha emanato il Regolamento (UE) 2024/1689, introducendo un regime normativo unitario e armonizzato per l’uso dell’AI. Tale regolamento, conosciuto come AI Act, è entrato in vigore il 01/08/2024 e sarà applicato in via progressiva a partire dal 2025, ponendo le basi di un sistema comune di regole fondato su sicurezza, trasparenza e tutela dei diritti fondamentali. Infatti, la disciplina si applica in modo uniforme in tutti gli Stati membri e vincola chi sviluppa o commercializza sistemi di AI destinati al mercato europeo.

L’AI Act nasce per garantire che lo sviluppo e l’uso dell’AI nell’UE rispettino i valori europei, la dignità umana, la democrazia, lo stato di diritto e la protezione dei dati personali. La normativa non mira a frenare l’innovazione ma a promuoverla in un contesto di fiducia e responsabilità, riflettendo il principio di un’AI affidabile, tracciabile, sotto controllo umano, capace di coniugare competitività tecnologica e tutela dei cittadini.

Secondo l’AI Act, un modello di AI è un sistema algoritmico addestrato su vaste basi di dati, progettato per individuare regolarità, produrre valutazioni o generare risultati autonomamente. I modelli di AI possono avere scopi generali, come i foundation models – capaci di adattarsi a diversi contesti e funzioni – oppure essere progettati per ambiti specializzati, ad esempio l’analisi di immagini mediche o il riconoscimento linguistico.

Proprio per il loro potenziale impatto trasversale, l’AI Act stabilisce per i fornitori di modelli obblighi precisi in materia di sicurezza, trasparenza e controllo umano, imponendo particolare attenzione ai rischi di distorsione, uso improprio e disinformazione. La base del nuovo impianto normativo è la classificazione dei modelli di AI secondo il livello di rischio del loro utilizzo. Questo criterio determina obblighi proporzionati a tutela della sicurezza e dei diritti fondamentali dell’uomo. Più alto è il rischio e più stringenti sono gli obblighi.

Le categorie di rischio individuate dall’AI Act si articolano su quattro livelli, proporzionati al potenziale impatto derivante dall’uso dei vari modelli:

  • Rischio nullo o minimo: Filtri antispam, videogiochi e strumenti di traduzione automatica; non vengono richiesti adempimenti specifici;
  • Rischio limitato: chatbot e generatori di immagini; in questi casi è obbligatoria la trasparenza e l’utente deve essere informato di interagire con un’AI;
  • Rischio elevato: applicazioni legate all’impiego, al credito, all’istruzione, alla sanità, alle infrastrutture critiche o alla pubblica amministrazione. I fornitori devono rispettare requisiti stringenti su qualità dei dati, sorveglianza umana, registrazione nel database europeo e audit periodici;
  • Rischio inaccettabile: modelli che minacciano la libertà o la dignità umana, come la manipolazione cognitiva, il social scoring o il riconoscimento biometrico di massa. Sono vietati nell’Unione Europea.

L’applicazione dell’AI Act è garantita da un meccanismo di supervisione europeo, che coordina le autorità nazionali e vigila affinché i modelli di AI rispettino le regole comuni di sicurezza e trasparenza.

L’AI Act rappresenta dunque un passo storico nella regolazione globale sull’uso dell’AI e afferma il principio cardine che l’innovazione tecnologica è legittima solo se tutela la persona e la democrazia.