top of page

I paradossi della regolamentazione dell'Unione Europea sull'IA (N. Rangone - Ripubblicato da The Regulatory Review)

  • 13 mar
  • Tempo di lettura: 8 min

La presente versione è tradotta automaticamente dal testo in lingua inglese


La regolamentazione dell'IA da parte dell'UE riesce a trovare un equilibrio unico tra innovazione e tutela dei diritti fondamentali.

L'Unione Europea si è posizionata come promotrice di un modello di governance dell'intelligenza artificiale (IA) " basato sui diritti ". L'UE ha esercitato i propri poteri regolatori per "promuovere l'adozione di un'intelligenza artificiale (IA) incentrata sull'uomo e affidabile, garantendo al contempo un elevato livello di protezione della salute, della sicurezza, dei diritti fondamentali... e sostenendo l'innovazione". L'approccio europeo mira a garantire un elevato livello di protezione dei diritti fondamentali e a riequilibrare le asimmetrie di potere, limitando le grandi aziende tecnologiche e al contempo responsabilizzando gli utenti e le piccole imprese. Tuttavia, questo modello è oggetto di forti critiche, soprattutto se confrontato con il contesto normativo " orientato al mercato " degli Stati Uniti e con il modello coordinato a guida statale della Cina, entrambi i quali hanno favorito l'ascesa di colossi tecnologici globali.

Gli esperti sostengono che la regolamentazione europea abbia sempre più funzionato come sostituto degli investimenti. Di fronte a una capacità fiscale limitata per sostenere l'innovazione su larga scala, la Commissione europea ha fatto ampio ricorso alla regolamentazione come leva politica, compensando l'assenza di una strategia industriale coerente nel campo dell'intelligenza artificiale.

Concentrandosi principalmente sulla regolamentazione dei risultati piuttosto che sullo sviluppo degli input necessari alla competitività, come l'accesso ai capitali, alle infrastrutture informatiche, ai dati di alta qualità e ai talenti, l'UE rischia di perdere quella che è stata definita la sua "sovranità cognitiva", poiché valori e standard tecnologici non europei si integrano nei sistemi diffusi in tutta Europa e potrebbero influenzare l'immaginazione, i gusti, le idee e, in ultima analisi, la democrazia. Questa enfasi sulla regolamentazione, unita a ecosistemi di innovazione relativamente più deboli, ha contribuito alle persistenti preoccupazioni circa la capacità dell'UE di competere nella corsa globale all'intelligenza artificiale.

Un'altra critica ricorrente riguarda la stagnazione dell'innovazione, nonostante le autorevoli opinioni contrarie . Obblighi normativi rigorosi potrebbero scoraggiare la sperimentazione e ritardare l'implementazione, impedendo alle applicazioni di intelligenza artificiale di migliorare la vita quotidiana dei cittadini europei. L'effetto cumulativo è il rischio di relegare l'UE al ruolo di consumatore anziché di produttore di tecnologie avanzate di intelligenza artificiale.

Strettamente legato a questa preoccupazione è il problema del ritardo normativo. I mercati digitali si evolvono a un ritmo difficilmente conciliabile con i lunghi processi legislativi, il che fa temere che, al momento dell'entrata in vigore, i quadri normativi possano essere già obsoleti. Questa dinamica crea una pressione per continui aggiornamenti, aumentando l'incertezza sia per le autorità di regolamentazione che per gli operatori regolamentati. In questo contesto, l'UE ha faticato a coltivare e trattenere talenti nel campo dell'IA, che spesso migrano verso giurisdizioni in cui le opportunità di finanziamento, gli ecosistemi di ricerca e le prospettive di carriera appaiono più solidi.

Al centro del dibattito si cela una tensione fondamentale tra innovazione e tutela dei diritti fondamentali. Per molti europei, la salvaguardia della dignità umana, della privacy e della non discriminazione non è un compromesso negoziabile in nome del progresso tecnologico. Questa tensione è particolarmente evidente nel settore dell'istruzione, dove si formano le generazioni future.

Sebbene la maggior parte delle persone desideri un apprendimento personalizzato, pochi accetterebbero che i propri figli vengano etichettati come "lenti" per anni, o esposti al rischio che l'intelligenza artificiale interpreti erroneamente le emozioni o inventi conclusioni sul loro stato d'animo. L'UE traccia questo confine nell'EU AI Act : la personalizzazione basata sui risultati è consentita ma rigorosamente regolamentata in quanto ad alto rischio, mentre i sistemi che deducono o analizzano le emozioni degli studenti sono vietati perché rappresentano un rischio inaccettabile per i diritti fondamentali. Questo approccio blocca alcuni progetti pilota in ambito educativo esplorati al di fuori dell'UE. Tensioni simili emergono anche in altri contesti, tra cui l'uso dell'intelligenza artificiale nelle assunzioni e i chatbot che offrono consulenza elettorale .

L'obiettivo dichiarato dell'UE non è quello di rallentare l'innovazione, bensì di garantire che il progresso "rimanga umano". Ciononostante, questo impegno normativo non esclude legittime preoccupazioni in merito a specifiche scelte regolamentari. Il modello legislativo basato sul rischio, alla base dell'Atto UE sull'IA e strutturato attorno a categorie predefinite come "inaccettabile" e "ad alto rischio", potrebbe faticare a tenere il passo con i nuovi utilizzi dell'IA che esulano da queste rigide classificazioni. Alcune applicazioni, tra cui gli strumenti di IA utilizzati nei processi legislativi o normativi, potrebbero addirittura sfuggire al controllo. Inoltre, il quadro basato sul rischio è stato concepito in un contesto precedente all'IA generativa. I modelli di IA di uso generale, caratterizzati da multifunzionalità e adattabilità, mettono in discussione gli approcci normativi prescrittivi che si basano su categorizzazioni statiche.

Questi limiti strutturali sono aggravati dalla vastità e dalla complessità dell'Atto UE sull'IA. Con oltre 1.000 considerando, articoli e allegati, l'Atto rappresenta il quadro normativo più esteso all'interno dell'ecosistema digitale dell'UE. La sua attuazione è ulteriormente elaborata attraverso linee guida, codici di condotta, norme tecniche e codici di comportamento volontari. Sebbene tali strumenti mirino a migliorare la chiarezza e la conformità, il loro effetto cumulativo è stato descritto come un eccesso di regolamentazione. Questa complessità rischia di minare la certezza del diritto e, paradossalmente, lo stesso Stato di diritto. Preoccupazioni di questo tipo sono state ribadite nella Relazione Draghi del 2024 sulla competitività dell'UE, che avvertiva che un'eccessiva densità normativa potrebbe scoraggiare gli investimenti e l'innovazione.

In risposta alle crescenti critiche, la Commissione europea ha proposto un documento omnibus digitale sull'IA, presentato come un'operazione di semplificazione per sostenere l'innovazione e ridurre i costi di conformità. Tuttavia, tale documento introdurrebbe modifiche sostanziali significative poco prima dell'entrata in vigore dell'AI Act, sollevando seri dubbi in materia di stato di diritto.

Tra le altre misure, il provvedimento posticiperebbe l' applicazione degli obblighi per i sistemi di intelligenza artificiale ad alto rischio, compresi alcuni modelli di intelligenza artificiale generativa, ed eliminerebbe i requisiti di registrazione per i sistemi che svolgono compiti procedurali o preparatori definiti in modo ristretto. Anche se questi sistemi sono esenti in base alle norme sull'alto rischio, possono influenzare i risultati, ad esempio selezionando contribuenti a rischio, e persino compromettere i diritti, ad esempio introducendo errori nelle determinazioni dell'origine che incidono sulla concessione dell'asilo.

In modo più controverso, la proposta, se approvata, amplierebbe la base giuridica per il trattamento di dati personali sensibili, trattando l'individuazione e la correzione dei pregiudizi come questioni di rilevante interesse pubblico. In pratica, questo cambiamento sposterebbe il paradigma normativo dal consenso esplicito (opt-in) al consenso implicito (opt-out), consentendo alle aziende di fare affidamento su generiche dichiarazioni di anonimizzazione per eludere norme più rigorose in materia di protezione dei dati. Gli esperti hanno avvertito che queste garanzie sono insufficienti, soprattutto per quanto riguarda i limiti al riutilizzo e al trasferimento dei dati. L'effetto potrebbe essere quello di legittimare grandi insiemi di dati precedentemente non conformi, consolidando i vantaggi degli operatori dominanti e rendendo più difficile per i concorrenti europei recuperare terreno.

Al di là di queste implicazioni sostanziali, la legge omnibus aggraverebbe l'incertezza giuridica, minando la stabilità e la prevedibilità. Modificare le disposizioni normative fondamentali a pochi mesi dalla loro applicazione metterebbe in discussione legittime aspettative e indebolirebbe la fiducia nel quadro normativo. La proposta include norme poco chiare e complesse: in tre articoli, modifica 30 articoli della legge sull'intelligenza artificiale e ne aggiunge due nuovi. L'utilizzo di procedure accelerate senza una consultazione pubblica completa o una valutazione d'impatto solleva ulteriori preoccupazioni in merito all'integrità procedurale e alla responsabilità democratica, come sottolineato anche dal Mediatore europeo , che indaga sui reclami per cattiva amministrazione riguardanti gli organi dell'UE, soprattutto in considerazione del crescente ricorso a leggi omnibus in molteplici settori politici.

In definitiva, l'efficacia dell'Atto UE sull'IA dipenderà meno dalle sue ambizioni testuali che dalla sua attuazione. La governance dell'IA nell'UE si sviluppa all'interno di un complesso sistema di governance multilivello, in cui le norme a livello europeo devono essere applicate dalle autorità nazionali. Questa struttura rappresenta al contempo un punto di forza e una vulnerabilità. Una sfida fondamentale consiste nel garantire il coordinamento verticale tra le norme europee e le misure di attuazione nazionali. Un recepimento nazionale eccessivamente oneroso, spesso dovuto a un "potenziamento" normativo – in cui i poteri concessi da una norma UE vengono estesi quando la direttiva viene recepita nei domini nazionali dei singoli Stati membri – può aumentare significativamente i costi di conformità e compromettere la coerenza del diritto dell'UE. Questo rischio è particolarmente elevato per uno strumento tecnicamente complesso come l'Atto sull'IA.

Una seconda sfida riguarda il coordinamento orizzontale tra gli Stati membri all'interno dell'UE. Sebbene l'Atto conceda alle autorità nazionali la discrezionalità di affrontare i contesti locali, un'eccessiva divergenza potrebbe erodere la fiducia degli investitori e frammentare il mercato interno. Le disposizioni delicate che consentono esenzioni dalle valutazioni di conformità o flessibilità nei regimi sanzionatori richiedono un attento coordinamento per prevenire l'elusione, soprattutto in settori quali la sicurezza pubblica, la gestione delle migrazioni o l'applicazione della legge.

Una terza sfida deriva dalla frammentazione istituzionale. Gli Stati membri hanno adottato approcci diversi per la designazione delle autorità di notifica , organismi indipendenti che effettuano la valutazione di conformità pre-commercializzazione, e degli organismi di vigilanza del mercato , che controllano e garantiscono il rispetto delle norme relative ai sistemi di intelligenza artificiale, compresi i divieti e i requisiti per l'IA ad alto rischio. Gli organismi di vigilanza del mercato possono includere agenzie controllate dal governo o autorità di regolamentazione formalmente indipendenti con mandati settoriali variabili. Italia, Spagna e Irlanda hanno autorità sotto l'influenza del governo, il che ha suscitato critiche da parte della Commissione europea nei confronti dell'Italia e la richiesta di una vigilanza realmente indipendente, poiché l'indipendenza deve essere non solo formale ma anche sostanziale. Paesi come Lituania , Cipro , Slovenia , Lettonia e Lussemburgo hanno scelto di utilizzare organismi indipendenti. Anche tra questi paesi, i mandati dei rispettivi organismi indipendenti variano. Alcuni operano nel settore delle telecomunicazioni, altri nella protezione dei dati o dei consumatori. Tale diversità rischia di generare interpretazioni divergenti delle stesse disposizioni di legge, riproponendo esperienze passate nell'ambito del precedente quadro normativo del Regolamento generale sulla protezione dei dati (GDPR ).

Queste sfide non sono esclusive dell'UE. Pur con le dovute precisazioni, si possono tracciare parallelismi con gli Stati Uniti, dove la legislazione sull'IA sta progredendo in assenza di un quadro federale completo – considerando le limitate linee guida federali sull'IA e le numerose leggi nazionali emanate e di un regime di cooperazione . Entrambi i sistemi si trovano di fronte a un dilemma comune: come mantenere coerenza e certezza giuridica senza soffocare la legittima diversità e la sperimentazione. Il confronto sottolinea che la difficoltà principale della governance dell'IA non risiede solo nella progettazione della regolamentazione, ma anche nella sua applicazione pratica.

Pertanto, le domande chiave potrebbero essere: come possono i sistemi decentrati, siano essi federali o sovranazionali come l'UE, mantenere la certezza del diritto promuovendo al contempo l'innovazione, e quali meccanismi di coordinamento tra le autorità decentrate garantiscono un'effettiva coerenza senza un'eccessiva centralizzazione? Come ha giustamente osservato il giurista Roscoe Pound , il divario tra "il diritto sulla carta" e "il diritto in azione" determina il successo dei sistemi giuridici.

Per la regolamentazione dell'IA su entrambe le sponde dell'Atlantico, la sfida non consiste solo nello scrivere norme che riflettano i valori della società, ma anche nel garantire che i meccanismi di applicazione promuovano l'innovazione, tutelino i diritti e, in definitiva, migliorino il benessere umano. Il futuro della governance dell'IA non sarà giudicato dal volume delle normative, ma dalle loro prestazioni.


Professore di Diritto Amministrativo presso l'Università LUMSA e Direttore del Centro di Eccellenza Jean Monnet sull'IA sostenibile per la regolamentazione.


 
 
 

Commenti


bottom of page