L’Unione Europea è spesso presentata come pioniera nella protezione dei diritti digitali: il GDPR è operativo dal 2018 e l’AI Act è in vigore dal 2026. Eppure sul piano pratico emerge un paradosso europeo: mentre Bruxelles scrive regole avanzate, l’applicazione concreta e la coerenza tra strumenti restano fragili, esposte a pressioni politiche e industriali.
Negli ultimi anni è emerso il tentativo di semplificazione con il cosiddetto Digital Omnibus, presentato alla fine del 2026. L’obiettivo dichiarato è ridurre gli oneri amministrativi e favorire gli investimenti, ma le modifiche proposte hanno sollevato dubbi: qualcuno teme che l’enfasi sulla competitività possa marginalizzare la tutela dei diritti digitali e lasciare spazi di incertezza giuridica sfruttabili dalle grandi piattaforme.
Un equilibrio fragile tra industria e garanzie
La riforma cerca di conciliare la spinta industriale con la necessità di controllo: la Commissione ha promosso iniziative infrastrutturali e finanziarie per rafforzare la capacità europea nel campo dell’intelligenza artificiale, mentre il pacchetto normativo tenta di armonizzare regole come il GDPR, il Data Act e l’AI Act. Tuttavia, molte associazioni sottolineano che la ridefinizione di alcuni concetti di base, come la nozione di dati personali, potrebbe erodere tutele consolidate e ridurre i diritti di accesso degli interessati.
Il calendario legislativo e i rischi di frammentazione
Secondo il percorso indicato, il Parlamento europeo ha approvato il mandato negoziale il 26 marzo 2026 e i negoziati legislativi sono entrati nella fase finale: il calendario prevedeva tappe tecniche e politiche ravvicinate per arrivare a una versione operativa prima dell’entrata in vigore di alcune disposizioni dell’AI Act.
Questo accelera le decisioni ma può anche risultare in compromessi che introducono ambiguità, aprendo spazio a interpretazioni divergenti tra Stati membri e settori industriali.
Questioni aperte: responsabilità, rimedi e accesso
Un nodo cruciale è la mancanza di una disciplina univoca sul risarcimento del danno causato da sistemi di intelligenza artificiale. L’AI Act non definisce una regolazione completa del tema e la proposta di AI Liability Directive è stata ritirata, lasciando spazio a normative complementari come la Product Liability Directive 2026/2853, che deve essere recepita entro il 9 dicembre 2026. Nel frattempo restano dubbi su chi debba rispondere quando un algoritmo sbaglia e sui tempi e le procedure per ottenere il rimedio.
Diritti di spiegazione e reclamo
La mancata attuazione degli articoli 85 e 86 dell’AI Act è particolarmente problematica: il primo riguarda il diritto di presentare un reclamo, il secondo l’accesso alle motivazioni delle decisioni prese da un sistema di AI.
Senza misure pratiche e strumenti accessibili, i cittadini rischiano di trovarsi privi di mezzi efficaci per contestare decisioni automatizzate su prestiti, assunzioni o valutazioni professionali.
Il ruolo dell’Italia e la governance istituzionale
In Italia la legge 132/2026 ha creato nuove autorità nazionali per l’intelligenza artificiale, ma il quadro resta incompleto: sono necessari i decreti attuativi delegati al Governo, da emanare entro dodici mesi dall’entrata in vigore della norma, per definire poteri e procedure operative. Inoltre, proposte che prevedono il coinvolgimento di più enti, tra cui Agid, l’Agenzia nazionale per la cybersicurezza e il Garante privacy, rischiano di generare sovrapposizioni e conflitti di competenza se non si stabiliscono meccanismi di coordinamento chiari.
Le pressioni delle grandi imprese tecnologiche e le raccomandazioni dei think tank e delle ONG evidenziano un bivio: o si costruisce un ecosistema regolamentare che tuteli efficacemente i diritti pur sostenendo l’innovazione, oppure si favorisce una logica che mette al centro il profitto e indebolisce le garanzie per i cittadini.
La sfida resta trovare strumenti pratici di responsabilità, trasparenza e accesso che rendano effettive le norme scritte.

