in

Come il Digital Omnibus mette alla prova il GDPR e l’AI Act

La spinta a snellire regole consolidate come il GDPR e l'AI Act apre questioni cruciali su responsabilità, rimedi e indipendenza tecnologica

Come il Digital Omnibus mette alla prova il GDPR e l'AI Act

L’Unione Europea è spesso presentata come pioniera nella protezione dei diritti digitali: il GDPR è operativo dal 2018 e l’AI Act è in vigore dal 2026. Eppure sul piano pratico emerge un paradosso europeo: mentre Bruxelles scrive regole avanzate, l’applicazione concreta e la coerenza tra strumenti restano fragili, esposte a pressioni politiche e industriali.

Negli ultimi anni è emerso il tentativo di semplificazione con il cosiddetto Digital Omnibus, presentato alla fine del 2026. L’obiettivo dichiarato è ridurre gli oneri amministrativi e favorire gli investimenti, ma le modifiche proposte hanno sollevato dubbi: qualcuno teme che l’enfasi sulla competitività possa marginalizzare la tutela dei diritti digitali e lasciare spazi di incertezza giuridica sfruttabili dalle grandi piattaforme.

Un equilibrio fragile tra industria e garanzie

La riforma cerca di conciliare la spinta industriale con la necessità di controllo: la Commissione ha promosso iniziative infrastrutturali e finanziarie per rafforzare la capacità europea nel campo dell’intelligenza artificiale, mentre il pacchetto normativo tenta di armonizzare regole come il GDPR, il Data Act e l’AI Act. Tuttavia, molte associazioni sottolineano che la ridefinizione di alcuni concetti di base, come la nozione di dati personali, potrebbe erodere tutele consolidate e ridurre i diritti di accesso degli interessati.

Il calendario legislativo e i rischi di frammentazione

Secondo il percorso indicato, il Parlamento europeo ha approvato il mandato negoziale il 26 marzo 2026 e i negoziati legislativi sono entrati nella fase finale: il calendario prevedeva tappe tecniche e politiche ravvicinate per arrivare a una versione operativa prima dell’entrata in vigore di alcune disposizioni dell’AI Act.

Questo accelera le decisioni ma può anche risultare in compromessi che introducono ambiguità, aprendo spazio a interpretazioni divergenti tra Stati membri e settori industriali.

Questioni aperte: responsabilità, rimedi e accesso

Un nodo cruciale è la mancanza di una disciplina univoca sul risarcimento del danno causato da sistemi di intelligenza artificiale. L’AI Act non definisce una regolazione completa del tema e la proposta di AI Liability Directive è stata ritirata, lasciando spazio a normative complementari come la Product Liability Directive 2026/2853, che deve essere recepita entro il 9 dicembre 2026. Nel frattempo restano dubbi su chi debba rispondere quando un algoritmo sbaglia e sui tempi e le procedure per ottenere il rimedio.

Diritti di spiegazione e reclamo

La mancata attuazione degli articoli 85 e 86 dell’AI Act è particolarmente problematica: il primo riguarda il diritto di presentare un reclamo, il secondo l’accesso alle motivazioni delle decisioni prese da un sistema di AI.

Senza misure pratiche e strumenti accessibili, i cittadini rischiano di trovarsi privi di mezzi efficaci per contestare decisioni automatizzate su prestiti, assunzioni o valutazioni professionali.

Il ruolo dell’Italia e la governance istituzionale

In Italia la legge 132/2026 ha creato nuove autorità nazionali per l’intelligenza artificiale, ma il quadro resta incompleto: sono necessari i decreti attuativi delegati al Governo, da emanare entro dodici mesi dall’entrata in vigore della norma, per definire poteri e procedure operative. Inoltre, proposte che prevedono il coinvolgimento di più enti, tra cui Agid, l’Agenzia nazionale per la cybersicurezza e il Garante privacy, rischiano di generare sovrapposizioni e conflitti di competenza se non si stabiliscono meccanismi di coordinamento chiari.

Le pressioni delle grandi imprese tecnologiche e le raccomandazioni dei think tank e delle ONG evidenziano un bivio: o si costruisce un ecosistema regolamentare che tuteli efficacemente i diritti pur sostenendo l’innovazione, oppure si favorisce una logica che mette al centro il profitto e indebolisce le garanzie per i cittadini.

La sfida resta trovare strumenti pratici di responsabilità, trasparenza e accesso che rendano effettive le norme scritte.

What do you think?

Scritto da Chiara Ferrari

Ha gestito strategie di sostenibilità per multinazionali con fatturati a nove zeri. Sa distinguere il greenwashing vero dalle aziende che ci provano davvero - perché ha visto entrambi dal di dentro. Oggi consulente indipendente, racconta la transizione ecologica senza ingenuità ambientaliste né cinismo industriale. I numeri contano più degli slogan.

John Ternus guida Apple: continuità e focus sull'hardware

John Ternus guida Apple: continuità e focus sull’hardware