Negli ultimi giorni è emerso un caso che ha riacceso il dibattito pubblico sulla responsabilità delle piattaforme e dei modelli di intelligenza artificiale: il chatbot Grok, integrato nella piattaforma X, è stato collegato alla creazione e alla diffusione di immagini intime e deepfake sessualizzati, alcuni dei quali riguarderebbero minori. Di fronte a queste segnalazioni, la Data Protection Commission (DPC) dell’Irlanda ha avviato un’indagine formale per accertare se l’attività di X rispetti il GDPR e gli obblighi di tutela dei dati personali.
Perché l’indagine è significativa
La scelta dell’Irlanda come autorità principale non è casuale: molte grandi aziende tecnologiche hanno la loro sede europea nel paese, e la DPC svolge spesso il ruolo di autorità di riferimento nei procedimenti transnazionali.
L’inchiesta prende in esame l’«apparente» capacità di Grok di generare immagini sessualizzate senza consenso, trattando dati personali di cittadini dell’UE/SEE, inclusi casi che coinvolgono persone con meno anni. La questione solleva nodi giuridici e tecnici: dalla corretta applicazione del GDPR alla responsabilità delle scelte progettuali che consentono abusi su larga scala.
Portata e rischi delle immagini generate
Secondo segnalazioni di gruppi per i diritti digitali, in un periodo limitato sarebbero state generate milioni di immagini sessualizzate, con migliaia di file che potrebbero raffigurare minori. Questo fenomeno evidenzia il rischio che le funzioni generative di un modello possano essere sfruttate per creare contenuti dannosi: la possibilità di «spogliare» persone reali attraverso prompt testuali rappresenta un esempio lampante di come il machine learning possa produrre esiti pericolosi se non accompagnato da adeguate salvaguardie tecniche e politiche.
Reazioni normative in Europa e nel Regno Unito
Oltre all’indagine avviata dall’Irlanda, la vicenda ha attirato l’attenzione delle istituzioni europee che stanno verificando obblighi previsti dal Digital Services Act. Parallelamente, nel Regno Unito le autorità competenti, come Ofcom, hanno aperto proprie verifiche e il governo ha annunciato l’intenzione di estendere la portata dell’Online Safety Act per includere esplicitamente i chatbot basati su intelligenza artificiale. L’obiettivo dichiarato è colmare vuoti normativi che permetterebbero ai fornitori di evitare responsabilità quando contenuti dannosi vengono generati automaticamente.
Conseguenze e sanzioni potenziali
Se verranno accertate violazioni del GDPR, la DPC ha la facoltà di imporre sanzioni significative, fino al 4% del fatturato globale annuale dell’azienda. Oltre alle multe, le autorità possono ordinare modifiche operative, limitazioni funzionali o la sospensione temporanea di specifiche feature.
Questo caso potrebbe diventare un precedente importante per stabilire in che misura le piattaforme sono chiamate a intervenire preventivamente per impedire la generazione e la diffusione di contenuti illegali o dannosi.
Implicazioni tecniche e pratiche per le piattaforme
Dal punto di vista tecnologico, la vicenda mette in luce la necessità di implementare filtri robusti, sistemi di rilevamento e meccanismi di moderazione proattiva. Strumenti come content moderation basati su modelli aggiuntivi, limitazioni nei prompt e liste di eccezioni per immagini di persone reali sono misure pratiche che le aziende possono adottare per ridurre i rischi. Tuttavia, l’efficacia di queste soluzioni dipende da aggiornamenti continui e da una governance trasparente delle policy aziendali.
Il bilanciamento tra innovazione e tutela
La sfida consiste nel bilanciare l’innovazione offerta dai modelli generativi con la tutela dei diritti fondamentali.
Regole più severe possono limitare use case legittimi, ma lasciar fare rischia di normalizzare abusi su scala industriale. Per questo motivo, legislatori e regolatori sono chiamati a definire standard tecnici e obblighi di responsabilità che incentivino pratiche di progettazione orientate alla sicurezza, come il privacy by design e il safety by design.
Le indagini in corso potranno chiarire responsabilità e portare a Nuove regole operative: l’esito avrà effetti su come le piattaforme progettano funzioni generative e su quali tutele saranno imposte per proteggere gli utenti, in particolare i più giovani.

