in

Grok e deepfake: Baltimora porta xAI in tribunale e accelera le regole

Una denuncia di Baltimora contro xAI riapre il dibattito su deepfake, responsabilità delle piattaforme e limiti dell'automazione generativa

grok e deepfake baltimora porta xai in tribunale e accelera le regole 1774715570

La vicenda legale aperta dalla città di Baltimora contro xAI e società collegate ha messo sotto i riflettori il rischio concreto dei deepfake sessuali non consensuali generati dall’assistente Grok. Secondo la denuncia presentata il 24 marzo, la funzione ha trasformato immagini caricate su X e sull’app in versioni sessualizzate senza il consenso dei soggetti rappresentati, con un picco di diffusione tra fine 2026 e inizio 2026.

Il problema non è solo tecnico ma anche normativo: termini di servizio e regole interne di X e xAI proibivano quel tipo di contenuto, ma a detta dei denuncianti non sarebbero state adottate protezioni efficaci né un sistema adeguato di verifica dell’età, e la funzionalità è stata resa disponibile esclusivamente agli abbonati invece di essere rimossa.

Le accuse di Baltimora e le cifre che allarmano

Nella denuncia municipale si evidenzia che, in base alle analisi del Center for Countering Digital Hate, tra il 29 dicembre 2026 e l’8 gennaio 2026 sarebbero state generate circa 3 milioni di immagini dall’algoritmo, incluse circa 23.000 raffigurazioni di minori. Per la città, questo comportamento configura una pratica commerciale sleale e ingannevole alla luce della normativa locale di protezione dei consumatori. Il sindaco Brandon Scott ha sottolineato il danno permanente e traumatizzante per le vittime che non possono impedire la circolazione di immagini create senza consenso, delineando il caso come una minaccia alla privacy e alla sicurezza pubblica.

Richieste legali e contesto nazionale

La denuncia chiede risarcimenti per ogni violazione contestata; Baltimora è la prima città statunitense a intraprendere questa strada contro le aziende guidate da Elon Musk.

A metà gennaio era già arrivata una denuncia dalla California con una successiva diffida, mentre a livello federale esiste il Take It Down Act, in vigore da maggio 2026, che impone la rimozione entro 48 ore di immagini intime non consensuali, ma che non è stata applicata in modo efficace nel caso di Grok, secondo gli attori coinvolti.

Il contraccolpo internazionale e le risposte regolatorie

La controversia su Grok ha accelerato interventi regolatori in più giurisdizioni: l’Ofcom del Regno Unito ha aperto verifiche formali, l’ente eSafety in Australia ha segnalato un aumento repentino delle denunce, e la Commissione europea ha avviato accertamenti sul rispetto del Digital Services Act. Il caso è stato inoltre ricondotto nell’ambito più ampio dell’AI Act dell’UE, che ha visto il Parlamento proporre l’aggiunta di un divieto per i sistemi in grado di generare immagini sessuali non consensuali o materiale intimo su soggetti identificabili.

Strumenti normativi emergenti

I governi stanno adottando una serie di strumenti: l’etichettatura dei contenuti generati dall’AI — con l’obbligo, per l’UE, di marcature leggibili dalle macchine secondo l’articolo 50 —, procedure rapide di rimozione come stabilito dal Take It Down Act, sanzioni amministrative e persino profili penali in alcuni ordinamenti. Alcune nazioni, come la Cina, hanno già imposto etichette visibili e metadati nascosti per contenuti sintetici, mentre il Regno Unito ha reso illecito creare o commissionare deepfake sessuali non consensuali a partire da normative introdotte nel 2026.

L’automazione agentica sugli smartphone e i rischi correlati

Mentre il dibattito sui contenuti dannosi infuria, dall’altro lato del panorama AI emergono tecnologie che rendono gli assistenti ancora più proattivi.

La funzione di automazione di Gemini, testata su dispositivi come il Pixel 10 Pro e il Galaxy S26 Ultra, permette all’assistente di eseguire operazioni direttamente nelle app — prenotare un trasporto o ordinare cibo — senza intervento continuo dell’utente. Secondo la recensione di The Verge del 21 marzo 2026, il sistema è ancora in beta e può risultare lento o macchinoso, ma segna un cambio di paradigma: l’AI non suggerisce soltanto, ma agisce.

Pericoli dalla combinazione di automazione e generazione di contenuti

L’incontro tra automazione agentica ed engine generativi solleva questioni concrete: aumentano la superficie d’attacco per la diffusione rapida di contenuti manipolati, complica la responsabilità delle piattaforme e amplifica i rischi per la privacy. Se non accompagnata da adeguati controlli tecnici e normativi — come verifiche dell’età, processi di rimozione rapida e trasparenza operativa — l’autonomia degli agenti digitali può trasformarsi in un moltiplicatore di danni.

Verso soluzioni pratiche

Le soluzioni proposte dagli esperti includono obblighi più stringenti per la filigranatura e l’etichettatura, sistemi di verifica dell’età robusti, audit indipendenti degli algoritmi e meccanismi di rimozione tempestiva con supervisione umana. Solo integrando tecnologia, governance e responsabilità legale si potrà ridurre il rischio che strumenti come Grok e agenti automatizzati trasformino i cittadini in vittime di abusi digitali.

What do you think?

Scritto da Staff

meta e ray ban ostacoli normativi e logistici bloccano il lancio in ue 1774711655

Meta e Ray-Ban: ostacoli normativi e logistici bloccano il lancio in UE