Il recente dibattito sull’uso etico dell’intelligenza artificiale ha generato proposte significative, tra cui un sistema di etichettatura per i contenuti deepfake. Questa iniziativa deriva dalla prima bozza del codice di condotta per la trasparenza dei contenuti generati da AI, presentata dalla Commissione Europea il 17 dicembre. L’obiettivo è quello di chiarire la natura dei contenuti realizzati con tecnologie avanzate.
Il contesto dell’AI Act
Il AI Act rappresenta un passo cruciale per la regolamentazione dell’intelligenza artificiale in Europa. Questo regolamento impone che i sistemi di AI che producono contenuti, siano essi musicali, visivi o testuali, possano essere identificati in modo chiaro. Secondo l’articolo 50 di questo atto, i contenuti manipolati o generati da algoritmi dovranno essere contrassegnati in un formato riconoscibile da altri sistemi automatici.
Le implicazioni per i produttori di contenuti
Le aziende coinvolte nella creazione di contenuti, dai colossi come OpenAI e Google a startup emergenti come Synthesia, dovranno adeguarsi a queste nuove normative. Ogni creatore di contenuti sarà tenuto a contrassegnare i propri lavori, distinguendo tra quelli generati interamente dall’intelligenza artificiale e quelli che hanno visto un coinvolgimento umano. Questa distinzione risulta fondamentale per garantire la trasparenza.
Proposte di etichettatura
La bozza del codice di condotta propone l’introduzione di un bollino AI per i contenuti generati interamente da intelligenza artificiale, e un bollino AI-H per quelli che prevedono anche un contributo umano. Ad esempio, un video realizzato tramite AI potrebbe presentare un avviso all’inizio o alla fine, mentre i contenuti audio, come i podcast, dovrebbero includere comunicazioni regolari per informare gli ascoltatori sulla loro origine artificiale.
Dettagli sull’etichetta
Queste etichette non saranno statiche, ma dinamiche, fornendo informazioni dettagliate sui sistemi di intelligenza artificiale utilizzati, sul grado di manipolazione e su eventuali tracce audio. L’intento è quello di creare un ambiente di consapevolezza e responsabilità, in cui gli utenti possano facilmente discernere la provenienza dei contenuti che consumano.
Responsabilità degli sviluppatori di AI
Oltre ai creatori di contenuti, anche gli sviluppatori di sistemi di intelligenza artificiale avranno obblighi da rispettare. Dovranno integrare metadati chiari sulla provenienza dei contenuti generati, adottare filigrane resistenti e fornire strumenti per identificare contenuti modificati. Queste misure, sebbene necessarie, sollevano interrogativi su chi avrà il compito di monitorare l’effettiva applicazione di queste normative.
La sfida del controllo
La mancanza di un censimento ufficiale dei deepfake rende difficile la valutazione del problema.
Dati recenti indicano un aumento esponenziale del numero di file deepfake, ma senza un metodo chiaro per quantificarli. Organizzazioni come Europol avvertono che la maggior parte dei contenuti online potrebbe essere generata da AI, rendendo difficile distinguere tra verità e falsità, con potenziali rischi di disinformazione.
Il futuro dell’industria dei deepfake
Nonostante le sfide, emergono segnali di speranza. Grandi aziende come OpenAI, Meta e Google stanno collaborando a iniziative come il C2PA, finalizzato a sviluppare credenziali digitali in grado di garantire la trasparenza dei contenuti. La bozza del codice di condotta, una volta soggetta a revisione, potrebbe rappresentare una svolta nelle interazioni con i contenuti digitali.
Il percorso verso una maggiore responsabilità e trasparenza nell’uso dell’intelligenza artificiale è appena iniziato.
Tuttavia, risulta evidente l’impegno dell’Unione Europea nel garantire che il futuro dell’AI sia orientato da principi etici e normativi chiari.

