Negli ultimi mesi la questione dei deepfake ha raggiunto nuove vette di visibilità, spingendo le celebrità a cercare strumenti legali per proteggersi. Tra queste, Taylor Swift ha depositato tre richieste di registrazione del marchio per controllare l’uso commerciale della propria immagine e della propria voce: una domanda riguarda una fotografia iconica in cui la cantante tiene una chitarra rosa durante il suo Eras Tour, le altre due sono relative a due espressioni vocali utilizzate da Swift sul palco, registrate come trademark sonori.
La scelta di procedere per via formale non si limita a una questione di vanità: è una risposta pratica al proliferare di contenuti generati dall’intelligenza artificiale che impersonano persone famose. In questo contesto, la registrazione del marchio diventa uno strumento per rivendicare diritti su immagini e clip vocali e per avere basi legali più solide nel caso di abusi o campagne pubblicitarie ingannevoli.
Come funzionano gli schemi con deepfake
Secondo un rapporto di Copyleaks, società che si occupa di rilevamento di contenuti AI, sono emerse numerose inserzioni su TikTok che mostrano volti noti, tra cui Taylor Swift, Kim Kardashian e Rihanna, in annunci che promuovono servizi discutibili. I video sfruttano voci dal suono realistico e filtri per attenuare errori visivi tipici delle immagini generate artificialmente, creando l’illusione di messaggi autentici. Le celebrità appaiono in contesti che ricordano interviste o red carpet, ma invece di parlare di sé promuovono programmi a premi o servizi che richiedono ai partecipanti di fornire dati personali.
Un esempio pratico
In uno degli annunci analizzati, una versione manipolata di Taylor Swift cita un presunto programma chiamato “TikTok Pay”, dicendo che alcuni utenti vengono invitati a guardare video e condividere opinioni per essere pagati.
Quel clip è stato ricavato da materiale reale della sua apparizione al Tonight Show, ma la voce e il testo sono stati riadattati per convincere gli spettatori a cliccare. Chi segue il link viene reindirizzato a una pagina di terze parti che riporta nomi e loghi fuorvianti, e dove, secondo i ricercatori, spesso si richiedono informazioni personali.
Impatto economico e risposta delle istituzioni
Le campagne deepfake non sono solo un problema di immagine: possono tradursi in perdite economiche per gli utenti e in danni reputazionali per chi viene impersonato. La Consumer Federation of America ha citato in giudizio Meta, sostenendo che il gruppo non ha fatto abbastanza per impedire la diffusione di inserzioni ingannevoli su Facebook e Instagram. Inoltre, la Federal Trade Commission ha segnalato un aumento complessivo delle truffe sui social, con le inserzioni su Facebook particolarmente responsabili di perdite economiche per gli utenti.
Quali dati vengono raccolti
I siti e le pagine che sfruttano i deepfake spesso richiedono dati personali come nome, indirizzo email e altre informazioni identificative. In alcuni casi gli annunci servono a costruire liste da usare in ulteriori campagne fraudolente o per scopi di phishing. La presenza nei link di marchi come Lovable o di nomi di servizi non autorizzati può rendere la truffa più credibile, specialmente quando l’annuncio mostra immagini o voci che ricordano personaggi pubblici.
Perché i marchi sonori e le foto contano
Registrare una fotografia o una frase come trademark non impedisce automaticamente la creazione di deepfake, ma fornisce un’arma legale in più per chiedere la rimozione e perseguire gli abusi. Nel caso di Taylor Swift, la registrazione della foto con la chitarra rosa e delle espressioni “Hey, it’s Taylor Swift” e “Hey, it’s Taylor” rappresenta un tentativo di stabilire un controllo formale su elementi riconoscibili del suo brand.
Per personalità la cui immagine vale miliardi, il rischio che contenuti falsi minino la fiducia del pubblico è concreto.
Al momento la popstar non ha rilasciato dichiarazioni ufficiali sulle motivazioni precise alla base delle sue richieste, ma la strategia è coerente con una tendenza più ampia: personaggi pubblici e aziende cercano di dotarsi di strumenti preventivi per arginare i danni derivanti da AI e manipolazioni digitali. L’obiettivo dichiarato, implicito nelle mosse legali, è tutelare sia la reputazione sia i diritti di sfruttamento commerciale dell’immagine.

