Il deepfake continua a mietere vittime. Complici i miglioramenti dell’intelligenza artificiale, diventa sempre più difficile distinguere il vero dal falso e ne sa qualcosa Taylor Swift. Reduce da un 2023 da sogno, chiuso con la nomina a persona dell’anno secondo il Time, l’artista deve fare i conti con alcune immagini porno false diffuse su X, ex Twitter. Le foto sessualmente esplicite in questione la ritraggono nella veste di una cheerleader in topless con il corpo ricoperto di vernice rossa e una scritta a dir poco esplicita sul seno. In un’altra immagine indossa invece una t-shirt rossa e bianca, in riferimento al fidanzato, il giocatore di football americano Travis Kelce.
Come evidenziato dal New York Times, un post ha ottenuto la bellezza di 47 milioni di visualizzazioni prima dell’intervento dei moderatori di X. Secondo una prima ricostruzione fornita da 404 Media, le immagini fake arriverebbero da un gruppo Telegram in cui gli iscritti si scambiano immagini hard di donne generate dall’AI. Secondo gli esperti, alcune foto arriverebbero anche da Facebook e da altri social media.“Sfortunatamente, si sono diffusi a milioni e milioni di utenti”, ha affermato Mason Allen, responsabile di Reality Defender.
Nonostante l’intervento dei moderatori, le immagini sono diventate virali, tanto da fare entrare la ricerca “Taylor Swift AI” in tendenza. Come evidenziato dal profilo “Safety” gestito da X, pubblicare immagini di nudo “è severamente vietato”: “Abbiamo una politica di tolleranza zero nei confronti di tali contenuti. I nostri team stanno rimuovendo attivamente tutte le immagini identificate e adottando le azioni appropriate contro gli account responsabili della loro pubblicazione. Stiamo monitorando attentamente la situazione per garantire che eventuali ulteriori violazioni vengano immediatamente gestite e che i contenuti vengano rimossi. Ci impegniamo a mantenere un ambiente sicuro e rispettoso per tutti gli utenti”. La diffusione di immagini false ha mandato su tutte le furie l’esercito di fan di Taylor Swift. Centinaia di seguaci dell’artista hanno inondato X con gli hashtag utilizzati per fare circolare le immagini reali e affossare così i falsi. “Protect Taylot Swift”, lo slogan.
Il caso è arrivato alla Casa Bianca, “allarmata dalla circolazione di queste immagini false” come confermato dalle parole della portavoce di Biden, Karine Jean-Pierre: “Mentre le imprese di social media prendono le proprie decisioni indipendenti sulla gestione dei contenuti, crediamo invece debbano avere un ruolo importante nel far rispettare le regole, in modo da prevenire la diffusione di informazioni false, e di finte immagini intime, non autorizzate di persone reali”. “Troppo spesso sappiamo che l’applicazione di queste tecnologie senza controllo ha un impatto sproporzionato sulle donne e, purtroppo, anche sulle ragazze, tra gli obiettivi principali e più travolti dalle molestie online e anche degli abusi”, ha aggiunto Karine Jean-Pierre: “Quindi il presidente è impegnato, come sapete, a garantire si riesca a frenare il rischio di AI degenerativa”.
La preoccupazione per i deepfake è palpabile. Video e foto false potrebbero rappresentare un potente mezzo di disinformazione, con immagini porno non consensuali e molto altro. Negli ultimi anni sono stati colpiti divi di Hollywood, cantanti K-pop sucoreani ma anche politici, da Donald Trump a Joe Biden. Ad esempio, pochi giorni fa l’AI è stata utilizzata per creare false “robocall” (telefonate registrate automatiche, ndr) dell’attuale presidente americano.