Ecco perché su X non si può più cercare Taylor Swift

Ecco perché su X non si può più cercare Taylor Swift

La notizia aveva fatto ribollire i social, e oggi il social X (ex Twitter) è corso ai ripari per arginare il fenomeno del deepfake nei confronti di Taylor Swift e delle immagini di nudo, generate dall’intelligenza artificiale, che avevano invaso il web. Verrebbe da dire oltre il danno anche la beffa, visto che l’artista, una delle più famose al mondo, in tutto questo non ha nessuna colpa, anzi ne è la vittima in ogni caso.

Soprattutto perché il social ha bloccato il suo nome in qualsiasi tipo di ricerca, proprio come se fosse scomparsa. In realtà questo si è reso necessario per cercare di rallentare la diffusione di immagini false i ‘deepfakes’, e l’unica soluzione è stata quella di farla cadere in una sorta di oblio, con un danno all’immagine doppio, sia per le foto, sia per la scomparsa dal social.

L’oblio per bloccare la diffusione

Questa mossa è arrivata diversi giorni dopo che le foto sessualmente esplicite di Taylor Swift generate dall’intelligenza artificiale, sono diventate virali su X, così come su altre piattaforme social. Sulla decisione di bloccare le ricerche della cantante, il Wall Street Journal ha sentito il capo delle operazioni aziendali di X, Joe Benarroch, che ha spiegato: “Questa è un’azione temporanea e viene eseguita con molta cautela poiché diamo priorità alla sicurezza su questo problema“.

Le (finte) foto pornografiche

Nominata persona dell’anno secondo il Time, con una popolarità che pochi hanno raggiunto, l’artista ha visto comparire su X alcune immagini sessualmente esplicite che la vedevano come una cheerleader in topless con il corpo ricoperto di vernice rossa e una scritta “molto esplicita” sul seno e ancora nuda indossando solo una t-shirt rossa e bianca, in riferimento al fidanzato, il giocatore di football americano Travis Kelce.

47 milioni di visualizzazioni

Verrebbe da dire che quello che in cui non riesce la realtà in questo caso è riuscita l’intelligenza artificiale, perché nonostante le foto non fossero reali, hanno ottenuto 47 milioni di visualizzazioni, prima che i moderatori di X intervenissero. Le immagini di nudo sembra provenississero da un gruppo Telegram in cui gli iscritti si scambiavano immagini pornografiche generate dall’Intelligenza Artificiale.

Ovviamente questo è un esempio eclatante parlando di una persona famosa come Taylor Swift, ma emblematico per rendersi conto che nessuno, anche persone comuni, è immune da questo tipo di attacco, che apre un’ulteriore riflessione sull’uso dell’Intelligenza artificiale, ma soprattuto sul modo, almeno in questo campo, di bloccare questo genere di reato.

Leave a comment

Your email address will not be published.