Les images pornographiques de Taylor Swift devenues virales sur X sont fausses

New Rutherford (États-Unis), 05/27/2023.- l'auteur-compositeur-interprète américain Taylor Swift se produit lors de la tournée Eras, au stade MetLife de New Rutherford, New Jersey, États-Unis, 26 mai 2023. (États-Unis) EFE/EPA/ SARAH YENESEL

Les fans de la chanteuse pop Taylor Swift, des hommes politiques américains et même la Maison Blanche se sont indignés vendredi des fausses images pornographiques de la star, générées par l’intelligence artificielle, devenues virales sur le réseau social X et toujours disponibles sur d’autres plateformes.

L’une de ces images a été vue 47 millions de fois sur X, anciennement Twitter, avant d’être supprimée jeudi. Selon les médias américains, la publication a été visible sur la plateforme pendant environ 17 heures.

Les images pornographiques « deepfakes » – fausses mais extrêmement réalistes – de célébrités ne sont pas nouvelles. Mais les militants et les autorités craignent que des outils faciles à utiliser utilisant l’intelligence artificielle (IA) générative ne créent un flot incontrôlable de contenus toxiques ou nuisibles.

Nous vous invitons à lire : Apprenez la littérature au son de Taylor Swift

L’attaque contre Swift, deuxième artiste le plus écouté au monde sur la plateforme Spotify après le rappeur canadien Drake, pourrait apporter un nouvel éclairage sur le phénomène.

« Le seul côté positif de ce qui arrive à Taylor Swift est qu’elle a probablement assez de pouvoir pour adopter une loi visant à supprimer cette loi. Vous êtes malades, les gars », a écrit l’influenceuse Danisha Carter sur X.

«Alarmé»

Même la Maison Blanche s’est dite préoccupée par cette question. « Nous sommes alarmés par la nouvelle concernant la circulation de ces fausses images », a déclaré à la presse Karine Jean-Pierre, attachée de presse du président Joe Biden.

« Malheureusement, nous constatons trop souvent que le manque de contrôle a un impact disproportionné sur les femmes et les filles, principales cibles du harcèlement en ligne », a-t-elle ajouté.

Selon certains analystes, X est l’une des plus grandes plateformes de contenu pornographique au monde, car ses politiques en matière de nudité sont plus flexibles que celles de Facebook ou d’Instagram, propriété de Meta.

Aussi : Harvard a ouvert un cours sur Taylor Swift pour 2024, en quoi consiste-t-il ?

Apple et Google ont le pouvoir d’intervenir pour contrôler les contenus circulant dans les applications à travers les règles imposées par leurs systèmes d’exploitation mobiles, mais jusqu’à présent tous deux ont toléré cette situation dans X.

Dans un communiqué, X a précisé que « la publication d’images de nudité non consensuelle (NCN) est strictement interdite » sur sa plateforme. « Nous appliquons une politique de tolérance zéro à l’égard de ce contenu. »

Le réseau social, propriété du magnat Elon Musk, a déclaré qu’il « supprimait activement toutes les images identifiées et prenait les mesures appropriées contre les comptes responsables de leur publication ».

En outre, il a souligné qu’il « surveillait de près la situation pour s’assurer que toute nouvelle violation serait immédiatement traitée et que le contenu serait supprimé ». Les représentants de Swift n’ont pas immédiatement répondu à une demande de commentaires de l’AFP.

« Des gestes barrières nécessaires »

Yvette Clarke, députée démocrate de New York qui a soutenu une législation visant à lutter contre les fausses photos pornographiques, a souligné qu’« avec les progrès de l’IA, créer des deepfakes est plus facile et moins cher ».

De son côté, le législateur républicain Tom Kean a averti que « la technologie de l’intelligence artificielle progresse plus vite que les barrières nécessaires ». « Que la victime soit Taylor Swift ou n’importe quel jeune de notre pays, nous devons mettre en place des garanties pour lutter contre cette tendance alarmante », a-t-il ajouté.

Une étude de 2019 estime que 96 % des vidéos deepfakes étaient pornographiques.

Selon une étude citée par le magazine Wired, au cours des neuf premiers mois de 2023, 113 000 vidéos « deepfake » ont été mises en ligne sur les sites pornographiques les plus populaires.

A lire également