La classe politique américaine et les fans de Taylor Swift ont exprimé leur indignation vendredi alors que de fausses images pornographiques mettant en scène la chanteuse, et créées grâce à l'IA générative, ont été largement partagées ces derniers jours sur X (ex-Twitter) et d'autres plateformes. L'une de ces images a ainsi été vue plus de 47 millions de fois sur le réseau social. Selon les médias américains, l'image est restée sur X pendant plus de 17 heures avant d'être supprimée.
Les fausses images ("deepfakes") pornographiques de femmes célèbres, mais visant également beaucoup de personnes anonymes, ne sont pas nouvelles. Mais le développement de programmes d'intelligence artificielle (IA) générative risque de produire un flux incontrôlable de contenus dégradants, selon de nombreux activistes et régulateurs. Le fait que de telles images touchent cette fois-ci Taylor Swift, au deuxième rang des artistes les plus écoutés au monde sur la plateforme Spotify, pourrait cependant aider à sensibiliser les autorités au problème, étant donné l'indignation de ses millions de fans.
La plateforme a déclaré "retirer toutes les images identifiées"
"Le seul 'point positif' à ce que cela arrive à Taylor Swift est qu'elle pèse suffisamment pour qu'une loi soit votée permettant d'éliminer ça. Vous êtes des malades", a ainsi posté sur X Danisha Carter, une influenceuse disposant d'une audience de plusieurs centaines de milliers de personnes sur les réseaux sociaux.
X est connu pour avoir des règles sur la nudité moins strictes qu'Instagram ou Facebook. Apple et Google ont un droit de regard sur les contenus circulant sur les applications via les règles qu'ils imposent sur leurs systèmes d'exploitation mobile, mais ils ont toléré cette situation sur X, jusqu'à présent. Dans un communiqué, X a assuré avoir "une politique de tolérance zéro" sur la publication non consentie d'images de nudité.
La plateforme a déclaré "retirer concrètement toutes les images identifiées" de la chanteuse et "prendre les mesures appropriées contre les comptes les ayant postées". Les représentants de la chanteuse américaine ne se sont pour l'heure pas exprimés. "Ce qui est arrivé à Taylor Swift n'est pas nouveau, des femmes sont la cible de fausses images sans leur consentement depuis des années", a rappelé pour sa part l'élue démocrate Yvette Clarke, qui a soutenu une loi pour lutter contre le phénomène. "Avec les avancées de l'IA, créer ces images est plus simple et moins cher".
Une étude réalisée en 2019 estimait que 96% des vidéos deepfakes étaient de nature pornographique. Selon le magazine Wired, 113.000 de ces vidéos ont été mises en ligne sur les principaux sites pornographiques pendant les neuf premiers mois de 2023.