Publicité
Publicité

Le conseil se surveillance de Meta se saisit de «deepfakes» sexualisant des femmes connues

Europe 1 avec AFP - Mis à jour le . 2 min
© LIONEL BONAVENTURE / AFP

 La "cour suprême" de Meta (Facebook, Instagram) a annoncé mardi se saisir de deux affaires concernant les fausses images pornographiques de personnalités publiques féminines, deux mois après le scandale des "deepfakes", ou "hypertrucages", mettant en scène Taylor Swift.

Le conseil de surveillance de Meta (Facebook, Instagram) a annoncé mardi se saisir de deux affaires concernant les fausses images pornographiques de personnalités publiques féminines, deux mois après le scandale des "deepfakes" mettant en scène Taylor Swift. Les deux cas ont été sélectionnés "pour évaluer si les règlements de Meta et leur application sont efficaces pour traiter (le problème) des images à caractère sexuel générées par l'intelligence artificielle (IA)", note dans un communiqué ce conseil surnommé "cour suprême".

La suite après cette publicité
La suite après cette publicité

Mis en place par le géant des réseaux sociaux et composé de membres indépendants, le conseil est chargé de trancher des questions épineuses de modération des contenus. L'essor de l'IA générative, qui automatise la production de contenus perfectionnés, a donné un nouvel élan au phénomène des "deepfakes", ou "hypertrucages", notamment les images manipulées et sexualisées qui mettent en scène des femmes, à des fins d'intimidation ou de harcèlement.

Deux cas d'études

Le premier cas choisi par le conseil de surveillance de Meta concerne une image générée par l'IA d'une femme nue postée sur Instagram, "ressemblant à une personnalité publique indienne", indique le communiqué. Un utilisateur s'est plaint que l'entreprise californienne ne retire pas cette image. "Meta a déterminé que sa décision de laisser le contenu affiché était erronée et a supprimé le message pour violation de ses règles sur l'intimidation et le harcèlement", relève le conseil.

La suite après cette publicité
La suite après cette publicité

Le deuxième cas concerne une image postée sur un groupe Facebook de création de contenus avec l'IA, montrant "une femme nue avec un homme qui lui tripote les seins". La femme "ressemble à une personnalité publique américaine", également nommée dans la légende. Meta avait retiré l'image, et l'avait ajoutée à une banque de contenus qui fait partie de son système d'application des règles, pour trouver et supprimer automatiquement de ses plateformes les images déjà identifiées par des employés comme problématiques.

Taylor Swift victime de "deepfakes"

En janvier dernier, une fausse image pornographique de la superstar américaine Taylor Swift avait été vue 47 millions de fois sur X avant d'être supprimée par le réseau social, une quinzaine d'heures après avoir été mise en ligne. L'affaire avait suscité l'indignation de ses fans, de nombreuses personnalités et même de la Maison Blanche.

La suite après cette publicité
La suite après cette publicité

Selon une étude réalisée en 2019 par la société néerlandaise Sensity, spécialisée dans l'IA, 96% des fausses vidéos en ligne sont de la pornographie non consentie et la plupart d'entre elles représentent des femmes, célèbres ou pas.