Facebook a publié pour la première fois mardi un bilan chiffré de ses efforts pour supprimer de sa plateforme les contenus contrevenant à ses règles d'utilisation, qu'il s'agisse d'images à caractère sexuel, de commentaires haineux ou de propagande terroriste.
Selon ce rapport inédit, qui s'inscrit dans des efforts de transparence du groupe confronté au scandale Cambrige Analytica, 3,4 millions d'images violentes ont été supprimées ou assorties d'avertissements au premier trimestre 2018, presque le triple du trimestre précédent.
Une utilisation croissante de l'intelligence artificielle. Un bond lié principalement, selon le réseau, à une amélioration de ses technologies d'analyse, qui font de plus en plus appel à l'intelligence artificielle. Dans près de 86% des cas, ces images ont été détectées par le réseau avant même lui avoir été préalablement signalés, et elles ont représenté moins de 0,3% des contenus visionnés sur sa plateforme entre janvier et mars.
Concernant les images de nudité ou d'activité sexuelle (hors pédopornographie), le groupe déclare 21 millions d'éléments supprimés au premier trimestre, autant que fin 2017. Cela représente moins de 0,1% des contenus visionnés, et près de 96% des cas les images sont supprimées avant tout signalement. Parfois avec trop de zèle, comme lorsque le réseau censure certaine œuvres d'art pourtant tolérées par ses règles, à l'image de La liberté guidant le peuple de Delacroix.
1,9 million de contenus de propagande terroriste supprimés en un trimestre. Concernant la propagande terroriste, le groupe a confirmé des chiffres de fin avril : 1,9 million de contenus ont été supprimés au premier trimestre, soit 73% de plus qu'au 4e trimestre 2017, grâce à des améliorations technologiques. 99,5% des contenus supprimés l'ont été avant tout signalement.
Facebook peine en revanche à détecter les messages de haine. Le groupe dit en avoir supprimé 2,5 millions au 1er trimestre (56% de plus qu'au trimestre précédent), mais seuls 38% ont été détectés avant tout signalement. Malheureusement, Facebook n'a pas fourni d'estimation de leur prévalence sur sa plateforme.
Le groupe explique avoir du mal à gérer ces messages car l'intelligence artificielle peine encore à trier le bon grain de l'ivraie : des insultes racistes ou homophobes peuvent par exemple être "réappropriées" par les minorités qu'elles visent, ou dans le but de les dénoncer, ce qui est normalement permis par la plateforme. Et seules les attaques contre les personnes sont interdites, pas celles visant une idéologie ou une institution.