"L'imam Google". L'expression est signée Xavier Bertrand, vendredi matin sur Europe 1. Le député LR n'est pas le seul à pointer du doigt le manque d'action des géants du web face au terrorisme. Google, Facebook et Twitter sont notamment mis en cause pour leur rôle dans le recrutement des jeunes djihadistes, ainsi que pour leur utilisation dans la propagande de Daech. Quelle attitude adopter ? Comment traiter les images des attentats ? Et comment agir efficacement sur ces contenus ? Europe 1.fr a sollicité Google, Facebook et Twitter.
100.000 vidéos YouTube signalées chaque jour. Google commence par expliquer que Xavier Bertrand s'il est libre de s'exprimer ne connaît peut-être pas toutes les actions mises en place. Sur YouTube, propriété de Google, tous les contenus peuvent être signalés par les internautes, avec un signalement à part pour "l'extrémisme" rappelle le géant de la Silicon Valley. Au total, ce sont 100.000 vidéos qui sont étudiées chaque jour. Toutes sont visionnées par une équipe basée aux quatre coins du globe afin de permettre une compréhension du maximum de langues possibles et une disponibilité 24 heures sur 24.
Une politique pro-active. En plus de cette politique de signalement par les utilisateurs, Google dispose aussi d'une équipe en charge de surveiller les vidéos postées sur sa plateforme, sans bien sûr pouvoir tout visionner pour autant. Une série de mots-clés sont par exemple repérés automatiquement et vérifiés par ces équipes. Google refuse toutefois de communiquer le nombre de personnes travaillant dans ces groupes.
Le problème des recherches internet. Concernant son moteur de recherche le traitement est plus compliqué. En effet, Google indexe tous les sites internet, mais ne les héberge pas, rappelle-t-il. Pour autant, Google assure répondre à toutes les demandes des autorités et supprimer les contenus de propagande de ces résultats de recherche. Sur ce point, le gouvernement dispose d'ailleurs de la possibilité de bloquer les sites internet faisant "l'apologie du terrorisme", directement sur décision du ministre de l'Intérieur.
Facebook se contente du signalement. Du côté de Facebook, aucune équipe ne travaille en amont des signalements. Il n'y a pas de technologie plus efficace que le signalement juge Facebook car les utilisateurs n'apprécieraient sûrement pas qu'une équipe de Facebook soit chargée de fouiller dans leurs messages pour y détecter de potentiels contenus sensibles... Une modération pro-active ne serait de toute manière pas efficace au vu nombre de messages postés. Une page faisant l'apologie du terrorisme restera donc en ligne jusqu'à ce que l'un des utilisateurs ne la signale.
Pas d'algorithmes, des humains. Comme chez Google, plusieurs équipes sont en charge de vérifier si les contenus signalés respectent les "standards de la communauté", aucun algorithme n'est utilisé, sauf pour les contenus pédo-pornographiques. Il arrive pourtant que les réponses aux signalements ne soient pas toujours adaptées. En 2011, le réseau social avait été épinglé pour avoir jugé contraire à ses standards le tableau "L'Origine du monde" de Gustave Courbet représentant une femme nue. Le profil de l'utilisateur avait même été supprimé. D'après Facebook, les règles ont cependant changé depuis cette affaire, et les œuvres d'art ne sont plus considérées comme contraires aux standards.
Des équipes en interne. Si le magazine américain Wired publiait en octobre 2014 un reportage sur des sociétés basées au Philippines et chargées par Facebook du travail de modération, le réseau social assure que ce travail est désormais totalement réalisé en interne. Un point essentiel selon les équipes de Mark Zuckerberg. Des équipes s'occupent également de répondre aux demandes des gouvernements, comme pour la suppression de la photo du Bataclan (voir encadré). Au premier trimestre Facebook a par exemple rendu inaccessible en France 295 contenus annonce le réseau social dans son rapport de transparence.
Un signalement tweet par tweet. Chez Twitter, on reste un peu plus discret sur le fonctionnement des équipes de modération, alors que le réseau social est extrêmement difficile à contrôler. Là encore la modération se base sur les signalements. Surtout, le gouvernement doit effectuer ses demandes de suppression tweet par tweet ce qui rend le travail extrêmement compliqué. Entre les mois de janvier et juin 2015, Twitter annonce avoir supprimé 29 tweets à la demande des autorités explique le service dans son rapport de transparence.
Multiplicité des contenus. De part le nombre important de contenus faisant l'apologie du terrorisme, il reste globalement compliqué de supprimer tous ceux violant les conditions d'utilisation des différentes plateformes. Il est en effet impossible d'empêcher une personne dont le compte a été suspendu d'en créer un autre, dès lors que celle-ci modifie son adresse mail.
La photo du Bataclan qui pose problème. Apparue sur les réseaux sociaux peu après les attentats, une photo montrant des corps gisant sur le sol a été un véritable casse-tête pour Facebook et Twitter. Alors que le ministère de l'Intérieur a demandé, dès dimanche, sa suppression des réseaux sociaux. Twitter, après avoir dans un premier temps signalé la photo comme "contenu choquant", a, suite à cette requête rendu la photo non visible en France, en affichant à sa place un cadre gris. Facebook, de son côté opère différemment. Le réseau social nous assure ne pas être en mesure de supprimer la photo automatiquement mais explique que celles-ci sont supprimées dès leur premier signalement. Conclusion : si celle-ci n'est pas signalisée elle continuera donc à s'afficher normalement.
Autre point sensible, si la photo, à la demande des autorités n'est plus accessible en France elle l'est encore dans tous autres pays. Il s'agit donc simplement d'un masque appliqué aux utilisateurs français, aussi bien sur Twitter que sur Facebook.