Vers un Internet plus sain. Les députés ont adopté mardi la proposition de loi de lutte contre la haine en ligne, portée par la députée LREM Laetitia Avia. Un texte nécessaire alors que le web est aujourd’hui encore un vaste espace d’impunité : moins de 300 condamnations pour injure raciale en ligne ont été prononcées en 2016. Mais la proposition de loi, qui doit encore passer au Sénat à la rentrée, ne fait pas l’unanimité. Des voix s’élèvent pour alerter sur un risque d’inefficacité, voire de censure a priori des contenus. Les plateformes, elles, réclament de l’aide pour traiter une masse de données gargantuesque.
Un texte trop flou…
Première cible des critiques : la définition jugée trop floue, par certains, des "contenus haineux". Les injures envers une personne ou un groupe de personnes "à raison de l'origine, d'une prétendue race, de la religion, de l'ethnie, de la nationalité, du sexe, de l'orientation sexuelle, de l'identité de genre ou du handicap, vrais ou supposés", seront ainsi bannis, selon la proposition de loi. Un champ d’application très large sur le fond donc, mais peu défini sur la forme.
Si les insultes directes sont très faciles à repérer, il y a sur Internet toute une variété de contenus et de messages situés dans une "zone grise", parce qu’ils contiennent des sous-entendus ou sont cachés dans un contenu plus vaste, par exemple une vidéo. "Il faut garder en tête le besoin d’équilibre entre ce qui relève de la liberté d’expression et ce qui outrepasse les limites de cette liberté", plaidait à ce titre Benoît Tabaka, directeur des relations institutionnelles de Google France, lors d’un récent échange filmé avec Laetitia Avia.
… ou trop exhaustif
Floue pour certains, la proposition de loi contre la haine en ligne est aussi trop fourre-tout pour d’autres. En plus des insultes et des incitations à la haine, la proposition de loi mentionne aussi l’obligation de retirer les messages, vidéos ou images constituant des provocations à des actes de terrorisme, faisant l'apologie de tels actes ainsi que des crimes contre l'humanité, ou comportant une atteinte à la dignité de la personne humaine.
Cette "exhaustivité nuirait très probablement au traitement des infractions initialement visées", selon Syntec Numérique, le syndicat professionnel des entreprises de services du numérique. Concrètement, il craint que le vaste champ d’application réduise l’efficacité de la lutte contre les contenus purement haineux. C'est notamment le cas du harcèlement, "qui ne porte pas forcément sur la race ou la couleur de peau", rappelle Benoît Darde, administrateur du Syntec, interrogé par Europe 1. "Cette loi sera efficace car elle retira beaucoup de contenus qu'on ne veut plus voir sur Internet. Mais elle en retirera trop."
Risque de censure accrue
Autre motif d’inquiétude : l'obligation de retirer un contenu haineux en moins de 24 heures risque, selon les opposants à la loi, d’entraîner une censure exagérée de la part de Facebook, Youtube, etc. "Ce délai pousse à l’utilisation d’outils de censure automatisée, fondamentalement contraires à la liberté de communication", déplore la Quadrature du Net. Pour la France insoumise, la menace de sanctions va inciter les plateformes à "supprimer une publication sur laquelle un doute existe ou qui serait 'susceptible de' pour éviter toute amende et tout ennui judiciaire". "En Allemagne, où il y a une loi similaire, on observe que 80% des contenus 'gris' retirés le sont uniquement par précaution", illustre Benoît Darde, du Syntec.
Pour court-circuiter ce système de censure a priori, les plateformes ne devront pas se contenter de retirer tous les messages ou images signalés : elles devront éviter des retraits injustifiés, ont précisé les députés par amendement la semaine dernière. "La sanction pourra aussi porter sur une trop grande censure", a précisé Laetitia Avia en ajoutant que "des garde-fous" ont été prévus.
Les pleins pouvoirs pour les plateformes ?
Enfin, la mainmise des plateformes sur la régulation des contenus inquiète. Dans une lettre ouverte, la Ligue des droits de l'Homme, la présidente du Conseil national du numérique et encore la présidente du Conseil national des barreaux ont plaidé pour que "le juge doit être au cœur tant de la procédure de qualification des contenus que de la décision de leur retrait ou blocage". "On peut s'inquiéter car on ne connaîtra pas les algorithmes qui vont traiter les contenus dits 'haineux'", abonde Benoît Darde, du Syntec. "Surtout, c'est regrettable de laisser aux plateformes ce qui est en réalité une question de société."
Ces derniers jours, le gouvernement a donc cherché à rassurer tout le monde en ajoutant au texte la création d’un parquet et d’une juridiction spécialisées dans la lutte contre la haine en ligne. "Ce sera donc toujours à la justice de déterminer si un contenu est légal ou illégal", a ainsi fait savoir le secrétaire d’État au Numérique Cédric O. Dans les faits, les plateformes seront donc seulement obligées de mettre en place un dispositif fonctionnel de retrait rapide des contenus haineux, pas de retirer automatiquement lesdits contenus.
Les plateformes montrent patte blanche…
Du côté des plateformes, on fait plutôt profil bas. La ligne officielle est la même partout : elles font déjà des efforts et sont toutes prêtes à collaborer avec les autorités. Chez Youtube, on assure ainsi faire le maximum pour éradiquer les contenus haineux. Au premier trimestre 2019, la plateforme recensait 500.000 signalements par jour et a retiré huit millions de vidéos. "Il y a une vraie responsabilité des plateformes de mobiliser les moyens humains, techniques et financiers pour repérer et supprimer le cas échéant ces contenus-là", reconnaît Benoît Tabaka, de Google France.
DÉCRYPTAGE - Fake news, fact-checking, publicités : les nouveaux outils de Facebook pour réguler les contenus
Même son de cloche chez Twitter, où l’on souligne un "engagement commun avec le gouvernement à construire un Internet plus sûr et à lutter contre les discours haineux illégaux en ligne". "Nous avons fait des progrès significatifs (…) grâce aux technologies d'apprentissage automatique", appuie dans un communiqué Audrey Herblin-Stoop, directrice des affaires publiques de Twitter France. "De premiers résultats sont là puisque 38% des contenus abusifs sont remontés de manière anticipée à nos équipes pour être examinés, au lieu de s'appuyer uniquement sur des signalements provenant d'utilisateurs de Twitter."
… mais réclament de l’aide
Mais derrière les discours de façade, les plateformes s’inquiètent tout de même des nouvelles obligations qui leurs incombent et des sanctions qu’elles encourent en cas de manquement. Facebook, pourtant allié du gouvernement et d'Emmanuel Macron pour la régulation de la Toile, refuse ainsi de prendre "seul" et "dans un délai contraint" une décision de retrait.
Du côté de Youtube, on tente aussi de partager la responsabilité avec les internautes. "Seul un Français sur quatre signale les contenus choquants sur Internet. Il faut comprendre qu’on a une obligation citoyenne de faire ce signalement. On a besoin de recevoir cette information", appelle Benoît Tabaka, directeur des relations institutionnelles de Google. À ce titre, la plupart des plateformes se réjouissent de la volonté de la loi d’imposer la présence d’un bouton de signalement bien en évidence sur leur site.