Facebook espère pouvoir réduire de 80% la portée des fake news. 2:05
  • Copié
, modifié à
À deux mois des élections européennes, Facebook, très critiqué pour son rôle dans la diffusion des fake news et de la propagande, a dévoilé sa stratégie pour rendre le réseau social plus transparent.
ON DÉCRYPTE

Critiqué par la Commission européenne qui lui reproche de ne pas lui donner suffisamment d'informations sur ses efforts contre la désinformation à l'approche des élections européennes, Facebook a présenté sa stratégie pour cette échéance importante. Le réseau social va mettre en place "fin mars" un plan, piloté pour plus de réactivité depuis le nouveau centre d’opérations pour les élections basé à Dublin et reposant sur trois piliers : transparence des publicités politiques, lutte contre les fake news et appui sur des médias de fact-checking.

Des publicités plus transparentes

Lors des élections européennes, Facebook va concentrer ses efforts sur les publicités politiques, comme il l’avait déjà fait aux États-Unis et au Brésil notamment. Concrètement, toute personne ou entité qui souhaitera diffuser une publicité à but politique pendant la période des élections devra se soumettre à un processus de vérification poussé. "Pour une personne, le nom suffit. Mais pour une organisation, il faut renseigner un mail, un nom de domaine, un téléphone et une adresse physique", détaille Katie Harbarth, directrice en charge des élections.

Limiter l'influences de pays tiers. Si un organisme ne répond pas à ces impératifs de transparence, il n’aura pas l’autorisation de Facebook pour publier une publicité sur le réseau social (la démarche est également valable pour Instagram). "Il faut être autorisé dans chaque pays où on veut que sa publicité soit diffusée, pas juste son pays d’appartenance", ajoute Katie Harbarth.

Une précision essentielle puisqu’elle permettra de limiter l’influence de puissances étrangères sur les élections européennes. "On travaille pour repérer les acteurs qui visent à influer sur une élection à de mauvaises fins. Toutes les activités suspectes sont soumises à une enquête des équipes de sécurité. S’il y a une violation de nos conditions d’utilisation (discours haineux, contenu insultant, appel à la violence ciblée…, ndlr), le compte est fermé", souligne Katie Harbarth. "On n’observe pas encore de véritable tendance dans les activités surveillées autour de l’élection. Il n’y pas particulièrement d’activité en Russie, plutôt en Ukraine et en Iran ces derniers mois", précise-t-elle.

Possibilité de connaître les dessous des pubs. Côté utilisateur, les publicités seront rendues plus transparentes. Il sera ainsi possible, grâce à un bandeau en haut à droite du message, d’obtenir des informations sur la publicité : qui a payé pour sa diffusion, quel budget, quel nombre de vues, etc. Par ailleurs, les utilisateurs de Facebook verront s’afficher des petits messages édités par le réseau social pour rappeler de s’inscrire sur les listes électorales (vous avez jusqu’au 31 mars) et d’aller voter le 26 mai.

Renforcer la lutte contre les fake news

Très critiqué pour sa propension à donner de l’ampleur aux fausses informations, notamment lors des élections présidentielles aux États-Unis et au Brésil, Facebook assure avoir désormais un dispositif de lutte arrivé à maturité. Grâce au "machine learning", processus permettant à une intelligence artificielle d’apprendre de ses erreurs et de devenir plus efficace, Facebook attribue désormais un "score de pertinence" aux contenus postés sur le fil d’actualité. Celui-ci repose sur deux critères principaux : la proximité entre l'utilisateur et le contenu (le fil d'actualité privilégie les posts des amis et de famille par rapport aux pages) et les habitudes des utilisateurs (est-ce qu’ils consultent souvent de genre de contenus ? Quel est leur niveau d’engagement : like, commentaire, partage ?).

Cibler les propagateurs de fausses nouvelles. Le score obtenu permet de classer les posts visibles par un utilisateur sur son fil d’actualité, de façon à mettre les plus pertinents au début et donc de minimiser l’impact des fake news ou des contenus de mauvaise qualité. "On sait que le clickbait (les titres trop incitatifs, ndlr) est lié au spam donc on est capable de réduire le score de pertinence de ces contenus", illustre Tessa Lyons, responsable du fil d’actualité. "Nous avons aussi une prime à l’originalité. Si un contenu est copié-collé sur un autre, sans plus-value, son score est diminué", ajoute-t-elle.

Facebook veut aussi traiter le problème à la source en s’attaquant aux propagateurs de fausses informations. "On a établi une corrélation entre fake news et faux comptes", explique Katie Harbarth, directrice en charge des élections chez Facebook. L’intelligence artificielle du réseau social serait ainsi capable de repérer les "bots" (les faux comptes générés par ordinateur), qui représentent 99,6% des faux comptes. Les 0,4% restants, les faux comptes gérés par des humains, sont soumis aux vérifications régulières des 30.000 personnes en charge de la sécurité.

Mettre en avant le fact-checking

En plus de l’intelligence artificielle, Facebook mise, pour les élections européennes, sur son programme international de fact-checking, via lequel il rémunère des médias (en France, l'AFP, CheckNews, 20 Minutes, Les Observateurs et Le Monde) pour vérifier les contenus soupçonnés d'être faux. "Les contenus à fact-checker sont classés par ordre de priorité. Grâce aux commentaires et aux partages, on est capable de repérer rapidement ceux qui montent vite", assure Tessa Lyons. Avec ces partenariats, Facebook peut désormais fact-checker des contenus dans 22 langues.

Redirection vers des médias partenaires. Mais Facebook a confirmé qu’il n'entendait pas procéder à la suppression systématique des fausses nouvelles, celles-ci n'étant retirées du réseau que si elles violent ses règles d'utilisation, par exemple si elles font peser "une menace physique immédiate" sur des personnes. Le réseau social doit maintenir un équilibre "entre la liberté d'expression et s'assurer d'avoir des informations fiables", justifie Tessa Lyons. "Si on supprime tout, le risque c’est aussi qu’on alimente les discours conspirationnistes", ajoute-t-elle.

Faute de pouvoir supprimer les "fake news", Facebook entend donc freiner au maximum leur visibilité. Les informations douteuses partagées sur le réseau social se voient imposées un visuel compressé avec petite photo et titre en petits caractères et des liens de fact-checking sont présentés juste en-dessous. De plus, quand un utilisateur souhaite partager une publication contenant une fausse nouvelle, il reçoit un avertissement sur la crédibilité de l’information en question avec une incitation à consulter des articles de vérification sur le sujet. Avec l’ensemble de ces dispositifs, Facebook assure pouvoir être en mesure de réduire de 80% la visibilité des contenus qualifiés ou assimilés comme faux.