Accueil / Tic & Telecoms / Facebook détaille sa stratégie pour lutter contre la désinformation

Facebook détaille sa stratégie pour lutter contre la désinformation

Facebook détaille sa stratégie pour lutter contre la désinformation

Le rôle des réseaux sociaux dans la diffusion des canulars a été souligné dans le cadre de la campagne présidentielle américaine. Pour tenter de lutter contre ce phénomène, le patron de Facebook a développé sa stratégie ce week-end en misant notamment sur le comportement des usagers.

 

Depuis les résultats de l’élection présidentielle américaine, Facebook doit faire face à une pression grandissante pour enrayer la diffusion des canulars et de la désinformation. En effet, près de 44% des adultes américains s’informeraient sur Facebook et la diffusion de fausses informations serait bien plus rapide que celle des informations vérifiées. L’engagement des internautes pour le partage des canulars (ou “hoax”) est également bien plus élevé que celui pour les vraies actualités comme le rappelle une analyse publiée par Buzzfeed.

Le site américain a ainsi comparé les 20 “hoax” les plus partagés durant les trois mois précédant l’élection américaine avec les 20 articles provenant de grands sites d’information américains. D’après les données récoltées par Buzzfeed, les 20 contenus falsifiés auraient été bien plus partagés que des informations vérifiées issues des grands sites d’information.

Des mesures pour mieux détecter les canulars
Dans un billet publié vendredi soir, le patron de Facebook a apporté quelques éléments de sa stratégie pour réduire la diffusion des posts relayant des fausses informations et des canulars. Zuckerberg a reconnu qu’il y avait “beaucoup de travail à faire.” S’il est relativement resté discret jusqu’à présent sur ces détails, le PDG du réseau social a pris l’initiative de souligner les mesures proposées en matière de chasse aux canulars.

Une plus forte détection : “la chose la plus importante que nous pouvons améliorer est notre capacité à classifier la désinformation. Cela signifie qu’il faut un meilleur système technique pour détecter ce que les gens signalent comme faux.”
Un signalement plus simple : “Faciliter grandement le signalement des faux contenus par les usagers nous aidera à détecter ce type d’articles plus rapidement”.
La vérification par des tiers : “il y a plusieurs organisations de factchecking respectées, et nous sommes rentrés en contact avec certaines d’entre elles, nous avons prévu d’apprendre de leurs pratiques.”
Avertissement : “nous sommes en train d’explorer des histoires labellisées qui auraient été signalées comme erronées par des tiers ou notre communauté, et en montrant ces avertissements quand les gens les lisent ou les partagent.”
Relier les les articles de qualité : “nous augmentons le niveau des articles qui apparaissent en complément des liens publiés sur les fils d’actualité.”
Revoir leur politique publicitaire : comme annoncé la semaine dernière, Facebook a indiqué qu’il “n’intègre pas ou n’affiche pas de publicités sur les applications ou les sites dont le contenu est illégal, détourné ou erroné, ce qui inclut les fausses informations”.

Collaboration avec les journalistes : “nous continuerons à travailler avec les journalistes et les autres acteurs de l’industrie de l’information [...] afin de mieux comprendre leur système de vérification et apprendre de leur pratique.”
Mais ces annonces ne sont qu’à l’état de projet et Zuckerberg reste prudent sur ces propositions en déclarant que “nous ne voulons pas être nous-mêmes les arbitres de la vérité”.

Un efficacité limitée

Ce n’est pas la première fois que Facebook veut limiter la diffusion des hoax. En janvier 2015, la firme avait détaillé sur un post de blog la mise en place d’un bouton qui permet aux usagers de signaler les contenus erronés.

Mais comme le rappelait Rue89, il n’y a pas d’intervention humaine. Ce sont les algorithmes qui s’appuient sur les signalements d’internautes pour déterminer la véracité d’une information. Par ailleurs Zuckerberg avait annoncé remplacer ces éditeurs par des algorithmes pour sélectionner les sujets tendance en septembre dernier. Le détail des différentes mesures annoncées ce week-end rentre directement en contradiction avec les annonces prononcées par le patron de Facebook il y a quelques mois.

GRÉGOIRE NORMAND
latribune

Aller en haut