Facebook vient de dévoiler, en partie, les mesures supplémentaires afin d’améliorer sa capacité à détecter et à supprimer les discours de haine et la désinformation électorale avant les élections du Myanmar. Une élection générale est en effet prévue le 8 novembre 2020, dans un pays ravagé par la violence à l’encontre des Rohingyas, une minorité musulmane qui fait l’objet de discrimination et de violence.
Des technologies de détection proactive contre les contenus violents
L’annonce intervient deux ans après que la société ait reconnu son échec à empêcher une formation armée et l’incitation à la violence contre la minorité Rohingya du pays.
Le réseau social se dit actuellement prêt à coopérer dans sa politique de lutte contre la désinformation au Myanmar, une pratique devenue monnaie courante depuis plusieurs années par les médias. Ainsi, Facebook a d’ores et déjà commencé à supprimer les informations qui pourraient porter atteinte à l’intégrité du processus électoral.
En mars 2018, les Nations unies avaient déjà mis en garde Facebook pour utilisation abusive de son réseau en vue de répandre des discours de haine et attiser la violence ethnique au Myanmar. En novembre de la même année, le géant de la technologie avait été contraint d’admettre qu’il n’avait pas empêché sa plateforme d’être réutilisée comme outil de génocide, après qu’une enquête indépendante et accablante a critiqué son impact négatif sur les droits humains.
Un «badge vérifié» pour plus de 40 pages de partis politiques
Concernant son implication dans la propagation des discours de haine, Facebook affirme avoir investi «significativement» dans des «technologies de détection proactive», qui, selon le réseau social, serviront à «détecter plus rapidement les contenus violents», sans toutefois quantifier la taille de son investissement ni fournir plus de détails. Il note seulement qu’il utilise l’IA pour identifier de manière proactive les discours de haine dans 45 langues, y compris le birman.
Cet outil a déjà servi à détecter en 2020 quelques 280000 éléments de contenus «suspects» au Myanmar. Le réseau social a ainsi pris des mesures pour violation de ses normes communautaires interdisant les discours de haine, dont 97,8% ont été détectés de manière proactive par ses systèmes.
Facebook affirme également travailler avec deux partenaires locaux pour vérifier les pages nationales officielles des partis politiques au Myanmar. «En travaillant avec des partenaires locaux, nous éliminerons d’ici le 22 novembre la désinformation et les rumeurs invérifiables qui sont jugées susceptibles de supprimer les votes ou de nuire à l’intégrité du processus électoral» peut-on lire sur le blog officiel de Facebook. «Jusqu’à présent, plus de 40 partis politiques ont reçu un badge vérifié pour leur page officielle» a conclu le réseau de Mark Zuckerberg.