En décembre dernier, une plainte a été déposée contre l'entreprise Meta, propriétaire de Facebook, au Centre de modération du réseau Facebook situé à Nairobi pour « incitation à la violence » et « propagation de discours de haine » dans le cadre du conflit au Tigré, province du nord-ouest de l'Éthiopie secouée par une guerre civile meurtrière. De quoi est-ce que Facebook est accusé exactement ? Entretien avec le chercheur Alessandro Accorsi de l'International Crisis Group.
Il y a trois plaignants dans ce dossier. Le plus emblématique est un universitaire éthiopien. Son père, professeur de chimie dans le nord-ouest de l'Éthiopie, a été abattu en 2021, après avoir été visé sur Facebook par une série d'appels au meurtre. Son fils affirme avoir tenté, en vain, de faire supprimer ses messages et estime que si le réseau social avait fait correctement son travail de modération des contenus interdits, son père « serait toujours en vie ». À cette plainte se sont également associés l'Institut Katiba, une association kényane de défense des droits de l'homme, ainsi que Fisseha Tekle, chercheur pour l'ONG Amnesty international, victime, lui, d'une campagne de harcèlement en ligne, alors qu'il enquêtait sur les violations des droits de l'homme commises dans le cadre du conflit au Tigré.
Ensemble, ils reprochent plusieurs choses à Facebook : ne pas avoir investi suffisamment dans le travail de modération et notamment d'avoir négligé le contenu diffusé en langue éthiopienne. Ils estiment aussi que l'algorithme de Facebook favorise les discours clivants et haineux. L'entreprise bat en brèche ces accusations et affirme avoir énormément investi. Pour le moment, le fonds du dossier n'a pas été examiné en justice puisque Facebook conteste, depuis des mois, la légalité de la procédure engagée au Kenya.
Quelle que soit l'issue judiciaire de cette procédure, elle pose des questions récurrentes sur le rôle complexe que peuvent jouer dans les réseaux sociaux en périodes de violence. Facebook avait déjà été critiqué, en Birmanie, pour le rôle qu'il a joué avant l'expulsion par l'État des musulmans Rohingyas, en 2017. Alors où se situe la responsabilité de Facebook dans le conflit éthiopien ? La plateforme et son entreprise mère Meta font-elles suffisamment pour éviter les dérives ?
RFI : Pourquoi les discours nuisibles et messages de haine ne sont-ils pas immédiatement retirés ?
Alessandro Accorsi : Modérer du contenu en ligne, ce n'est pas une tâche facile. Cela nécessite de maîtriser le contexte culturel, politique et linguistique et d'avoir également des sources fiables sur le terrain pour distinguer ce qui est, ou non, du contenu nuisible. En outre, Meta doit tenir compte des préoccupations liées à la liberté d'expression. Il y a eu récemment un cas au Cambodge, par exemple, où le Premier ministre a prononcé un discours contenant des menaces voilées à l'encontre d'opposants politiques. Donc est-ce que Meta doit retirer et faire disparaître ce discours immédiatement ? Ou doit-il rester en ligne pour que les journalistes et le public puissent se faire leur propre opinion ? Il n'est pas facile de répondre à ces questions et cela peut varier d'un cas à l'autre.
Compte tenu de la complexité de la tâche, est-ce que selon vos recherches, Facebook a investi suffisamment de moyens dans la modération de contenu pendant la guerre au Tigré ?
Le problème est que Facebook est très peu transparent sur les types d'investissements réalisés, sur le fonctionnement de son algorithme ou s'agissant de savoir si l'algorithme fonctionne pour d'autres langues que l'anglais. Le comité de surveillance créé par l'entreprise Meta elle-même en guise de mesure de transparence, a réclamé une enquête externe indépendante sur la manière dont Facebook a fonctionné en Éthiopie.
Meta a répondu qu'elle avait mené un audit interne, mais que les résultats ne pouvaient pas être publiés pour des raisons de sécurité et de confidentialité des données. C'est tout.
Comment mesurer l'impact de ces discours de haine diffusés par les réseaux sociaux en période de conflit ?
L'impact est difficile à évaluer. Soyons clairs, tout n'est pas de la faute des médias sociaux. Une grande partie de ces informations et contenus incendiaires circulaient également hors ligne, dans les médias locaux. Mais il y a un problème. Les entreprises comme Facebook investissent en fonction d'un marché. Donc, elles investissent davantage dans les pays où les revenus publicitaires sont élevés ou dans ceux où une mauvaise publicité aurait un impact plus important sur leur activité. Et on sait qu'en 2018, Facebook avait identifié en interne l'Éthiopie et la Birmanie comme des pays potentiellement dangereux. Cependant, parce qu'il s'agit de petits marchés qui n'attirent pas trop l'attention, ils ne constituaient pas une priorité pour Facebook.