Ethiopie: Les défaillances de Meta ont contribué à des atteintes aux droits de la communauté tigréenne pendant le conflit dans le nord du pays

communiqué de presse

Meta, la société mère de Facebook, a contribué à de graves atteintes aux droits humains contre la population tigréenne en Éthiopie, écrit Amnesty International dans un nouveau rapport rendu public mardi 31 octobre.

Une condamnation à mort pour mon père : comment Meta a contribué aux atteintes aux droits humains dans le nord de l'Éthiopie montre que Meta a une nouvelle fois manqué à sa responsabilité de limiter de manière adéquate la diffusion de contenus prônant la haine et la violence, qui ont cette fois pris pour cible les Tigréen·ne·s lors du conflit armé qui s'est déroulé de novembre 2020 à novembre 2022 dans le nord de l'Éthiopie.

Trois ans après ses défaillances ahurissantes au Myanmar, Meta a une fois de plus contribué à de graves violations des droits humains, par le biais de ses algorithmes de façonnage des contenus et de son modèle d'entreprise avide de données.Agnès Callamard, secrétaire générale d'Amnesty International

Amnesty International a précédemment souligné la contribution de Meta aux violations des droits humains commises contre les Rohingyas au Myanmar et a mis en garde contre la récurrence de ces préjudices si le modèle économique de Meta et ses algorithmes d'élaboration de contenus ne sont pas revus en profondeur.

« Trois ans après ses défaillances ahurissantes au Myanmar, Meta a une fois de plus contribué à de graves violations des droits humains, par le biais de ses algorithmes de façonnage des contenus et de son modèle d'entreprise avide de données. Avant même le déclenchement du conflit dans le nord de l'Éthiopie, des organisations de la société civile et des spécialistes des droits humains ont signalé à de nombreuses reprises que Meta risquait de contribuer à la violence dans le pays, et ont demandé à l'entreprise de prendre des mesures significatives », a déclaré Agnès Callamard, secrétaire générale d'Amnesty International.

« Meta n'a cependant pas pris ces mises en garde en considération, et n'a pas pris les mesures d'atténuation qui s'imposaient, même après le déclenchement du conflit. En conséquence, Meta a de nouveau contribué à de graves violations des droits humains, perpétrées cette fois contre la communauté tigréenne. »

La plateforme Facebook est une source d'information importante pour de nombreux Éthiopien·ne·s, et est considérée comme une source fiable. Les algorithmes de Facebook ont eu un impact dévastateur sur les droits humains, en amplifiant des contenus néfastes visant la communauté tigréenne sur Facebook pendant le conflit armé.

La problématique Abrham Meareg's perspective Les contributions de Meta aux violations des droits humains

Les recherches effectuées par Amnesty International ont montré que les systèmes algorithmiques de Facebook ont amplifié la diffusion de discours dangereux visant la communauté tigréenne, tandis que les systèmes de modération des contenus de la plateforme n'ont pas détecté ces propos et n'y ont pas réagi de manière appropriée.

Ces défaillances ont au bout du compte contribué à l'assassinat de Meareg Amare, Tigréen et professeur de chimie à l'université. Cet enseignant a été tué par un groupe d'hommes après que des messages le prenant pour cible ont été publiés sur Facebook le 3 novembre 2021.

Je savais que ce serait une condamnation à mort pour mon pèrea déclaré Abrham Meareg à Amnesty International.

Ces publications sur Facebook contenaient son nom, sa photo, son lieu de travail, son adresse personnelle et affirmaient qu'il était un partisan du Front populaire de libération du Tigré (FPLT), l'accusant d'avoir volé d'importantes sommes d'argent. Ces allégations ont été démenties par sa famille.

Son fils, Abrham Meareg, pense que ces messages hostiles publiés sur Facebook ont contribué à la mort de Meareg Amare.

« Je savais que ce serait une condamnation à mort pour mon père », a déclaré Abrham Meareg à Amnesty International.

À l'époque, le conflit armé dans le nord de l'Éthiopie, impliquant le FPLT, les forces fédérales éthiopiennes et d'autres groupes armés, faisait rage.

Des documents internes de Meta examinés par Amnesty International montrent que l'entreprise était consciente des faiblesses de ses mesures d'atténuation en Éthiopie et des risques que cela représentait dans un pays que l'entreprise elle-même considérait comme exposé à un risque élevé de violence. Un document interne de Meta datant de 2020 indiquait que « les stratégies d'atténuation actuelles ne sont pas suffisantes » pour empêcher la diffusion de contenus préjudiciables sur la plateforme Facebook en Éthiopie.

Outre l'amplification de contenus préjudiciables, le temps de réponse insatisfaisant de Meta et son refus de retirer des contenus signalés ont amené de nombreuses personnes interrogées par Amnesty International à penser qu'il était inutile de signaler des contenus à l'entreprise.

La diffusion massive de ces messages a donné lieu à des violences et à des discriminations à l'égard de la communauté tigréenne, jetant de l'huile sur le feu dans une situation déjà tumultueuse et marquée par d'importantes tensions ethniquesAgnès Callamard

Avant et pendant le conflit, Meta a reçu de nombreuses mises en garde de la part d'organisations de la société civile, d'expert·e·s des droits humains et du Conseil de surveillance de Facebook, qui a recommandé à Meta d'entreprendre une évaluation indépendante de l'impact sur les droits humains en Éthiopie en 2021.

« La diffusion massive de ces messages a donné lieu à des violences et à des discriminations à l'égard de la communauté tigréenne, jetant de l'huile sur le feu dans une situation déjà tumultueuse et marquée par d'importantes tensions ethniques », a déclaré Agnès Callamard.

*Gelila, membre de la société civile éthiopienne, qui faisait partie du programme « Partenaire de confiance » de Meta - une initiative visant à fournir à des groupes de la société civile sélectionnés un canal dédié pour alerter Meta au sujet de tout contenu néfaste - a déclaré que l'absence de réaction de Facebook face aux alertes a aggravé la situation des droits humains dans le pays.

« En tant que personne présente en Éthiopie depuis longtemps, je peux affirmer que Facebook expose davantage la population au risque de conflits entre communautés », a déclaré Gelila.

« Ils réagissent avec une lenteur extrême. Ils ne sont pas sensibles à ce qu'on leur dit - je pense que leurs normes sont très éloignées de ce qui se passe sur le terrain. »

Meta doit prendre des mesures de toute urgence afin d'atténuer comme il se doit les risques posés par la plateforme Facebook en Éthiopie, alors que ce pays est confronté à une nouvelle crise sécuritaire dans la région Amhara.

Ceci est essentiel, compte tenu des mises en garde adressées par les enquêteurs désignés par les Nations unies contre de potentielles futures atrocités, préoccupation reprise plus tard par la conseillère spéciale de l'ONU pour la prévention du génocide, qui a signalé le risque accru de génocide et d'atrocités connexes dans le Tigré et dans les régions Amhara, Afar et Oromia.

Des manquements récurrents au respect des droits humains

Les algorithmes de Meta qui façonnent les contenus sont conçus pour augmenter l'engagement des utilisateurs et utilisatrices, dans le but de diffuser des publicités ciblées, ce qui a pour conséquence de favoriser les contenus incendiaires, nuisibles et polarisants, qui ont tendance à attirer le plus l'attention.

En 2018, Meta a redeployé l'algorithme du fil d'actualité de Facebook autour d'un nouvel indicateur nommé « interactions sociales significatives » ou « MSI [Meaningful Social Interactions] », dans une tentative supposée de « réparer Facebook ».

Cependant, l'analyse menée par Amnesty International sur des éléments de preuve provenant des Facebook Papers - les documents internes de Meta divulgués par la lanceuse d'alerte Frances Haugen en 2021 - montre que ce changement n'a pas « résolu » les problèmes liés aux algorithmes de Facebook. Au contraire, les algorithmes sont restés programmés dans une optique d'engagement maximal, favorisant ainsi de manière disproportionnée les contenus incendiaires, notamment les appels à la haine.

Dans un document issu des Facebook Papers datant de 2021, certains éléments indiquent que le PDG de Meta, Mark Zuckerberg, est personnellement intervenu pour empêcher l'application de mesures d'atténuation dans des pays à haut risque comme l'Éthiopie, parce que ces mesures auraient pu interférer avec la métrique MSI.

Les bases du modèle commercial de Meta, qui est centré sur l'engagement, n'ayant pas changé, l'entreprise continue de présenter un danger significatif et permanent pour les droits humains, en particulier dans les zones touchées par un conflit.

Remédier à la situation - la responsabilité de Meta de proposer des voies de recours

Meta a la responsabilité de fournir un recours pour les violations des droits humains auxquelles elle a contribué en Éthiopie.

Des réformes urgentes et de grande envergure sont nécessaires pour s'assurer que Meta ne contribue plus à ces préjudices en Éthiopie ou dans un seul autre pays.

Cela suppose notamment de déployer des mesures « brise-glace » - c'est-à-dire des mesures que Meta peut prendre dans des contextes de crise pour réduire le pouvoir d'amplification algorithmique - dans les situations à haut risque dès qu'elles se présentent, et de garantir l'égalité et la cohérence entre les juridictions en ce qui concerne les ressources des équipes de modération de contenu, de politique et de droits humains au niveau mondial.

Les États doivent honorer l'obligation qui leur est faite de protéger les droits humains, en adoptant et en appliquant des lois permettant de contrôler efficacement le modèle économique des géants technologiques. Cela passe notamment par l'interdiction de la publicité ciblée, qui s'appuie sur des pratiques de traçage invasif.

Par ailleurs, les géants de cette industrie sont aussi tenus de respecter les droits humains, indépendamment des obligations des États, faute de quoi ils doivent être amenés à rendre des comptes pour les violations qu'ils ont causées ou auxquelles ils ont contribué.

« Mon père n'avait pas de compte Facebook, mais il a été assassiné sur Facebook. »

Abrham Meareg est le fils d'un universitaire tigréen qui a été tué après avoir été pris pour cible dans des publications sur Facebook. Abrham est l'un des requérants attaquant Facebook en justice devant la Haute Cour du Kenya. Il a signalé à Facebook les menaces proférées contre son père, et a demandé le retrait de ces publications. Facebook n'a supprimé ces propos que huit jours après la mort de son père.

Ceci est son histoire.

Je m'appelle Abrham Meareg, et mon père était Meareg Amare Abrha, professeur à l'université de Bahir Dar, en Éthiopie. Enseignant universitaire respecté en Éthiopie, il était aussi marié et père de quatre enfants.

Nous étions une famille heureuse, vivant au sein de la communauté de langue amharique, bien que nous soyons tigréens.

Mon père a vécu parmi des personnes d'expression amharique pendant 40 ans, dans la paix et le respect le plus absolus.

Sa stature nationale a fait de lui une cible.

Les 9 et 10 octobre 2021, deux publications sont apparues sur la page Facebook « BDU STAFF », suivie par 50 000 personnes, montrant des photos de mon père et notre adresse.

Ces publications et les commentaires qu'elles ont recueillis le désignaient comme une personne corrompue et un sympathisant du parti politique du Front populaire de libération du Tigré (FPLT), et déclaraient qu'il avait fui aux États-Unis après avoir installé sa famille à Addis-Abeba.

Toutes ces affirmations étaient fausses.

Conflit armé dans le nord de l'Éthiopie

À l'époque, un conflit armé faisait rage dans le nord du pays, impliquant les forces fédérales éthiopiennes, le FPLT et d'autres groupes armés.

Ce conflit s'est caractérisé par une multiplication des publications en ligne incitant à la violence, et des insultes racistes contre les Tigréen·ne·s.

Dès que j'ai vu les publications, je savais que ce serait une condamnation à mort pour mon père.

Facebook est une plateforme publique d'importance en Éthiopie. Il s'agit de la principale source d'information dans de nombreuses parties du pays.

J'ai immédiatement signalé ces publications à Facebook, et leur ai demandé de les enlever.

Il n'y a pas eu de réaction immédiate, bien que j'aie envoyé plusieurs messages par le biais des outils de signalement proposés sur le site.

La mort de mon père

Facebook a fini par répondre, le 11 novembre 2021, huit jours après le meurtre de mon père, en déclarant que les publications sur la page BDU STAFF étaient contraires à la politique relative aux standards de la communauté Facebook.

Il était trop tard. Trois semaines plus tard, des témoins m'ont dit que le matin du 3 novembre 2021, mon père a été suivi jusque chez lui depuis l'université par des hommes armés portant l'uniforme des forces spéciales amhara, qui font partie des forces de la région Amhara.

Il a reçu deux balles alors qu'il ouvrait le portail. La maison, la clôture, le portail et les pièces à l'intérieur ont été criblés de balles.

Les témoins m'ont dit que les voisins se sont vu interdire de lui prodiguer les premiers soins, de l'emmener à l'hôpital et de couvrir son corps, et que les meurtriers l'ont qualifié de traître.

Ces témoignages ont été confirmés par la branche de Bahir Dar de la Commission éthiopienne des droits humains.

« Il est pour la junte ! C'est un Tigré ! Il soutient le FPLT ! C'est leur agent, et il se cache et vit parmi nous ! Vous êtes prévenus : ne l'aidez pas et ne lui couvrez pas le corps », ont scandé les miliciens armés, répétant le contenu des publications sur Facebook qui avaient fait de lui une cible.

Il est pour la junte ! C'est un Tigré ! Il soutient le FPLT ! C'est leur agent, et il se cache et vit parmi nous ! Vous êtes prévenus : ne l'aidez pas et ne lui couvrez pas le corps. Les miliciens armés, répétant le contenu des publications sur Facebook qui avaient fait de lui une cible.

Deux autres témoins m'ont dit que mon père était inhumé dans une tombe anonyme.

Les tueurs ont également pris sa voiture ce jour-là, vandalisé nos biens, forcé notre mère à déménager à Addis-Abeba et ont le contrôle de notre maison familiale depuis lors.

Nous n'avions aucune idée que tout cela se produisait, et nous n'avons eu connaissance de l'enterrement de mon père que lorsque la Commission éthiopienne des droits humains en a parlé.

Cela rend notre chagrin encore plus profond.

Maintenant vous connaissez mon histoire et celle de mon père.

Responsabilisation de Facebook

Je pense sincèrement que Facebook a contribué à son meurtre. Cette plateforme a favorisé la propagation de la haine et de la violence, qui ont entraîné la mort de milliers de mes compatriotes.

Mon père n'avait même pas de compte Facebook - mais il a été calomnié sur Facebook, son lieu de résidence a été rendu public sur Facebook, et il a été assassiné sur Facebook.

C'est pourquoi j'ai décidé de porter cette affaire devant la Haute Cour du Kenya - le pays dans lequel les messages qui ont incité les meurtriers de mon père ont été modérés.

Je pense sincèrement que Facebook a contribué à son meurtre. Cette plateforme a favorisé la propagation de la haine et de la violence, qui ont entraîné la mort de milliers de mes compatriotes. Abrham Meareg

Ce sont non seulement les messages en provenance d'Éthiopie qui sont modérés au Kenya, mais également les publications du reste de l'Afrique de l'Est et de toute l'Afrique australe, où vivent plus de 500 millions de personnes. Ces vies ne sont-elles pas importantes ? Toutes les vies africaines ne sont-elles pas importantes ?

Je demande à Meta de présenter des excuses publiques.

Je demande à Facebook d'investir pour prévenir ces tragédies. Je demande à la Haute Cour du Kenya d'ordonner à Facebook de réparer ses systèmes de sécurité et d'embaucher beaucoup plus de modérateurs, afin que la violence et la haine ne continuent pas à se propager.

Enfin, je demande au tribunal de créer un fonds de restitution de 250 milliards de shillings kenyans (environ 1,5 milliard de dollars des États-Unis) pour les messages menant à la violence, et de 50 milliards de shillings kenyans (environ 335 000 dollars) supplémentaires pour les messages sponsorisés ayant le même effet.

Rien de tout cela ne ramènera mon père ni les proches de bien d'autres personnes, mais cela les aidera à reconstruire leurs vies brisées.

Après tout, ce n'est qu'une fraction des énormes profits que Facebook tire de la haine virale. Mark Zuckerberg peut empêcher que ce qui est arrivé à mon père se produise à nouveau. Il n'en a pas fait assez, et c'est pourquoi je mène cette action, pour dire « plus jamais ».

Montrez votre solidarité avec abrham Meareg

La prolifération des messages de haine sur Facebook s'est répétée en Éthiopie. @Meta doit apprendre de ses erreurs passées au Myanmar en 2017. #FixOurFeeds Envoyer ce tweet

AllAfrica publie environ 500 articles par jour provenant de plus de 100 organes de presse et plus de 500 autres institutions et particuliers, représentant une diversité de positions sur tous les sujets. Nous publions aussi bien les informations et opinions de l'opposition que celles du gouvernement et leurs porte-paroles. Les pourvoyeurs d'informations, identifiés sur chaque article, gardent l'entière responsabilité éditoriale de leur production. En effet AllAfrica n'a pas le droit de modifier ou de corriger leurs contenus.

Les articles et documents identifiant AllAfrica comme source sont produits ou commandés par AllAfrica. Pour tous vos commentaires ou questions, contactez-nous ici.