Meta représente une grave menace pour les droits humains, c-à-d les droits à la vie privée, à la liberté d’expression et à la non-discrimination

Au mois de juillet 2022, Meta a publié son premier rapport annuel sur les droits humains, couvrant toutes les plateformes et tous les produits de l’entreprise, notamment Facebook, Instagram et WhatsApp. Assiégée par une série de scandales à la suite des révélations choquantes des “Facebook Papers” qui ont fuité, Meta affirme que le rapport s’inspire de la disposition inscrite dans les Principes directeurs des Nations unies relatifs aux entreprises et aux droits de l’homme selon laquelle les entreprises « savent et montrent » qu’elles respectent les droits fondamentaux. Cependant, ce rapport apparaît comme une analyse superficielle et sélective des impacts de l’entreprise sur les droits humains, ne révélant manifestement aucune information sur les menaces les plus urgentes que l’entreprise fait peser sur les droits fondamentaux dans le monde.

Qu’en est-il du modèle économique ?

Le Rapport sur les droits humains ne fait aucune mention de la cause profonde de la menace systémique que représente Meta pour les droits humains : le modèle économique de la publicité basée sur la surveillance, qui pousse l’entreprise à collecter toujours plus de données, et toujours plus personnelles, sur les utilisatrices et les utilisateurs, pour ensuite vendre des publicités ciblées.

Comme l’a souligné Amnesty International dans son rapport de 2019 sur les géants de la surveillance, le modèle économique de Meta représente une grave menace pour les droits humains, notamment les droits à la vie privée, à la liberté d’expression et à la non-discrimination. Il s’agit d’une omission flagrante dans l’évaluation de Meta, car son modèle économique est au cœur de ses répercussions néfastes sur les droits humains à travers le globe.

Bon nombre des atteintes aux droits humains causées par l’entreprise découlent de son besoin de maintenir l’engagement des utilisateurs et de les pousser à rester actifs sur ses plateformes. La pilule est peut-être difficile à avaler, mais comment Meta pourrait-elle prétendre qu’elle est déterminée à respecter les droits humains, en particulier le droit à la vie privée, tout en continuant de tracer les utilisateurs sur Internet et dans leur vie quotidienne ?

Absence des algorithmes

En outre, le rapport ne mentionne pas le fait que les algorithmes qui façonnent les contenus sur les plateformes de réseaux sociaux de Meta amplifient activement les contenus néfastes, notamment la haine et la discrimination, afin de garder les utilisatrices et les utilisateurs en ligne et d’engranger des revenus publicitaires supplémentaires.

Du fait de la conception de ces algorithmes, Meta risque de contribuer à des violences à caractère ethnique dans le monde. Des experts de l’ONU ont déjà constaté que la plateforme Facebook avait joué un rôle dans la déshumanisation des musulmans rohingyas au Myanmar avant et pendant la campagne de violence menée par l’armée birmane en 2017.

En 2021, la lanceuse d’alerte Frances Haugen a accusé les algorithmes de la plateforme Meta d’« attiser littéralement la violence ethnique » dans des pays comme l’Éthiopie.

Étant donné que les risques que présentent ces algorithmes sont considérablement accrus dans les pays du Sud où les plateformes appartenant à Meta telles que Facebook sont synonymes d’Internet, il est extrêmement préoccupant qu’ils ne figurent pas dans le Rapport sur les droits humains de Meta.

Absence de transparence sur l’Inde

Meta n’a publié qu’un résumé de l’étude d’impact sur les droits humains (EIDH), indépendante, tant attendue sur l’Inde – une décision inacceptable, étant donné que des organisations de la société civile, dont Amnesty International, ont demandé à maintes reprises que le rapport intégral soit publié. Cela démontre l’absence totale de transparence concernant les risques relatifs aux droits humains identifiés et le fait que Meta les minimise dans le contexte de l’Inde. Les chercheurs ont déjà souligné le rôle que la plateforme Facebook a joué dans la propagation de la haine en Inde – ce que nous devons savoir, c’est comment Meta garantira que cela ne se reproduise plus.

De nombreux éléments démontrent que Meta a bien du mal à s’attaquer aux contenus problématiques sur Facebook, en particulier dans les pays du Sud. Cependant, se contenter d’ignorer le problème ne le fera pas disparaître. Meta devrait afficher son réel désir de tirer les leçons du passé et rendre publique l’étude d’impact sur les droits humains sur l’Inde.

Cela est d’autant plus crucial en Inde, pays qui compte le plus grand nombre d’utilisateurs et d’utilisatrices de Facebook. La transparence est primordiale afin de remédier aux méfaits du modèle économique de Meta au niveau mondial. Il ne fait guère de doute que Meta refuse de publier cette étude pour éviter que le reste du monde ne connaisse la vérité sur ses activités dans le pays.

Les risques en matière de droits humains ne sont ni évalués ni dénoncés

Nous saluons le fait que Meta se soit engagée fermement à respecter les droits humains conformément aux normes internationales, mais le Rapport sur les droits humains n’aborde pas certains des impacts les plus pressants de l’entreprise sur ces droits. En particulier, le manque de transparence concernant l’étude sur l’Inde est une manœuvre détestable visant à blanchir les impacts de Meta dans le pays – ainsi qu’une occasion manquée pour l’entreprise de démontrer son réel engagement en faveur des droits.

Meta doit être prête à se saisir des questions épineuses autour de son modèle économique, afin de remédier pleinement aux risques pour les droits humains qu’engendrent ses plateformes. Tant que ce ne sera pas le cas, ses soi-disant efforts visant à respecter les droits humains tiendront plus de la rhétorique que de la réalité.

Myanmar. Les systèmes de Facebook ont promu la violence contre les Rohingyas — Meta doit des réparations

Les dangereux algorithmes de Meta, qui détient Facebook, ainsi que la recherche effrénée du profit ont considérablement contribué aux atrocités perpétrées par l’armée myanmar contre le peuple rohingya en 2017, souligne Amnesty International dans un nouveau rapport publié le 29 septembre 2022. Ce rapport, intitulé “L’atrocité des réseaux sociaux : Meta face au droit à réparation des Rohingyas”, montre que Meta savait ou aurait dû savoir que les systèmes d’algorithmes de Facebook amplifiaient la propagation de contenus nocifs anti-Rohingyas au Myanmar, mais cette entreprise s’est abstenue d’agir. « En 2017, des Rohingyas ont par milliers été tués, torturés, violés et déplacés dans le cadre de la campagne de nettoyage ethnique menée par les forces de sécurité du Myanmar. Dans les mois et les années ayant précédé ces atrocités, les algorithmes de Facebook ont intensifié la vague de haine contre les Rohingyas, contribuant ainsi à la survenue de violences dans la vraie vie », a déclaré Agnès Callamard, secrétaire générale d’Amnesty International.

« Pendant que l’armée du Myanmar commettait des crimes contre l’humanité contre les Rohingyas, Meta tirait profit de cette caisse de résonance créée par ses algorithmes qui a induit une hausse vertigineuse du sentiment de haine. Meta doit rendre des comptes. Cette entreprise a à présent la responsabilité d’apporter réparation à toutes les personnes qui ont souffert des violences provoquées par ses agissements irresponsables. »

Sawyeddollah, réfugié rohingya âgé de 21 ans, a dit à Amnesty International : « J’ai vu un tas de choses ignobles sur Facebook. Et je me disais simplement que les gens qui publiaient ces propos étaient de mauvaises personnes […] J’ai ensuite réalisé que ce n’étaient pas seulement ces gens-là mais aussi Facebook qui en étaient responsables. Facebook leur apporte son aide en ne s’occupant pas de sa plateforme. »

Les Rohingyas sont une minorité ethnique principalement de confession musulmane qui vit dans l’État d’Arakan, dans le nord du Myanmar. En août 2017, plus de 700 000 Rohingyas ont fui l’État d’Arakan quand les forces de sécurité du Myanmar ont lancé une campagne ciblée d’homicides, de viols et de destruction par le feu des habitations généralisés et systématiques. Ce déchaînement de violence s’est produit à la suite de décennies de discrimination, de persécution et d’oppression des Rohingyas cautionnées par l’État et constituant un apartheid.

Une caisse de résonance pour la haine à l’égard des Rohingyas

Meta utilise des systèmes d’algorithmes basés sur l’engagement pour les flux d’actualités, le positionnement, les recommandations et les fonctionnalités de groupes sur Facebook, façonnant ainsi ce qui est vu sur cette plateforme. Meta a tout intérêt à ce que les utilisateurs et utilisatrices de Facebook restent le plus longtemps possible sur la plateforme, car cela lui permet de vendre d’autant plus de publicité ciblée. La diffusion de contenus incendiaires – notamment de contenus qui incitent à la haine ou constituent une incitation à la violence, à l’hostilité et à la discrimination – représente un moyen très efficace de retenir les gens le plus longtemps possible sur la plateforme. Ainsi, la promotion et l’amplification de ce type de contenu sont essentielles pour le modèle économique de Facebook qui est basé sur la surveillance.

Dans les mois et les années qui ont précédé la répression, Facebook était devenu au Myanmar une caisse de résonance pour les contenus anti-Rohingyas. Des éléments liés à l’armée myanmar et à des organisations bouddhistes nationalistes radicales ont inondé la plateforme de contenus anti-musulmans, publiant de la désinformation affirmant qu’une prise de pouvoir des musulmans était imminente et qualifiant les Rohingyas d’« envahisseurs ».

Dans un billet qui a été partagé plus d’un millier de fois, un défenseur des droits humains musulman a été présenté et décrit comme étant un « traitre à la nation ». Les commentaires qu’a suscités ce billet comprennaient des menaces et des messages racistes, notamment : « Il est musulman. Les musulmans sont des chiens qui doivent être abattus », et « Ne le laissez pas vivre. Éliminez totalement sa race. Le temps presse. » Des contenus incitant à la violence et à la discrimination ont aussi été publiés par les plus hauts représentants de l’armée et des autorités civiles du Myanmar. Le général Min Aung Hlaing, commandant en chef de l’armée du Myanmar, a posté sur sa page Facebook en 2017 : « Nous déclarons ouvertement qu’absolument, notre pays n’a pas de race rohingya. » Il s’est par la suite emparé du pouvoir avec le coup d’État de février 2021.

En juillet 2022, la Cour internationale de justice (CIJ) a déterminé qu’elle était compétente pour instruire une affaire à l’encontre du gouvernement du Myanmar au titre de la Convention sur le génocide compte tenu du traitement des Rohingyas par le Myanmar. Amnesty International salue cette avancée capitale qui constitue un pas de plus pour amener le gouvernement du Myanmar à rendre des comptes et continue d’appeler à ce que les hauts responsables de l’armée du Myanmar soient traduits en justice pour leur rôle dans les crimes infligés aux Rohingyas.

En 2014, Meta a tenté de soutenir une initiative contre la haine baptisée Panzagar (« Dites-le avec des fleurs ») en créant des stickers que les utilisateurs et utilisatrices pouvaient utiliser pour répondre à des contenus incitant à la violence ou à la discrimination. Ces stickers arboraient des messages tels que « Réfléchissez avant de partager » et « Ne provoquez pas la violence ». Cependant, des militant·e·s ont rapidement remarqué que ces stickers avaient des conséquences inattendues. Les algorithmes de Facebook ont interprété l’utilisation de ces stickers comme signifiant que les gens appréciaient les billets en question et commençaient à les promouvoir. Au lieu de réduire le nombre de personnes regardant des billets incitant à la haine, ces stickers ont en fait rendu ces billets beaucoup plus visibles.

La Mission internationale indépendante d’établissement des faits sur le Myanmar [ONU] est parvenue à la conclusion que les médias sociaux ont joué un rôle considérable concernant la commission d’atrocités dans un pays où « Facebook est l’Internet ».

Mohamed Showife, un militant rohingya, a déclaré : « Les Rohingyas ne rêvent que d’une seule chose : mener la même vie que les autres gens dans ce monde […] mais toi, Facebook, tu as détruit notre rêve. »

Facebook s’abstient de réagir

Le rapport montre de façon détaillée que l’entreprise Meta s’est de façon répétée abstenue d’exercer la diligence requise en matière de droits humains pour ses opérations au Myanmar alors même qu’elle était tenue de le faire au titre des normes internationales. Des études internes datant de 2012 indiquent pourtant que Meta savait que ses algorithmes pouvaient engendrer de graves dommages dans le monde réel. En 2016, les propres recherches de Meta l’ont amenée à reconnaître clairement que « [ses] systèmes de recommandation ont accru le problème » de l’extrémisme.

Meta a reçu de nombreuses communications et visites de militant·e·s locaux de la société civile entre 2012 et 2017, époque à laquelle l’entreprise a été avertie du fait qu’elle risquait de contribuer à une violence extrême. En 2014, les autorités du Myanmar ont même bloqué Facebook de façon provisoire parce que la plateforme avait joué un rôle dans le déclenchement d’une vague de violence ethnique à Mandalay. Meta n’a toutefois pas tenu compte de ces avertissements et elle s’est aussi systématiquement abstenue d’appliquer sa propre politique concernant les discours de haine.

L’enquête menée par Amnesty International comprend l’analyse de nouveaux éléments de preuve provenant des « Facebook Papers » – des documents internes rendus publics par la lanceuse d’alerte Frances Haugen. Dans un document interne datant d’août 2019, un membre du personnel de Meta a écrit : « Nous avons la preuve, apportée par diverses sources, que les discours de haine, les discours politiques clivants et la désinformation sur Facebook […] nuisent à la société partout dans le monde. Nous disposons aussi de preuves irréfutables montrant que les éléments de base du fonctionnement de notre produit, tels que la viralité, les recommandations et l’optimisation de l’engagement, contribuent de façon considérable à la propagation de ce type de discours sur la plateforme. »

Meta doit payer

Amnesty International lance aujourd’hui une nouvelle campagne appelant l’entreprise Meta Platforms, Inc. à satisfaire aux demandes de réparation des Rohingyas.

Ce 29 septembre marque le premier anniversaire du meurtre du militant de premier plan Mohib Ullah, président de l’Arakan Rohingya Society for Peace and Human Rights (Société des Rohingyas de l’Arakan pour la paix et les droits humains). Mohib Ullah était au premier plan de l’initiative de la communauté visant à amener Meta à rendre des comptes.

Des organisations de réfugié·e·s rohingyas ont directement demandé à Meta de leur accorder des réparations en finançant à hauteur d’un million de dollars des États-Unis un projet d’enseignement dans le camp de réfugié·e·s de Cox’s Bazar, au Bangladesh. Cette demande de financement ne représente que 0,002 % des bénéfices engrangés par Meta en 2021, qui se sont élevés à 46,7 milliards de dollars. En février 2021, Meta a rejeté la demande des Rohingyas, en avançant le motif suivant : « Facebook ne participe pas directement à des activités philanthropiques. » Showkutara, une jeune militante rohingya de 22 ans, a dit à Amnesty International : « Facebook doit payer. Si elle ne le fait pas, nous irons devant chaque tribunal de la planète. Nous n’abandonnerons jamais notre combat ».

On dénombre actuellement au moins trois plaintes en cours d’examen demandant réparation à Meta pour les Rohingyas. Des poursuites judiciaires ont été engagées au civil contre cette entreprise en décembre 2021 au Royaume-Uni et aux États-Unis. Des organisations de jeunes réfugié·e·s rohingyas ont également engagé contre Meta une procédure devant l’Organisation de coopération et de développement économiques (OCDE), et le dossier est actuellement examiné par le Point de contact national aux États-Unis de l’OCDE.

« Meta a la responsabilité au regard des normes internationales relatives aux droits humains d’apporter réparation pour les terribles préjudices subis par les Rohingyas auxquels elle a contribué. Les résultats de l’enquête nous alertent sur le fait que Meta risque de contribuer à d’autres graves atteintes aux droits humains, à moins que l’entreprise ne modifie en profondeur son modèle économique et ses algorithmes », a déclaré Agnès Callamard.

« Il est absolument indispensable que Meta procède à une vaste réforme de ses systèmes d’algorithmes afin d’empêcher des abus et d’améliorer la transparence, faute de quoi le drame qui lie Meta et les Rohingyas risque de se reproduire ailleurs dans le monde, en particulier là où couvent des violences ethniques. »

« Pour finir, les États doivent à présent contribuer à protéger les droits humains en adoptant et en appliquant une législation permettant de contrôler efficacement, dans l’ensemble du secteur de la technologie, les modèles économiques basés sur la surveillance. Les géants de la technologie se sont montrés incapables de le faire quand pour eux d’énormes profits sont en jeu. »

Le 20 mai 2022, Amnesty International a écrit à Meta au sujet des agissements de l’entreprise en lien avec ses activités commerciales au Myanmar avant et pendant les atrocités commises en 2017. Meta a répondu qu’elle ne pouvait pas donner d’informations au sujet de la période antérieure à 2017 parce que l’entreprise est « actuellement engagée dans une procédure judiciaire se rapportant à des questions connexes ».

Le 14 juin 2022, Amnesty International a de nouveau écrit à Meta au sujet des allégations exposées dans le rapport, et pour offrir à cette entreprise la possibilité de répondre. Meta a refusé de s’exprimer.

Pascal Moureau
5

« "La plume est plus forte que l'épée". Votre adage a tout le mérite de ne pas trancher comme l'épée le fait. En tant que journaliste indépendant vous pouvez donner vos propres opinions. Du côté de ma mère l'adage était différent: "Pour un oeil deux yeux pour deux yeux toute la gueule". »

💛 😁 Vous avez apprécié cet article ? Je vous remercie de m’offrir un café. 😃 💛
VEUILLEZ NOTER : Les commentaires des lecteurs et lectrices peuvent être approuvés ou non, à ma seule discrétion et sans préavis. Merci de votre compréhension. — Guy Boulianne
775880cookie-checkMeta représente une grave menace pour les droits humains, c-à-d les droits à la vie privée, à la liberté d’expression et à la non-discrimination
Suivez-moi sur le réseau X | guy.boulianne@gmail.com | Website | + posts

En tant qu’auteur et chroniqueur indépendant, Guy Boulianne est membre du réseau d’auteurs et d’éditeurs Authorsden aux États-Unis, de la Nonfiction Authors Association (NFAA), ainsi que de la Society of Professional Journalists (SPJ). Il adhère de ce fait à la Charte d’éthique mondiale des journalistes de la Fédération internationale des journalistes (FJI).

Partager cet article sur les réseaux sociaux :
S’abonner
Notification pour
guest

1 Commentaire
Le plus récent
Le plus ancien Le plus populaire
Commentaires en ligne
Afficher tous les commentaires
Montréalité

Merci pour cet article. Le cas de Meta est exposé, mais on pourrait pratiquement en faire un copié-collé pour beaucoup d’autres sociétés du Net. Malheureusement….

Traduire/Translate
Ce contenu est protégé ! Merci.
1
0
J'aimerais bien avoir votre avis concernant cet article. Veuillez laisser un commentaire.x