Le 23 janvier 2024, Human Rights Watch, Social Media Exchange (SMEX), INSM Foundation for Digital Rights, Helem et Damj Association ont conjointement lancé la campagne #SecureOurSocials (« Sécuriser nos réseaux »). Cette campagne demande à l’entreprise Meta (Facebook, Instagram) d’être plus transparente et responsable dans la protection sur ses plateformes des personnes lesbiennes, gays, bisexuelles et transgenres (LGBT) contre le ciblage en ligne par des acteurs étatiques et des personnes privées au Moyen-Orient et en Afrique du Nord (région MENA).
En février 2023, Human Rights Watch a publié un rapport sur le ciblage numérique des personnes LGBT en Égypte, en Irak, en Jordanie, au Liban et en Tunisie, et sur ses conséquences hors ligne. Ce rapport décrit comment les responsables gouvernementaux de la région MENA ciblent les personnes LGBT en se servant de leur activité en ligne sur les réseaux sociaux, notamment sur les plateformes de Meta. Les forces de sécurité ont piégé des personnes LGBT sur les réseaux sociaux et les applications de rencontre, les ont soumises à l’extorsion et au harcèlement en ligne, au doxing et à la révélation de leur identité de genre, et se sont appuyées sur des photos numériques, des chats et d’autres informations similaires obtenues de manière illégitime dans le cadre de poursuites judiciaires. Dans les cas de harcèlement en ligne, qui se sont essentiellement produit dans le cadre de messages à caractère publics sur Facebook et Instagram, les personnes concernées ont été confrontées à des conséquences hors ligne, qui ont souvent contribué à détruire leur vie.
Dans le prolongement de ce rapport et en s’appuyant sur ses recommandations, à l’intention de Meta notamment, la campagne « Sécuriser nos réseaux » (« Secure Our Socials ») identifie les sujets de préoccupation actuels et vise à inciter les plateformes de Meta, en particulier Facebook et Instagram, à publier des données claires sur les ressources investies par Meta dans la sécurité de ses utilisateurs, et notamment dans la modération des contenus dans la région MENA et le reste du monde.
Le 3 janvier 2024, Human Rights Watch a envoyé à Meta un courrier au sujet de cette campagne et de ses objectifs, et sollicitant le point de vue de l’entreprise. Meta a répondu à cette lettre le 22 janvier.
10. Que peut-on faire pour soutenir cette campagne ?
.......................
Les plateformes de réseaux sociaux peuvent constituer un moyen vital de communication et d’autonomisation. Dans le même temps, les personnes LGBT du monde entier sont confrontées à des niveaux disproportionnés d’abus en ligne. Dans la région MENA en particulier, les personnes LGBT et les groupes qui défendent les droits des personnes LGBT se sont appuyés sur les plateformes numériques pour s’émanciper, accéder à l’information, fédérer des mouvements et travailler en réseau. Dans les contextes où les gouvernements interdisent aux groupes LGBT d’opérer, les activistes ont dénoncé la violence et la discrimination anti-LGBT principalement en s’organisant en ligne. Si les plateformes numériques offrent un moyen efficace et accessible d’interpeller l’opinion publique et de dénoncer les violations des droits en permettant aux personnes LGBT de s’exprimer et d’amplifier leur voix, elles sont également devenues des outils de répression étatique.
En s’appuyant sur des recherches menées par Article19, EFF, APC et d’autres, Human Rights Watch a documenté la manière dont des acteurs étatiques et des particuliers ont ciblé les personnes LGBT dans la région MENA en se servant de leur activité en ligne, en violation flagrante de leur droit à la vie privée et d’autres droits humains. Dans toute la région, les autorités surveillent manuellement les réseaux sociaux, créent de faux profils pour se faire passer pour des personnes LGBT, fouillent illégalement les appareils personnels des personnes LGBT et s’appuient sur des photos numériques obtenues de manière illégitime, des chats et d’autres informations similaires saisies sur ces appareils mobiles et sur les comptes de réseaux sociaux de personnes LGBT pour les utiliser comme « preuves » à des fins d’arrestation en de poursuites en justice.
Les personnes et activistes LGBT de la région MENA ont été pris au piège en ligne, ont fait l’objet d’extorsion, de doxing (divulgation de données personnelles), d’outing (révélation de leur identité de genre), et de harcèlement en ligne, y compris de menaces de meurtre, de viol et d’autres formes de violence physique. Les forces de l’ordre jouent un rôle central dans ces abus, comme lorsqu’elles lancent des campagnes de harcèlement en ligne en publiant photos et coordonnées de personnes LGBT sur les réseaux sociaux et en incitant à la violence à leur encontre.
Le ciblage numérique des personnes LGBT dans la région MENA a eu des conséquences hors ligne considérables, non seulement quand l’abus est commis en ligne, mais aussi par ses répercussions sur la vie des personnes touchées, pendant des années dans certains cas. Les conséquences immédiates hors ligne du ciblage numérique vont de l’arrestation arbitraire à la torture et autres mauvais traitements en détention, y compris des agressions sexuelles.
Le ciblage numérique a aussi eu un effet dissuasif important sur la liberté d’expression des personnes LGBT. Après avoir été ciblées, les personnes LGBT se sont autocensurées en ligne, notamment dans le choix des plateformes numériques qu’elles utilisent, et dans la manière dont elles s’en servent. Ceux qui ne peuvent ou ne veulent pas cacher leur identité, ou dont l’identité est révélée sans leur consentement, ont déclaré avoir subi des conséquences immédiates, qui vont du harcèlement en ligne à l’arrestation arbitraire et aux poursuites judiciaires.
En raison du harcèlement en ligne, les personnes LGBT de la région MENA ont déclaré avoir perdu leur emploi, avoir fait l’objet de violences familiales, y compris de pratiques de conversion, avoir été victime d’extorsion liée à leurs interactions en ligne, avoir été forcées de changer de lieu de résidence et de numéro de téléphone, de supprimer leurs comptes sur les réseaux sociaux ou de fuir leur pays de résidence, et avoir souffert de graves conséquences sur leur santé mentale.
- En quoi consiste la campagne « Sécuriser nos réseaux » menée par HRW et ses partenaires, qui appelle Meta à procéder à des changements ?
Meta est la plus grande entreprise de réseaux sociaux au monde. Elle a la responsabilité de protéger ses utilisateurs contre l’utilisation abusive de ses plateformes. Facebook et Instagram, en particulier, sont des vecteurs importants du ciblage des personnes LGBT dans la région MENA par des acteurs étatiques et des particuliers. Une application plus cohérente des politiques et pratiques de Meta et leur amélioration peuvent rendre plus difficile le ciblage numérique et, par extension, offrir plus de sécurité à tous les utilisateurs, notamment les personnes LGBT dans la région MENA.
Avec la campagne « Sécuriser nos réseaux » (« Secure Our Socials »), Human Rights Watch et ses partenaires appellent Meta à être plus transparente et cohérente dans ses pratiques de modération des contenus et à intégrer les droits humains des personnes LGBT au cœur de la conception de ses plateformes. Ce faisant, la campagne appuie d’autres efforts visant à rendre les plateformes de réseaux sociaux et les entreprises technologiques plus responsables et à respecter les droits humains de leurs utilisateurs, comme les Principes de Santa Clara sur la transparence et la responsabilité dans la modération de contenu, la campagne « Année de la démocratie » de Digital Action et le projet « Design from the Margins » d’Article19. La campagne a également bénéficié de la contribution inestimable de plusieurs groupes de la société civile.
Comme première étape vers la transparence, la campagne « Sécuriser nos réseaux » demande à Meta de rendre public le montant de ses investissements annuels dans la sécurité des utilisateurs, notamment des justifications motivées qui expliquent, pour chaque langue et dialecte de la région MENA, la proportionnalité des investissements dans la confiance et la sécurité par rapport au risque de préjudice. Nous demandons spécifiquement à Meta de décrire le nombre, la diversité, l’expertise régionale, l’indépendance politique, les qualifications en termes de formation ainsi que les compétences linguistiques (y compris en matière de dialectes) du personnel ou des sous-traitants chargés de la modération des contenus en provenance de la région MENA, et nous demandons que ces informations soient rendues publiques.
Meta fait souvent appel à des prestataires et à des sous-traitants pour modérer les contenus, et il est tout aussi important pour Meta d’être transparent sur ces arrangements.
L’externalisation de la modération de contenu ne devrait pas se faire au détriment des conditions de travail. Meta devrait publier des données sur les investissements de l’entreprise pour offrir des conditions de travail à la fois sûres et équitables aux modérateurs de contenu (qu’ils soient employés, contractuels ou sous-traitants), notamment s’agissant du soutien psychosocial, et sur l’adhésion des modérateurs de contenus aux politiques de non-discrimination, y compris en matière d’orientation sexuelle et d’identité de genre. Garantir publiquement une allocation adéquate des ressources pour les modérateurs de contenu est une étape importante vers l’amélioration de la capacité de Meta à identifier avec précision les contenus ciblant les personnes LGBT sur ses plateformes.
Nous demandons également à Meta de détailler les outils automatisés utilisés dans sa modération de contenu pour chaque langue et dialecte non anglais (en priorité l’arabe), notamment les données et modèles de formation utilisés et la manière dont chaque modèle est révisé et mis à jour au fil du temps. Meta devrait également publier des informations sur quand et comment, précisément, les outils automatisés sont utilisés pour évaluer les contenus, notamment des détails concernant la fréquence et l’impact de la supervision exercée par des humains. En outre, nous demandons instamment à Meta de réaliser et de publier un audit indépendant de tous les modèles linguistiques et outils d’analyse de contenu automatisés appliqués à chaque dialecte de la langue arabe et à d’autres langues de la région MENA, afin de déterminer leur précision et leur adéquation eu égard à l’impact sur les droits humains des personnes LGBT, là où elles sont le plus exposées aux risques. Pour ce faire, Meta devrait mettre en place des consultations approfondies et régulières avec des groupes indépendants de défense des droits humains afin d’identifier quelles sont les lacunes qui, dans ses pratiques, exposent les personnes LGBT à de tels risques.
La dépendance excessive de Meta envers l’automatisation pour évaluer les contenus et les plaintes compromet également sa capacité à modérer les contenus de manière transparente et impartiale. Meta devrait développer un mécanisme de réponse rapide pour s’assurer que les plaintes spécifiques aux personnes LGBT [dans les régions à haut risque] sont examinées par une personne ayant une expertise régionale, thématique et linguistique dans les meilleurs délais. Les mesures de sécurité mises en place par Meta pourraient davantage contribuer à diminuer le risque d’abus des personnes LGBT dans la région MENA sur ses plateformes. Les révélations de l’identité de genre d’utilisateurs ont montré que trop souvent, Meta n’investit pas suffisamment de ressources dans ses outils de sécurité, et qu’il lui était arrivé de rejeter les appels lancés en interne à ce que davantage d’investissement soit mobilisé en faveur de la modération de contenu au niveau régional, même quand les risques pour ses utilisateurs étaient clairs et sans équivoque.
À moyen terme, Human Rights Watch et ses partenaires appellent Meta à vérifier l’adéquation des mesures de sécurité existantes et à continuer à dialoguer avec les groupes de la société civile pour analyser les lacunes de ses pratiques existantes s’agissant de la modération de contenu et de la sécurité. Enfin, s’agissant des dispositifs de sécurité et en s’appuyant sur les demandes unanimes des personnes affectées, nous recommandons que Meta mette en œuvre un outil de verrouillage des comptes d’utilisateur en une seule étape, permette aux utilisateurs de masquer leurs listes de contacts, et introduise un mécanisme leur permettant d’effacer à distance tous les contenus et comptes Meta (y compris ceux de WhatsApp et Threads) sur un appareil donné.
Certaines des menaces auxquelles sont confrontées les personnes LGBT dans la région MENA nécessitent des solutions réfléchies et créatives, en particulier lorsque les forces de l’ordre utilisent activement les plateformes de Meta comme outil de ciblage. Meta devrait consacrer des ressources à la recherche sur, et au dialogue avec, les personnes LGBT et les groupes de défense des droits numériques dans la région MENA, par exemple en mettant en œuvre le projet « Design from the Margins » (DFM) développé par Afsaneh Rigot, une chercheuse et défenseuse des droits numériques. Ce n’est qu’en s’engageant durablement à recentrer de manière active tous ses processus de conception sur les expériences des personnes les plus touchées que Meta pourra réellement réduire les risques et les préjudices subis par les personnes LGBT sur ses plateformes.
En vertu des Principes directeurs des Nations unies relatifs aux entreprises et aux droits de l’homme, les entreprises de réseaux sociaux, et notamment Meta, ont la responsabilité de respecter les droits humains sur leurs plateformes, notamment les droits à la non-discrimination, à la vie privée et à la liberté d’expression. Elles sont tenues d’éviter de porter atteinte aux droits humains, d’identifier et de remédier à l’impact que leurs services peuvent avoir sur les droits humains, notamment en donnant accès aux utilisateurs à des voies de recours effectives, et de communiquer sur la manière dont elles y remédient.
Dans le cadre de la modération des contenus sur ses plateformes, Meta doit notamment prendre des mesures pour s’assurer que ses politiques et pratiques sont transparentes, responsables et appliquées de manière cohérente et non discriminatoire. Meta a aussi la responsabilité d’atténuer les violations des droits humains perpétrées à l’encontre des personnes LGBT sur ses plateformes, tout en respectant le droit à la liberté d’expression.
Les Principes de Santa Clara sur la transparence et la responsabilité en matière de modération de contenu fournissent des orientations utiles aux entreprises pour qu’elles assument leurs responsabilités. Ils insistent notamment sur la nécessité d’intégrer les droits humains et le respect des procédures à tous les stades de la modération de contenu, sur la nécessité d’établir des règles compréhensibles et spécifiques applicables aux décisions relatives aux contenus et sur la nécessité de faire preuve d’une certaine compétence culturelle. Les principes de Santa Clara exigent aussi spécifiquement la transparence en matière d’utilisation d’outils automatisés dans les décisions qui impactent la diffusion des contenus et appellent à une supervision humaine des décisions automatisées.
Les droits humains protègent aussi les utilisateurs contre l’accès non autorisé à leurs données personnelles et les plateformes devraient donc également prendre des mesures pour sécuriser les comptes et données de ces utilisateurs contre l’accès non autorisé à ces données et à leur violation.
Les recommandations de la campagne « Sécuriser nos réseaux » visent à améliorer la capacité de Meta à assumer ses responsabilités en matière de droits humains. En développant et en appliquant ses politiques de modération de contenu, Meta devrait également réfléchir aux manières spécifiques dont les utilisateurs sont victimes de discrimination et de marginalisation, et notamment aux problèmes rencontrés par les personnes LGBT dans la région MENA, et en tenir compte. Les expériences vécues par ces utilisateurs devraient guider la conception des produits de cette entreprise y compris en donnant la priorité aux dispositifs permettant d’assurer la sécurité des utilisateurs.
En ce qui concerne la diligence raisonnable en matière de droits humains, Human Rights Watch et ses partenaires recommandent également à Meta de mettre en place des évaluations périodiques d’impact sur les droits humains dans des pays ou contextes régionaux particuliers, et de consacrer suffisamment de temps et de ressources à la participation des titulaires de ces droits.
De nombreuses formes de harcèlement en ligne auxquelles sont confrontées les personnes LGBT sur Facebook et Instagram sont interdites par les standards de la communauté Meta, qui imposent des limites à l’intimidation et au harcèlement, et indiquent que la plateforme « supprimera le contenu visant à rabaisser une personne ou à la couvrir de honte », y compris « les déclarations relatives aux activités sexuelles de quelqu’un », et qu’elle protégera les personnes privées contre les déclarations sur leur orientation sexuelle et leur identité de genre, notamment contre les révélations sur l’identité de genre des personnes LGBT. Les standards de la communauté Meta interdisent aussi certaines formes de doxing, ou divulgation de données personnelles, telles que la publication de numéros de téléphone privés et d’adresses personnelles, en particulier lorsqu’elles sont utilisées à des fins malveillantes.
En raison de défaillances dans ses pratiques de modération de contenus, notamment une mise en œuvre trop stricte dans certains contextes et insuffisante dans d’autres, Meta a souvent des difficultés à appliquer ces interdictions de manière transparente, responsable et cohérente. En conséquence, les contenus préjudiciables restent parfois sur les plateformes de Meta même s’ils contribuent à des conséquences hors ligne préjudiciables pour les personnes LGBT et violent les politiques de Meta. D’autre part, Meta censure, supprime ou restreint de manière disproportionnée les contenus non violents, réduisant au silence la dissidence politique ou les voix qui documentent et sensibilisent aux violations des droits humains sur Facebook et Instagram. Par exemple, Human Rights Watch a publié en novembre 2023 un rapport documentant la censure par Meta de contenus pro-palestiniens sur Instagram et Facebook [lien vers le prochain rapport Palestine/Tech].
L’approche de Meta en matière de modération de contenu sur ses plateformes associe des mesures proactives à des mesures axées sur les plaintes. L’automatisation joue un rôle central dans les deux cas et est souvent invoquée pour justifier le sous-investissement dans les modérateurs de contenu. Il en résulte qu’en termes de résultats, il est fréquent que la modération de contenu ne corresponde pas aux politiques affichées par Meta et que les mêmes groupes de personnes se retrouvent souvent à la fois victime de harcèlement et de censure.
Sur le plan de la procédure, les personnes et les organisations peuvent signaler un contenu sur Facebook et Instagram qui, selon elles, enfreint les standards ou lignes directrices de la communauté et demander que ce contenu soit supprimé ou restreint. À la suite d’une décision de Meta, le plaignant ou la personne dont le contenu a été supprimé peut généralement demander à Meta de revoir sa décision. Si Meta maintient sa décision une deuxième fois, l’utilisateur peut parfois faire appel de la décision de la plateforme auprès du Comité de surveillance du Meta, même si ce dernier n’accepte d’examiner qu’un nombre limité de cas.
Meta s’appuie sur l’automatisation pour détecter et supprimer les contenus jugés violents par la plateforme concernée, ainsi que les contenus violents récurrents, indépendamment des plaintes, mais aussi pour traiter les plaintes existantes et les recours, le cas échéant.
Meta ne publie pas de données sur les taux d’erreur commises par l’automatisation ni de statistiques sur le poids de l’automatisation dans le traitement des plaintes et des appels. Le manque de transparence de Meta entrave la capacité des chercheurs indépendants en droits humains et celle d’autres chercheurs à demander des comptes à ses plateformes, ce qui signifie que les retraits injustifiés de contenus ainsi que les processus de modération inefficaces pour les contenus violents, en particulier dans des langues autres que l’anglais, ne font l’objet d’aucun contrôle.
Dans son rapport de 2023 sur le ciblage numérique, Human Rights Watch a interrogé des personnes LGBT de la région MENA qui ont déclaré s’être plaintes de harcèlement en ligne et de contenus abusifs auprès de Facebook et d’Instagram. Dans tous ces cas, les plateformes n’ont pas supprimé les contenus, en prétendant qu’ils ne violaient pas les standards de la communauté ou les lignes directrices. Ces contenus, examinés par Human Rights Watch, comprenaient des révélations sur l’identité de genre d’utilisateurs, du doxing et des menaces de mort, qui ont entraîné de graves conséquences hors ligne pour les personnes LGBT. Non seulement l’automatisation n’a pas détecté ces contenus, mais même lorsqu’ils ont été signalés, la plateforme n’a pas réussi à les supprimer. En conséquence, les personnes LGBT qui se sont plaintes et dont les demandes ont été rejetées n’ont pas eu accès à un recours effectif et rapide qui aurait pu limiter les dommages hors ligne.
Human Rights Watch a également documenté, dans un autre rapport publié en 2023 [lien vers le rapport Palestine/Tech], la suppression disproportionnée de contenus non violents en soutien à la Palestine sur Instagram et Facebook – des contenus souvent restreints par des processus d’automatisation avant leur apparition sur la plateforme –, un processus qui a contribué à la censure de l’expression pacifique d’une opinion, et ce à un moment critique.
Meta modère également les contenus en conformité avec les demandes de suppression de contenus sur Facebook et Instagram qu’elle reçoit des gouvernements. Alors que certaines demandes gouvernementales signalent des contenus contraires aux lois nationales, d’autres demandes de retrait de contenu n’ont pas de base juridique et s’appuient plutôt sur des violations présumées des politiques de Meta. Les demandes informelles des gouvernements peuvent exercer une pression importante sur les entreprises et peuvent avoir pour conséquence de réduire au silence la dissidence politique.
Meta n’investit pas assez dans des modérateurs de contenu humains et son recours excessif à l’automatisation compromettent sa capacité à traiter les contenus sur sa plateforme. Les contenus ciblant les personnes LGBT ne sont pas toujours supprimés rapidement, même lorsqu’ils enfreignent les politiques de Meta, tandis que les contenus que les personnes LGBT souhaitent rendre plus visibles peuvent être censurés de manière inappropriée, ce qui aggrave les graves restrictions auxquelles les personnes LGBT de la région MENA sont déjà confrontées.
Comme l’explique la campagne « Sécuriser nos réseaux », une modération efficace du contenu nécessite une compréhension du contexte régional, linguistique et thématique.
Les modérateurs de contenu humains de Meta peuvent également se méprendre sur un contexte important lorsqu’ils modèrent un contenu. Par exemple, Instagram a supprimé un message contenant toute une série de termes arabes qualifiés de « discours de haine » à l’encontre des personnes LGBT par plusieurs modérateurs, qui n’ont pas su reconnaître que ce message était utilisé de manière autoréférentielle et responsabilisante pour sensibiliser la population. L’un des principaux facteurs ayant contribué à ces erreurs est l’insuffisance de la formation proposée par Meta et le fait que ses manuels de formation en anglais n’ont pas été traduits dans les dialectes arabes.
En 2021, des activistes LGBT de la région MENA ont élaboré, dans le cadre d’un projet de collaboration entre activistes de dix-sept pays de cette région, l’Arabic Queer Hate Speech Lexicon, qui identifie et contextualise les termes des discours de haine contre les personnes LGBT. Le lexique reprend les termes des discours de haine tels qu’ils existent dans plusieurs dialectes arabes, est rédigé en arabe et en anglais, et constitue un document évolutif que les activistes entendent périodiquement mettre à jour. Pour mieux détecter les discours de haine anti-LGBT en arabe et remédier aux conséquences négatives de tels discours sur les droits humains, Meta pourrait s’inspirer de ce lexique pour établir sa propre liste interne de termes relatifs aux discours de haine, et devrait impliquer activement les défenseur-e-s des droits des personnes LGBT et des droits numériques dans la région MENA, pour s’assurer que les termes sont replacés dans leur contexte.
Meta s’appuie beaucoup sur l’automatisation pour identifier de manière proactive les contenus qui violent ses politiques et pour évaluer les plaintes des utilisateurs. Il est fréquent que les outils automatisés d’évaluation du contenu ne parviennent pas à appréhender les facteurs contextuels essentiels qui sont nécessaires à la compréhension du contenu, ce qui nuit considérablement à la capacité de Meta d’évaluer les contenus. Par exemple, les systèmes automatisés de Meta ont rejeté, sans aucune intervention humaine, dix plaintes sur douze et deux procédures d’appel sur trois contre un message récent appelant à la mort par suicide des personnes transgenres, bien que la politique de Meta en matière d’intimidation et de harcèlement interdise « les appels à l’automutilation ou au suicide d’une personne en particulier ou d’un groupe d’individus ».
Les systèmes automatisés sont également confrontés à des défis spécifiques lorsqu’ils tentent de modérer des contenus autres que l’anglais, et il a été démontré qu’ils rencontrent des difficultés à modérer des contenus dans des dialectes arabes. L’un des problèmes sous-jacents est que le même mot ou la même phrase en arabe peut avoir une signification totalement différente selon la région, le contexte ou le dialecte utilisé. Or, les modèles linguistiques utilisés pour automatiser la modération de contenus « apprennent » l’arabe en s’appuyant souvent sur des variantes plus courantes ou formelles, ce qui réduit considérablement leur capacité à comprendre les contenus dans les dialectes arabes. Meta s’est récemment engagé à examiner des outils d’automatisation spécifiques aux dialectes, mais continue de s’appuyer fortement sur l’automatisation alors que ces outils sont en cours de développement et ne s’est engagé à respecter aucun critère particulier pour garantir le bien-fondé de ces nouveaux outils avant leur adoption.
Les politiques de Meta interdisent l’utilisation de ses plateformes Facebook et Instagram à des fins de surveillance, y compris à des fins d’application de la loi et de sécurité nationale. Cette interdiction inclut les faux comptes créés par les forces de l’ordre pour enquêter sur ses utilisateurs, et s’applique aux responsables gouvernementaux de la région MENA qui voudraient piéger des personnes LGBT. Les comptes signalés pour piégeage pourraient être désactivés ou supprimés, et Meta a engagé des poursuites judiciaires contre les utilisations abusives systémiques de sa plateforme, y compris à des fins de surveillance policière.
Cependant, l’interdiction de Meta contre l’utilisation de faux comptes n’a pas été appliquée d’une manière qui tienne suffisamment compte de l’impact sur les droits humains des personnes fortement marginalisées dans la société. En fait, l’interdiction des faux comptes a été utilisée contre des personnes LGBT. De fausses dénonciations de comptes sur Facebook pour utilisation de faux noms ont été utilisées dans des campagnes de harcèlement en ligne. (Contrairement à Facebook, Instagram n’interdit pas l’utilisation de pseudonymes). L’application agressive par Facebook de sa politique en matière de noms réels a également conduit à la suppression de comptes Facebook de personnes LGBT utilisant des pseudonymes pour se protéger de la discrimination, du harcèlement ou pire encore. Les enquêtes sur l’authenticité des comptes pseudonymes peuvent également porter atteinte de manière disproportionnée à la vie privée des personnes LGBT.
- Que se passe-t-il sur les autres plateformes et pourquoi cette campagne se concentre-t-elle sur Meta ?
Les problèmes que Human Rights Watch et ses partenaires espèrent aborder dans le cadre de cette campagne ne se produisent pas uniquement sur les plateformes de Meta. Des agents des forces de l’ordre et des particuliers utilisent de faux comptes pour piéger des personnes LGBT sur des applications de rencontres telles que Grindr et WhosHere.
Avant de publier son rapport de février, Human Rights Watch a envoyé une lettre à Grindr, à laquelle Grindr a répondu en détail par écrit, en prenant acte de nos préoccupations et en abordant la question des failles du système. Nous avons également envoyé une lettre à Meta en février, mais nous n’avons pas reçu de réponse écrite.
Le harcèlement en ligne, le doxing et les révélation de l’identité de genre des utilisateurs sont également répandus sur d’autres plateformes de réseaux sociaux telles que X (anciennement Twitter). L’approche de Twitter en matière de sécurité sur sa plateforme a fait l’objet de critiques ces dernières années, ses équipes chargées de la sécurité et de l’intégrité ayant été confrontées à plusieurs reprises à d’importantes réductions en personnel.
Meta continue d’exploiter la plus grande entreprise de réseaux sociaux au monde, et ses plateformes ont une portée considérable. En outre, les plateformes de Meta couvrent un éventail de services, allant des messages publics à la messagerie privée. L’amélioration des pratiques de Meta aurait un impact significatif et constituerait un point de départ utile pour un dialogue élargi avec d’autres plateformes s’agissant du ciblage numérique des personnes LGBT dans la région MENA.
Le ciblage des personnes LGBT en ligne est favorisé par leur précarité juridique hors ligne. De nombreux pays, notamment dans la région MENA, interdisent les relations entre personnes de même sexe ou criminalisent les formes d’expression du genre. La criminalisation du comportement homosexuel ou, lorsque le comportement homosexuel n’est pas criminalisé, l’application de vagues dispositions de « moralité » et de « débauche » à l’encontre des personnes LGBT renforce le ciblage numérique, étouffe l’expression LGBT en ligne et hors ligne, et sert de base aux poursuites judiciaires contre les personnes LGBT.
Ces dernières années, de nombreux gouvernements de la région MENA, dont l’Égypte, la Jordanie et la Tunisie, ont introduit des lois sur la cybercriminalité qui ciblent la dissidence et portent atteinte aux droits à la liberté d’expression et à la vie privée. Les gouvernements ont utilisé les lois sur la cybercriminalité pour cibler et arrêter les personnes LGBT et pour bloquer l’accès aux applications de rencontres entre personnes du même sexe. En l’absence de législation protégeant les personnes LGBT de la discrimination en ligne et hors ligne, les forces de sécurité [placeholder until we publish our Jordan PP] et les particuliers ont pu cibler ces personnes en ligne en toute impunité.
Les gouvernements de la région MENA ne font pas non plus en sorte de que les acteurs privés aient à rendre des comptes pour leur ciblage numérique des personnes LGBT. Souvent, les personnes LGBT ne signalent pas aux autorités les crimes dont elles sont victimes, soit parce qu’elles ont déjà tenté de le faire et que la plainte a été rejetée ou qu’aucune mesure n’a été prise, soit parce qu’elles pensaient raisonnablement qu’elles seraient tenues pour responsables du crime en raison de leur orientation sexuelle non conforme, de leur identité de genre ou de leur expression. Human Rights Watch a documenté des cas où des personnes LGBT ayant signalé aux autorités qu’elles avaient été victimes d’extorsion ont fini par se faire arrêter elles-mêmes.
Les gouvernements devraient respecter et protéger les droits des personnes LGBT au lieu de criminaliser leur expression et de les cibler en ligne. Les cinq gouvernements couverts dans le rapport Human Rights Watch sur le ciblage numérique devraient introduire et mettre en œuvre des législations qui protègent contre la discrimination fondée sur l’orientation sexuelle et l’identité de genre, notamment en ligne.
Les forces de sécurité, en particulier, devraient cesser de harceler et d’arrêter les personnes LGBT sur la base de leur orientation sexuelle, de leur identité de genre ou de leur expression et devraient plutôt assurer une leur protection contre la violence. Elles devraient également cesser de collecter ou de fabriquer de manière inappropriée et abusive des informations numériques privées pour appuyer les poursuites contre les personnes LGBT. Enfin, les gouvernements devraient veiller à ce que tous les auteurs de ciblage numérique – et non les victimes LGBT elles-mêmes – soient tenus pour responsables de leurs crimes.
Vous pouvez faire passer le message sur les préjudices potentiels pour les utilisateurs LGBT sur les plateformes de réseaux sociaux dans la région MENA, et sur la nécessité d’agir.
La campagne #SecureOurSocials demande à Meta de s’assurer que ses plateformes Facebook et Instagram soient plus responsables et transparentes quant à la modération des contenus et la sécurité des utilisateurs. Il s’agit par exemple de publier des données significatives sur leurs investissements dans la sécurité des utilisateurs, notamment la modération de contenus, et d’adopter certaines fonctionnalités de sécurité supplémentaires.
Vous pouvez agir maintenant. Envoyez un courriel à Nick Clegg, président des Affaires internationales de Facebook, et à Monika Bickert, vice-présidente de la Politique des contenus, pour qu’ils agissent en faveur de la sécurité des utilisateurs.
......................