Skip to main content

France : Rejeter la surveillance dans la loi sur les Jeux Olympiques 2024

Un système de surveillance basé sur des algorithmes violerait les droits fondamentaux

Les anneaux olympiques sont installés sur la place du Trocadéro à Paris, France, le 14 septembre 2017. © 2017 AP Photo/Michel Euler, File

Les députés français devraient rejeter une disposition du projet de loi relatif aux Jeux olympiques et paralympiques de 2024 qui créerait un précédent inquiétant de surveillance injustifiée et disproportionnée dans l’espace public, ont déclaré le 7 mars 38 organisations de la société civile, dont Human Rights Watch, dans une lettre publique.

 Le projet de loi, adopté par les sénateurs français en janvier et examiné à partir du 8 mars par l'Assemblée nationale, contient une disposition qui crée une base juridique pour l'utilisation de caméras dotées d’algorithmes en vue de détecter des événements suspects dans l’espace public.

« Selon nos organisations, la disposition relative à la surveillance contenue dans le projet de loi constituerait une grave menace pour les libertés civiques et les principes démocratiques », a déclaré Frederike Kaltheuner, directrice de la division Technologie et Droits humains à Human Rights Watch. « Elle augmenterait le risque de discrimination raciale dans l'application de la loi et constituerait un pas de plus vers la normalisation de mesures de surveillance exceptionnelles sous prétexte d’assurer la sécurité lors de grands événements », a ajouté Frederike Kaltheuner.

 

Lettre de la société civile aux députés français sur le projet de loi relatif aux Jeux olympiques et paralympiques 2024 

Nous, 38 organisations de la société civile soussignées, exprimons notre vive inquiétude en ce qui concerne l’article 7 du projet de loi relatif aux Jeux olympiques et paralympiques de 2024[1]. Cette disposition crée une base juridique pour l’utilisation de caméras dotées d’algorithmes en vue de détecter des événements suspects spécifiques dans l’espace public.  

Ce projet de loi ouvre la voie à l’utilisation d’une vidéosurveillance algorithmique intrusive sous couvert d’assurer la sécurité lors d’événements de grande ampleur. En vertu de cette loi, la France deviendrait le premier État de l’Union européenne (UE) à légaliser de manière explicite ce type de pratiques. Nous estimons que les mesures de surveillance introduites sont contraires au droit international relatif aux droits humains dans la mesure où elles ne satisfont pas aux principes de nécessité et de proportionnalité et impliquent des risques inacceptables vis-à-vis de plusieurs droits fondamentaux tels que le droit à la vie privée, le droit à la liberté de réunion et d’association et le droit à la non-discrimination.   

Nous invitons les députés français à envisager le retrait de l’article 7 et à consulter la société civile en ouvrant un débat sur cette question. Si l’article était adopté, il créerait un précédent inquiétant en matière de surveillance injustifiée et disproportionnée dans l’espace public, au détriment des droits fondamentaux et des libertés.  

Ce projet de loi représente une grave menace pour les libertés civiques et les principes démocratiques. 

Par sa simple présence dans des zones accessibles au public, la vidéosurveillance algorithmique non ciblée (souvent appelée « indiscriminée ») peut avoir un effet dissuasif sur les libertés civiques fondamentales, et notamment sur le droit à la liberté de réunion, d’association et d’expression. Comme l’ont souligné le Comité européen de la protection des données et le Contrôleur européen de la protection des données[2], la surveillance biométrique a de graves répercussions sur les attentes raisonnables des personnes en matière d’anonymat dans les espaces publics et a un effet négatif sur leur volonté et leur capacité d’exercer leurs libertés civiques, car elles redoutent d’être identifiées, repérées ou même poursuivies à tort. En l’état, cette mesure menace l’essence même du droit à la vie privée et à la protection des données, ce qui la rend contraire au droit international et européen relatif aux droits humains. 

Conformément aux valeurs et aux principes démocratiques, lors d’événements de grande ampleur tels que les Jeux olympiques, il est essentiel de garantir l’entière protection de ces droits fondamentaux et d’offrir des conditions propices au débat public, et notamment à l’expression politique dans les espaces publics. 

Par ailleurs, ce projet de loi allonge considérablement et dangereusement la liste des motifs justifiant la surveillance des espaces publics. Ainsi, les situations de mendicité ou de rassemblements statiques pourraient être qualifiées d’ « atypiques », créant un risque de stigmatisation et de discrimination pour les personnes qui passent beaucoup de temps dans l’espace public, par exemple parce qu’elles sont sans abri, en situation de vulnérabilité économique ou de handicap. Il est prouvé que l'utilisation des technologies de surveillance crée un état de contrôle, de profilage et de suivi permanent qui nuit de manière disproportionnée aux personnes marginalisées. L'utilisation de systèmes algorithmiques pour lutter contre la criminalité a entraîné une surveillance excessive de la part de la police, une discrimination structurelle dans le système de justice pénale et une criminalisation disproportionnée des minorités raciales, ethniques et religieuses. Cela conduit à la violation, entre autres, du principe de non-discrimination inscrit dans les normes internationales et européennes relatives aux droits humains. 

Ce projet de loi entraînerait une surveillance biométrique de masse 

Le paragraphe III de l'article 7 du projet de loi dispose de manière erronée que les systèmes algorithmiques de vidéosurveillance ne traiteront aucune donnée biométrique. Le règlement général sur la protection des données (RGPD) de l’Union européenne définit les données biométriques comme des « données à caractère personnel résultant d'un traitement technique spécifique, relatives aux caractéristiques physiques, physiologiques ou comportementales d'une personne physique, qui permettent ou confirment son identification unique » (article 4-14 du RGPD).  

Si l’usage de caméras dotées d’algorithmes est destiné à détecter des événements suspects spécifiques dans l’espace public, ces caméras capteront et analyseront forcément des traits physiologiques et des comportements de personnes présentes dans ces espaces. Il pourra s’agir de la posture de leurs corps, de leur démarche, de leurs mouvements, de leurs gestes ou de leur apparence. Le fait d’isoler des personnes par rapport à leur environnement, qui s’avère indispensable en vue de remplir l’objectif du système, constitue une « identification unique ». Tel que l’établit la loi sur la protection des données de l’UE et selon l’interprétation du Comité européen de la protection des données[3], la capacité d’isoler une personne parmi une foule ou par rapport à son environnement, que son nom ou son identité soient connus ou non, constitue une « identification unique ».   

Il est important de garder à l’esprit que l’utilisation de systèmes basés sur l’intelligence artificielle en vue d’analyser et de prédire les comportements, les émotions ou les intentions des personnes peut être tout autant intrusive et dangereuse que celle de systèmes visant à identifier des personnes. Le fait de placer des personnes dans une catégorie regroupant les comportements « à risque » sur la base de leurs données biométriques constituerait une catégorisation biométrique, que le Défenseur des droits et le projet de loi sur l’intelligence artificielle de l’UE définissent comme le fait de catégoriser des personnes physiques en fonction de caractéristiques spécifiques en se fondant sur leurs données biométriques. Nous attirons l’attention des députés français sur le risque que cette mesure soit en contradiction avec la future loi de l’UE sur l’intelligence artificielle. Dans le cadre du travail législatif en cours, plusieurs amendements proposent l’interdiction totale de la catégorisation biométrique au regard des risques importants qu’elle entraîne pour les droits fondamentaux. 

Les atteintes graves aux droits humains contreviennent aux exigences de nécessité et de proportionnalité 

Pour garantir une véritable protection des droits humains, il convient de commencer par comprendre les limites des technologies et apporter des preuves de leur adéquation par rapport aux objectifs poursuivis. Dès lors, il est indispensable de mener une étude en vue de déterminer si les technologies introduites au nom de la sécurité répondent à des menaces avérées et quelles incidences leur utilisation aura sur les droits humains et les libertés civiques. 

Bien que ce projet de loi présente des risques élevés pour les droits fondamentaux et malgré les preuves existantes[4] de l’inefficacité de la vidéosurveillance en matière de prévention des infractions et des menaces à la sécurité, le gouvernement n’a pas démontré la conformité de ce projet de loi aux principes de nécessité et de proportionnalité et il n’a pas engagé de véritable dialogue avec la société civile au sujet de cette mesure. De ce fait, nous estimons que les restrictions des droits humains introduites ne satisfont pas aux trois critères de légalité, de but légitime et de nécessité et de proportionnalité. Elles constituent une violation des obligations incombant aux États en matière de droits humains en vertu de traités internationaux, et notamment du Traité international relatif aux droits civils et politiques et de la Convention européenne des droits de l’homme. 

Ce projet de loi constitue une étape vers la normalisation de pouvoirs d’exception en matière de surveillance 

L'article 7 du projet de loi est représentatif de la tendance inquiétante des gouvernements à étendre leurs pouvoirs de surveillance dans le cadre de mesures d’urgence prises au nom de la sécurité. Or, il est rare que ces mesures dites « d’exception » soient levées rapidement. En lieu et place, les mesures de surveillance et de contrôle deviennent la norme. Souvent, elles ne s’accompagnent pas de garanties suffisantes et de mécanismes de responsabilité, elles manquent de transparence et elles ne font l’objet d’aucun dialogue avec les parties intéressées.  

Cette tendance a été amplement constatée en ce qui concerne les mesures de surveillance prises au cours des deux dernières décennies sous couvert de la lutte contre le terrorisme et, plus récemment, avec les solutions numériques adoptées dans le contexte de la pandémie de Covid-19[5]. Nous avons également observé par le passé que les Jeux olympiques peuvent servir de terrain d’expérimentation [6] pour doter l’État de pouvoirs renforcés qui sont ensuite maintenus lorsque la situation d’exception prend fin. 

Ces exemples suffisent à justifier nos craintes de voir l’utilisation de la vidéosurveillance algorithmique perdurer au-delà de 2025. Si elle est adoptée, cette loi constituera également un précédent dangereux pour d’autres pays européens, tels que le Portugal et la Serbie, qui ont tenté, à ce jour sans succès, de légaliser une série de pratiques de surveillance biométrique risquées. La France endosserait alors le rôle peu reluisant de « leader » des politiques de surveillance au sein de l’Union européenne. 

Nous espérons sincèrement que les députés français prendront des mesures de toute urgence en consultation avec la société civile afin de répondre aux préoccupations exposées ci-dessus.  

Access Now, International 

AlgoRace, Espagne 

AlgorithmWatch, Allemagne 

AlgorithmWatch CH, Suisse 

Amnesty International, International 

ApTI, Roumanie 

ARTICLE 19, International 

Big Brother Watch, Royaume-Uni 

Bits of Freedom, Pays-Bas 

Centre for Democracy & Technology, Europe 

Chaos Computer Club Lëtzebuerg, Luxembourg 

Citizen D / Državljan D, Slovénie 

Civil Liberties Union for Europe, Europe 

Deutsche Vereinigung für Datenschutz e.V. (DVD), Allemagne 

Digitalcourage e.V., Allemagne 

Digitale Gesellschaft, Suisse 

Digitale Freiheit e.V., Allemagne 

Elektronisk Forpost Norge, Norvège 

Eticas Tech, Espagne 

European Center for Not-for-Profit Law Stichting (ECNL), Europe 

European Digital Rights, Europe 

Fair Trials, International 

Forum Civique Européen, France/Europe 

Homo Digitalis, Grèce 

Human Rights Watch, International 

Irish Council for Civil Liberties, Irlande  

IT-Pol, Danemark 

Iuridicum Remedium, République tchèque 

Liberty, Royaume-Uni 

Panoptykon Foundation, Pologne 

Privacy International, International 

Privacy Network, Italie 

Share Foundation, Serbie 

Society Vrijbit, Pays-Bas 

Statewatch, Europe 

Today is a new day / Danes je nov dan, Slovénie 

 

[1] https://www.senat.fr/leg/pjl22-220.html

[2] https://edpb.europa.eu/system/files/2021-10/edpb-edps_joint_opinion_ai_regulation_fr.pdf

[3]https://edpb.europa.eu/sites/default/files/files/file1/edpb_guidelines_201903_video_devices_fr.pdf

[4] https://www.lemonde.fr/societe/article/2021/12/22/une-etude-commandee-par-les-gendarmes-montre-la-relative-inefficacitede-la-videosurveillance_6106952_3224.html

[5] https://ecnl.org/publications/under-surveillance-misuse-technologies-emergency-responses

[6] https://www.scielo.br/j/cm/a/zcKnN9ChT9Wqc4hfGWKSk4d/?format=pdf&lang=en

 

Your tax deductible gift can help stop human rights violations and save lives around the world.

Région/Pays