«Assemblée redondante», 2015, UQAM. Cette installation de l'artiste Rafael Lozano-Hemmer détecte et enregistre les visages des passants de la rue Sainte-Catherine à Montréal. Ces miroirs numériques superposent les traits de ceux qui les contemplent avec ceux des précédents spectateurs, créant d’évanescents portraits composites. art_inthecity/Flickr, CC BY-NC-ND
Proposition de loi sur la reconnaissance faciale : un pas de plus vers la surveillance généralisée ?
Yoann Nabat, Université de Bordeaux et Elia Verdon, Université de BordeauxMalgré de nombreux débats dans l’opinion publique, la reconnaissance faciale n’a jamais fait en France l’objet d’une loi, ni dans le sens d’une interdiction ni d’une autorisation. C’est sur cette dernière voie que s’est pourtant lancé le Sénat en adoptant lundi 12 juin une proposition de loi autorisant son usage sur la voie publique à titre expérimental pour une durée de trois ans.
La proposition de loi émane de deux sénateurs (Marc-Philippe Daubresse et Arnaud de Belenet) qui étaient déjà les auteurs d’un rapport d’information déposé il y a un an sur la reconnaissance biométrique. Elle est encore loin d’être adoptée définitivement puisque la proposition doit encore être votée par l’Assemblée nationale et que le gouvernement ne semble pas y être favorable. Toutefois, elle interroge déjà au regard du risque de l’avènement d’une société de surveillance dont le spectre apparaissait dès le rapport de mai 2022.
Une banalisation de la reconnaissance faciale sur la voie publique
En effet, le texte adopté fait certes de l’interdiction de la reconnaissance faciale le principe formel mais autorise de fait de nombreux usages qui renversent la dynamique générale. Il propose plusieurs cas d’usage de la reconnaissance faciale sur la voie publique qui en banalisent considérablement le recours.
Premièrement, l’article 2 du projet suggère une « expérimentation de dispositifs d’authentification biométrique sans consentement pour l’accès à certains grands événements ». Très concrètement, il s’agirait d’autoriser l’usage de la reconnaissance faciale pour vérifier que les personnes se déplaçant dans une zone protégée autour d’un grand événement (par exemple, la visite du chef de l’État) sont bien autorisées à le faire. L’usage de la technique est donc ici limité à certaines personnes et à un cadre géographique déterminé et ponctuel.
Pourtant, même ce premier scénario en apparence anodin pose difficulté. Le choix de mettre en place des dispositifs d’authentification biométrique sans consentement surprend là où il serait possible de laisser les individus concernés décider (utiliser un sas automatisé par reconnaissance faciale pour pénétrer dans la zone ou se soumettre à un contrôle classique d’identité par un policier), dans un meilleur équilibre avec les droits fondamentaux. En ce sens, le consentement des citoyens à ce dispositif pourrait contribuer à une dynamique de collaboration entre ces derniers et l’État en matière de sécurisation des grands évènements. Techniquement, il pourrait être assuré notamment par le biais de la reconnaissance biométrique à la main de l’usager.
Deuxièmement, l’article suivant du même texte autorise les services de police et de gendarmerie à recourir à des logiciels de reconnaissance faciale sur les images recueillies dans le cadre d’investigations relatives à certaines infractions. Cette fois, l’identification visée se ferait a posteriori et non en temps réel. Cette pratique est en réalité déjà autorisée en partie par le fichier TAJ très utilisé par les forces de police et de gendarmerie. Elle serait cependant ici très encouragée. La même possibilité est parallèlement donnée également aux services de renseignement à partir des images de vidéosurveillance de la voie publique.
Une reconnaissance en temps réel
Troisièmement, les auteurs de la proposition souhaitent voir expérimentée la reconnaissance biométrique en temps réel sur la voie publique plus largement encore. Cette possibilité serait donnée pour assurer la sécurité de « grands événements sportifs, récréatifs ou culturels » et devrait permettre d’identifier « sur la base de leurs caractéristiques biométriques, des personnes limitativement et préalablement énumérées faisant peser une menace grave et immédiate sur l’ordre public ».
En d’autres termes, il s’agit de repérer dans une foule des individus préalablement identifiés, à l’image de l’expérimentation qui avait eu lieu au carnaval de Nice.
Similairement, les services de police judiciaire seraient également autorisés à déployer ces techniques en dehors même d’événements particuliers pour repérer des individus dans le cadre d’enquêtes portant sur des infractions particulièrement graves (comme le terrorisme). Les images soumises à cette identification en temps réel sont celles de la vidéosurveillance, mais peuvent aussi être celles de caméras embarquées dans des véhicules par exemple.
Dans ces derniers scénarios, la surveillance se fait beaucoup plus massive puisqu’il s’agit bien de permettre l’usage de la reconnaissance faciale partout où cela serait utile et de manière très large. Si seulement quelques individus sont effectivement visés par ces techniques, elles concernent de fait tous ceux qui passeront dans le champ des caméras puisque pour reconnaître un individu dans une foule, il faut nécessairement scanner le visage de tout le monde. Chacun devient de fait un potentiel suspect. L’usage de la reconnaissance faciale sur la voie publique revient alors à un contrôle d’identité permanent de tous au nom de la recherche de quelques-uns.
Le même chemin que la Chine ?
Ces techniques sont celles déjà mises en œuvre dans d’autres pays comme la Chine. Avec cette proposition de loi, la France emprunte insidieusement le même chemin. Le texte adopté par le Sénat conduit d’ailleurs à admettre ce qui avait été précisément refusé jusqu’ici, y compris pour l’organisation des Jeux de Paris 2024.
Si la proposition entoure ces pratiques de garanties, celles-ci sont plus formelles que réelles. Par exemple, le recours à la reconnaissance faciale pour une enquête de police peut se faire avec la simple autorisation du procureur de la République, alors même que ce magistrat ne présente pas les garanties d’indépendance qui pourraient être attendues pour user d’une technique particulièrement intrusive.
Par ailleurs, les moyens employés pour assurer techniquement la reconnaissance faciale ne sont pas exempts d’erreurs, voire de biais. Ces approximations pourraient mener à atteindre très directement les droits d’individus innocents en conduisant notamment à des arrestations injustifiées dues à la présence de « faux positifs ».
Gare à l’effet cliquet
Enfin, tout ceci ne serait-il qu’expérimental ? Au regard de la pratique des vingt dernières années, l’argument n’est pas convaincant.
En effet, l’effet cliquet conduit à ne jamais remettre en cause ce qui est acté une fois la limite franchie, même à titre expérimental. Entre autres, le dispositif PARAFE a d’abord été expérimenté en 2005 avant de devenir permanent dans la majorité des aéroports internationaux au regret de la CNIL.
La tendance est même celle d’une amplification des usages permise bien au-delà de l’exceptionnalité promise. Par exemple, le recours à des drones par les préfectures pour surveiller des manifestants n’est autorisé que depuis quelques mois, mais a déjà eu lieu à de très nombreuses reprises. De la même manière, le fichage génétique promis à la fin des années 1990 pour les seuls criminels sexuels s’est depuis très largement étendu.
En définitive, cette proposition de loi apparaît ainsi comme le symbole d’une exploitation sécuritaire du « solutionnisme technologique ». Elle incarne cette croyance absolue et irrationnelle que la technologie serait par principe une bonne idée et une solution efficace aux maux de la société. Elle traduit d’ailleurs un manque de réflexion technique et juridique sur ces questions : autorisations déjà existantes en partie, confusion dans les termes utilisés (authentification et identification), solutions techniques plus protectrices des droits fondamentaux non évoquées.
Elle semble ainsi répondre avant tout à des enjeux court-termistes d’affichage entraînés par une forme de populisme sécuritaire en promettant toujours plus de sécurité sans penser en profondeur les enjeux sociétaux, philosophiques, juridiques et techniques que le recours à ces technologies entraîne.
Yoann Nabat, Docteur en droit privé et sciences criminelles, Université de Bordeaux et Elia Verdon, Doctorante en droit public et en informatique, CERCCLE (EA 7436) et LaBRI (UMR 5800), Université de Bordeaux
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.
Articles en Relation
Couple et droit : (ré)écrire l’histoire d’une vie à deux ?
Image de freepik
Couple et droit : (ré)écrire l’histoire d’une vie à deux ?
L'amour souffre parfois d’un...
#Metoogarçons : « 80% des violences ont lieu ou commencent avant l’âge de 18 ans...
Photo de Gioele Fazzeri:
#Metoogarçons : « 80% des violences ont lieu ou commencent avant l’âge de 18 ans »
Selon ...
TikTok manipule les ados et les met en danger : la plate-forme poursuivie aux Ét...
Photo de Nathana Rebouças sur Unsplash
Photo de Collabstr sur Unsplash
TikTok manipule les ados et les met en danger : la plate-form...
Insta, TikTok, BeReal : pourquoi on se (la) raconte sur les réseaux sociaux
Image de freepik
Insta, TikTok, BeReal : pourquoi on se (la) raconte sur les réseaux sociaux
Il y a 35 a...
Faire parler les morts avec l’IA : la « résurrection numérique » n’est ni utile,...
Faire parler les morts avec l’IA : la « résurrection numérique » n’est ni utile, ni éthique, ni légale
...
« Je préfère ne pas en parler » : le tabou des avortements en dépassement de dél...
Image de Freepik
Image de jcomp sur Freepik
« Je préfère ne pas en parler » : le tabou des avortements en dépassement de délais
Sophie...