Comme l’ont souligné les précédents orateurs, nous sommes conduits à nous prononcer aujourd’hui sur une proposition de loi de nos collègues Marc-Philippe Daubresse et Arnaud de Belenet portant sur la reconnaissance biométrique dans l’espace public.
Issu des propositions formulées par une mission d’information de la commission des lois, ce texte vise, d’une part, à fixer des lignes rouges pour faire obstacle à une société de surveillance, d’autre part, à expérimenter de nouveaux cas d’usage de cette technologie, qui croît exponentiellement grâce aux algorithmes d’apprentissage.
Nous le savons, l’opinion publique est polarisée entre ceux qui craignent l’usage poussé des technologies biométriques en raison de leur nature attentatoire aux libertés et ceux qui soulignent davantage ses bénéfices potentiels pour la sécurité de tous.
La reconnaissance biométrique dans l’espace public n’est effectivement pas un dispositif anodin. Elle fait partie de ces outils qui relèvent d’un choix de société et qui requièrent donc une attention et une évaluation toutes particulières.
En effet, ses applications possibles sont illimitées : elles peuvent dépasser le seul prisme sécuritaire pour rythmer un simple acte de la vie courante ou une activité commerciale.
Dès lors, permettre l’usage de telles technologies sans instaurer de garde-fous est dangereux.
Des exemples au-delà de nos frontières nous montrent comment cet usage comporte une part de risque, notamment lorsqu’il est utilisé par un régime totalitaire contre ses propres citoyens.
Nous avons tous en tête l’exemple de la Chine, où la reconnaissance faciale rythme le moindre acte de la vie quotidienne – obtenir une ligne de téléphone portable, faciliter l’enregistrement dans un hôtel, identifier des élèves qui sèchent les cours – et est devenue une arme politique à Hong Kong, par exemple, ou dans la région du Xinjiang contre la minorité ouïghoure.
Pour en revenir au texte, nous souscrivons à l’ambition de fixer des lignes rouges. En revanche, l’ouverture d’expérimentations de nouveaux cas d’usage nous alerte.
À cet égard, l’analyse des services de la Cnil, qui a été présentée à la commission des lois par son secrétaire général, Louis Dutheillet de Lamothe, est aussi éclairante qu’alarmante.
Selon ce dernier, alors que l’expérimentation des technologies biométriques ne devrait être réalisée qu’« avec une extrême prudence et de manière progressive », la proposition de loi que nous examinons « élargit de manière considérable et d’un seul coup les cas d’usage ». Comme il le rappelle, choisir d’expérimenter, c’est déjà choisir de créer.
Contrairement aux recommandations des services de la Cnil, la commission des lois a fait le choix de maintenir les dispositions relatives à la reconnaissance biométrique en temps réel, ce que nous regrettons vivement.
Selon M. Dutheillet de Lamothe, l’identification en temps réel dans l’espace public à titre expérimental marquerait « une rupture fondamentale pour l’exercice de nos libertés publiques, alors que nous n’avons pas encore de recul sur l’efficacité et l’utilité de la biométrie dans les autres cas d’usage ».
Et je n’évoque pas les risques avérés d’erreurs d’identification, les biais discriminatoires, le risque d’inhibition dans l’exercice des droits ou libertés fondamentales ou encore le risque de sécurité informatique.
Par conséquent, avant d’étudier la possibilité de recourir à cette technologie, nous estimons préférable de prendre le temps de tester l’emploi des caméras augmentées, sans reconnaissance faciale, dont l’expérimentation est prévue par l’article 10 de la très récente loi du 19 mai 2023 relative aux jeux Olympiques et Paralympiques de 2024 et portant diverses autres dispositions.
Il convient donc de faire le bilan de cette expérimentation qui se déroulera au cours des jeux Olympiques et Paralympiques, à partir du 26 juillet 2024, avant d’aller plus loin quant au développement de la reconnaissance faciale.
Pour toutes ces raisons, et parce qu’il nous faut légiférer avec une prudence accrue en la matière, le groupe RDPI votera contre ce texte.