Intervention de Éliane Assassi

Réunion du 12 juin 2023 à 16h00
Reconnaissance biométrique dans l'espace public — Adoption d'une proposition de loi dans le texte de la commission modifié

Photo de Éliane AssassiÉliane Assassi :

Monsieur le président, madame la ministre, mes chers collègues, si la pratique de la surveillance des populations par l’État est ancienne, sa massification, sa sophistication et sa banalisation interrogent.

Fichage massif de nos concitoyens, des organisations syndicales, des syndicalistes et des militants, déploiement incontrôlé de la vidéosurveillance, qu’elle soit traditionnelle ou algorithmique, usage de drones, marquage des manifestants, activation à distance des téléphones portables dans un but de géolocalisation, mais aussi activation à distance de la caméra et du micro de ces mêmes téléphones, scanners corporels… La panoplie des mesures de surveillance, sous couvert de justification sécuritaire, s’enrichit de manière inquiétante, pour ne pas dire glaçante, et ce dans l’apathie générale.

Ce qui, hier, relevait de la dystopie se concrétise pas à pas, sous nos yeux, sans aucun débat public. Pire, sous couvert d’écarter le risque d’une société de surveillance, le texte dont nous débattons aujourd’hui tend à instaurer le principe d’une telle surveillance, en se cachant derrière l’impératif de « préserver nos intérêts économiques en développant des outils techniques français qui améliorent la sécurité sans nuire aux libertés ».

Et les jeux Olympiques ou autres « méga-événements » sont autant de chevaux de Troie « pour faire progresser des politiques qu’il aurait été difficile, voire impossible, de mettre en place en temps normal », comme le rappellent très justement de nombreuses ONG.

C’est ainsi que ce texte vise, sous couvert d’expérimentation, dans une logique de prévention des risques, de lutte contre des menaces, supposées ou avérées, ou d’efficacité des enquêtes, de banaliser la vidéosurveillance automatisée. Cette surveillance massive de l’espace public a pour objet de détecter des comportements prétendument anormaux, via l’identification par reconnaissance faciale en temps réel.

Comme pour d’autres systèmes de surveillance par le passé, tout en reconnaissant le caractère intrusif des technologies biométriques, l’argument avancé pour les mettre est place est l’impossibilité « de se priver de la reconnaissance faciale dans des cas particulièrement graves, afin de garantir la sécurité de nos concitoyens, à condition que son déploiement, exceptionnel, soit entouré des garanties nécessaires ».

Selon M. le rapporteur, il ne fallait pas « nous attarder sur les dangers réels de cette technologie en matière d’atteinte à la vie privée, sur les risques de développement d’une société de surveillance à la chinoise ou encore sur les erreurs possibles d’identification. Car cette technologie présente des avantages dont il serait dommage de se priver définitivement. Elle permet notamment de prévenir des attentats ou encore de retrouver des criminels. »

Notons-le, cette technologie est aussi la source de juteux revenus pour de nombreux acteurs privés. Nous parlons d’un marché en pleine expansion, qui pèsera près de 76 milliards de dollars dans le monde à l’horizon 2025.

Pour notre part, c’est au contraire des risques que font courir ces technologies et de la société que nous voulons qu’il faut débattre avant toute chose. Nous savons que ces dispositifs comportent des risques de discrimination, d’erreur, d’atteinte aux libertés fondamentales que nous ne pouvons balayer d’un revers de la main !

C’est ce que nous confirme la Cnil, en pointant le fait que « les bases de données utilisées pour le calibrage des algorithmes – les femmes, les gens de couleur, les personnes différentes – sont moins bien identifiées par les intelligences artificielles, faisant peser le risque de leur occasionner plus de contrôles, moins de libertés. »

De plus, comme le souligne La Quadrature du Net, « les comportements dits “suspects” ne sont que la matérialisation de choix politiques, subjectifs et discriminatoires, qui se focalisent sur les personnes passant le plus de temps dans la rue. Qu’elle soit humaine ou algorithmique, l’interprétation des images est toujours dictée par des critères sociaux et moraux, et l’ajout d’une couche logicielle n’y change rien. »

Enfin, ne nous y trompons pas, ces dix dernières années, toutes les mesures d’exception expérimentales ont fini, d’une manière ou d’une autre, par entrer dans le droit commun et par s’étendre à l’ensemble de la population et à toutes les situations.

Depuis près de vingt ans, avec une accélération certaine ces dernières années, nous sommes enfermés dans des politiques sécuritaires dont l’efficacité n’a pas été prouvée. Les outils de surveillance se renforcent et les lois se durcissent sans aucun débat public.

Permettez-moi de reprendre les propos de Mme Mireille Delmas-Marty, qui s’interrogeait, voilà plusieurs années, sur l’État autoritaire : « L’État autoritaire n’est pas nouveau, ce qui est nouveau, peut-être, c’est sa façon d’être autoritaire, d’une autorité grise et pénétrante qui envahit chaque repli de la vie, autorité indolore et invisible et pourtant confusément acceptée. » Ne laissons pas l’exigence de sécurité briser le rêve de liberté !

Aucun commentaire n'a encore été formulé sur cette intervention.

Inscription
ou
Connexion