Monsieur le président, madame la ministre, mes chers collègues, la tâche de votre rapporteur a été facilitée par la qualité du travail accompli par les deux auteurs de cette proposition de loi, MM. Daubresse et de Belenet, lesquels se sont directement inspirés du rapport qu’ils avaient présenté avec notre collègue Jérôme Durain à la commission des lois voilà un an, et que celle-ci avait adopté à l’unanimité.
Je souligne ce consensus parce que l’extrême sensibilité de la question traitée ne garantissait pas à l’avance un tel résultat. Si les recommandations de nos collègues se sont ainsi imposées à nous, c’est grâce au discernement, à la prudence, aux interrogations, aux scrupules et même aux doutes qui les ont inspirés.
Avec eux, notre ambition est simple : protéger efficacement la vie privée des Français et garantir leurs libertés, sans pour autant renoncer totalement aux possibilités ouvertes par l’intelligence artificielle dans le traitement de données biométriques pour sauver des vies menacées par le terrorisme ou la grande criminalité.
À l’évidence, la voie était étroite, mais nos collègues ont su l’explorer avec sagesse ; dès lors, votre commission des lois n’avait plus qu’à l’emprunter et à la prolonger pour renforcer encore les garanties imaginées dans leur proposition de loi, en précisant les interdits posés, puis en resserrant le cadre juridique imaginé pour la mise en œuvre d’exceptions fortement restreintes et drastiquement contrôlées.
De quoi s’agit-il ? De l’utilisation d’une technologie permettant de reconnaître une personne photographiée ou filmée dans l’espace public au travers de la mise en équations numériques de son visage et le rapprochement des données ainsi obtenues avec les données déjà détenues sur la même personne. Il est ainsi possible de savoir si une personne se prévaut d’une fausse identité ou si une personne est présente parmi d’autres individus dans un lieu public donné. Et l’on peut procéder soit dans l’instant pour une action de prévention ou de poursuite immédiate, soit a posteriori dans le cadre d’une enquête judiciaire ou d’une opération de renseignement.
Le parti susceptible d’être tiré de cette technologie est immense, comme le sont les risques qu’elle comporte du fait de son caractère extraordinairement intrusif.
Tombée entre les mains de la police d’un régime dictatorial, elle peut devenir l’instrument d’un contrôle social généralisé. Utilisée à titre exceptionnel et de manière restrictive dans un régime démocratique respectueux de l’État de droit, elle peut ponctuellement présenter un intérêt réel pour la protection des citoyens, à condition que les principes et les règles encadrant son utilisation soient à la hauteur des libertés que nous, législateurs, et particulièrement le Sénat de la République, devons absolument faire prévaloir.
J’ai abordé ces questions avec à l’esprit quelques références communément partagées : nous savons bien que la marche de la science conduit depuis toujours à des découvertes ambivalentes, le meilleur côtoyant le pire. De la maîtrise du feu jusqu’à celle de l’atome, nous avons constamment été confrontés à ces interrogations auxquelles nul n’a jamais mieux répondu que Rabelais, avec qui nous disons désormais que : « Science sans conscience n’est que ruine de l’âme. »
Mes chers collègues, c’est à nous d’apporter la conscience nécessaire à la maîtrise et au contrôle des usages de l’intelligence artificielle, aujourd’hui pour la reconnaissance faciale biométrique.
L’Union européenne travaille sur le même sujet. Un règlement européen est en gestation. Il s’inspire de principes largement communs aux nôtres, ce qui n’est pas surprenant, car la France conserve une place déterminante dans le processus législatif européen. Il pourrait aboutir en 2025. Nous vous proposons de ne pas attendre cette échéance pour agir.
La France, comme elle l’a fait avec Bernard Kouchner et Simone Veil voilà trente ans dans un autre domaine où science et éthique se confrontaient – la bioéthique –, peut et donc doit être précurseur. C’est en effet pour nous une vocation sans cesse renouvelée que d’affirmer des principes fondamentaux en matière de libertés, dont d’autres pourront ensuite s’inspirer. Et cela nous mettra en position de force dans la négociation européenne en cours.
Nous avons bien évidemment tenu compte du travail accompli à Bruxelles et à Strasbourg et des réflexions engagées par la Cnil dès 2019, ainsi que des conclusions de nombreux rapports, le plus récent, très riche, étant celui de nos collègues députés Philippe Gosselin – de la Manche ! – et Philippe Latombe. Nous pensons maintenant être en mesure d’engager un processus législatif fécond, susceptible d’aboutir à l’Assemblée nationale.
Les principes que nous vous proposons d’adopter sont relativement simples.
Il y a d’abord un principe absolu, très clair, qui ne peut donc souffrir aucune exception : il s’agit de l’interdiction de toute exploitation d’images issues de la vidéosurveillance dans le cadre d’un contrôle social à la chinoise, avec classement des individus en fonction de leur comportement dans l’espace public en vue de les avantager ou, au contraire, de les pénaliser.
Il y a ensuite des principes auxquels seul le législateur pourra déroger, dans des conditions strictement limitées et contrôlées : interdiction de la reconnaissance faciale en temps réel à distance sans consentement, par exemple dans le cadre de la vidéosurveillance ; interdiction aussi de l’exploitation a posteriori par reconnaissance faciale d’images déjà détenues par la justice ou la police, sauf exception qui serait alors décidée par la loi et non par décret, comme dans certains cas aujourd’hui.
Ces principes étant établis, le texte prévoit ensuite les possibilités de dérogations, ainsi que les finalités et le régime de celles-ci.
Les dérogations devront être prévues directement par le Parlement. Elles seront expérimentales, d’une durée de trois ans, placées sous le contrôle du Parlement, obéissant aux principes de proportionnalité, de nécessité et de subsidiarité, et devront utiliser des logiciels de traitement configurés sous la responsabilité de l’État et individuellement autorisés, mis en œuvre par des personnels habilités, faisant apparaître le degré de probabilité de l’identification, afin d’éviter des risques d’erreur amenant un préjudice lourd pour les personnes concernées. Le Conseil d’État et la Cnil seront étroitement associés à l’élaboration des textes d’application.
La Cnil, justement, comme l’ont proposé Philippe Gosselin et Philippe Latombe, sera consacrée comme autorité régulatrice des usages de l’intelligence artificielle. Sa composition sera complétée pour associer les autorités de régulation de l’audiovisuel et des télécommunications à ses missions.
Le contrôle d’accès par la reconnaissance faciale pourra être utilisé lors de grands événements, comme nous souhaitons le faire pour les jeux Olympiques, mais de manière limitée à certaines catégories d’intervenants professionnels ou bénévoles, à certains lieux, avec une information préalable des intéressés, sans possibilité d’intégrer les riverains à ces modalités d’accès s’ils n’ont pas donné leur consentement, et seulement en cas de menace particulièrement grave pour la sécurité.
La reconnaissance faciale pourra être aussi utilisée pour le besoin d’enquêtes judiciaires.
D’abord, par la validation législative de la possibilité d’utiliser la reconnaissance biométrique pour identifier des personnes inscrites dans le fichier des antécédents judiciaires.
Ensuite, pour l’exploitation d’images de vidéosurveillance déjà recueillies, et cela en vue de réprimer le terrorisme, les trafics d’armes et les atteintes aux personnes punies de plus de cinq années d’emprisonnement, ainsi que pour la recherche de criminels en fuite ou de personnes disparues.
Par ailleurs, dans des conditions tout à fait exceptionnelles, limitées aux crimes les plus graves, à la disparition de mineurs, à la lutte contre le terrorisme et à la défense des intérêts fondamentaux de la Nation, la justice pourra recueillir des images grâce à des caméras dédiées et les exploiter en temps réel via la reconnaissance faciale en vue d’assurer le succès de l’enquête, au lieu de devoir utiliser seulement des images préexistantes. Dans ce cas, il faudra l’autorisation d’un magistrat, qui ne pourra être renouvelée au-delà de quarante-huit heures qu’avec l’accord du juge des libertés et de la détention. Seuls des officiers de police judiciaire, qui plus est spécialement habilités, pourront mettre en œuvre le traitement.
Enfin, l’utilisation de la reconnaissance faciale dans des activités de police administrative, c’est-à-dire de police préventive, sous l’autorité du Gouvernement, se fera, sur ma proposition, dans des conditions centralisées et non sur simple décision du préfet. Il reviendra au Premier ministre, après avis de la Commission nationale de contrôle des techniques de renseignement et sous le contrôle du Conseil d’État, de prendre la décision – c’est le système robuste de la loi de 2015, qui a fait ses preuves, relative au renseignement.
Mes chers collègues, les questions que nous avons à traiter aujourd’hui sont en apparence techniques et juridiques, et pourtant elles sont plus encore d’essence politique et éthique. L’approche de la commission des lois conforte, je le crois, les intentions équilibrées des auteurs de ce texte, tout en étendant les garanties qu’ils y avaient déjà inscrites.
Le caractère expérimental de la proposition de loi, comme nous l’avions déjà décidé en matière de terrorisme, présente l’intérêt de suivre l’évolution d’une technologie que l’on dit mature, mais qui n’est pas à l’abri d’erreurs. Il nous permettra aussi d’évaluer les éventuelles difficultés de mise en œuvre, de nous appuyer sur une jurisprudence, et finalement de vérifier que nous avons trouvé le bon équilibre.
Puisque nous avons l’audace de cette première étape, ayons aussi l’humilité d’accepter que notre œuvre ne soit pas pleinement aboutie et de prévoir qu’elle puisse être encore améliorée à la lumière de l’expérience.