Ces constats étant posés, nous allons maintenant vous présenter les pistes que nous préconisons au terme de nos travaux, après avoir rencontré près de 120 personnes et procédé à quatre déplacements, notamment à Nice et à Londres. Je pense que les très nombreux entretiens que nous avons conduits, auprès de juristes, d'industriels ou de développeurs, de représentants des forces de sécurité intérieure ou d'associations de défense des droits sur internet, nous ont permis d'avoir une vision des choses globale et équilibrée.
Dans un premier temps, il nous semble indispensable de définir collectivement un cadre qui comprenne à la fois des lignes rouges, des interdits écartant le risque d'une société de surveillance - à cet égard, le titre de notre rapport est clair -, une méthodologie et un régime de contrôle. C'est bien d'ailleurs ce que nous ont demandé de faire la Commission nationale de l'informatique et des libertés (CNIL) et plusieurs acteurs que nous avons auditionnés.
Nous pensons que nous disposons d'une « fenêtre de tir » avant que le règlement européen sur l'intelligence artificielle actuellement en discussion n'entre en vigueur - les arbitrages sur certains points restent encore un peu flous -, pour dessiner les contours d'une reconnaissance biométrique « à la française » et essayer d'influer sur le législateur européen.
Dans la mesure où nous avons affaire à des techniques susceptibles d'apporter des changements profonds à la société - c'est un sujet éminemment politique -, il nous semble indispensable de faire comme en matière de bioéthique et de fixer dans la loi de grands interdits, qui seraient applicables à tous, acteurs publics comme privés, ce qui n'est pas la démarche actuelle de la réglementation européenne.
Pour être clairs, nous préconisons d'interdire le recours aux technologies de reconnaissance biométrique dans quatre cas.
Le premier est la notation sociale. La proposition de règlement sur l'intelligence artificielle nous semble assez frileuse de ce point de vue, puisqu'elle ne s'intéresse qu'aux acteurs publics. Il nous semble nécessaire de protéger les consommateurs de méthodes intrusives et d'empêcher le recours à la notation sociale par surveillance de leurs comportements, notamment dans les espaces de vente, de restauration ou les centres de loisirs.
Le deuxième est la catégorisation d'individus en fonction de l'origine ethnique, du sexe ou de l'orientation sexuelle - c'est une position constante de notre commission -, sauf dans le cadre de la recherche scientifique, de manière très encadrée et sous réserve de garanties appropriées.
La troisième interdiction est l'analyse d'émotions, qui se pratique déjà, par exemple dans certains cabinets de recrutement, sauf à des fins de santé ou de recherche scientifique et, une fois encore, sous réserve d'un cadre et de garanties appropriés.
La quatrième et dernière ligne rouge concerne l'utilisation de la surveillance biométrique à distance en temps réel dans l'espace public, sauf exceptions très limitées au profit des forces de sécurité. En particulier, nous pensons qu'il faut interdire clairement cette surveillance biométrique lors de manifestations sur la voie publique et aux abords des lieux de culte, mais nous pouvons envisager de l'accorder dans un certain nombre de cas où il peut y avoir péril - on pense aux jeux Olympiques, par exemple.
Nous préconisons également de poser quelques principes : le principe de subsidiarité, pour que la reconnaissance biométrique ne soit utilisée que lorsqu'elle est vraiment nécessaire ; le principe d'un contrôle humain systématique, afin qu'il ne s'agisse que d'une aide à la décision humaine ; et le principe de transparence, pour que l'usage des technologies de reconnaissance biométrique ne se fasse pas à l'insu des personnes.
Une fois ces lignes rouges posées, nous sommes favorables à l'adoption d'une loi d'expérimentation sur le modèle de la loi renforçant la sécurité intérieure et la lutte contre le terrorisme (SILT), soumise à une évaluation annuelle.
L'expérimentation pourrait être autorisée pour trois ans, le Gouvernement et le Parlement devant réévaluer le besoin et recadrer éventuellement le dispositif en fonction des résultats obtenus. Philippe Bas, alors président de notre commission, avait qualifié ce type de dispositif de « clause d'autodestruction »...
Pour que cette phase d'expérimentation soit utile, serait mise en place une évaluation publique et indépendante afin de connaître l'efficacité de la technologie dans le cas d'usage testé. Cette évaluation serait conduite par un comité composé de scientifiques et de spécialistes des questions éthiques qui pourrait fonctionner comme le comité qui rend chaque année un rapport sur l'algorithme Parcoursup. Cela n'empêchera en rien notre président de commission de créer une mission de contrôle tout au long de cette expérimentation.
Enfin, pour que les Français s'emparent du sujet - c'est loin d'être une question seulement technique, malgré sa grande technicité -, nous préconisons de rendre accessible une information claire sur les techniques de reconnaissance biométrique, les bénéfices qui en sont attendus et les risques encourus.
Le troisième volet de nos recommandations sur la création d'un cadre ad hoc porte sur l'indispensable contrôle du respect des règles.
Chaque usage devrait être autorisé a priori. L'utilisation par les forces de sécurité intérieure serait autorisée soit par un magistrat, soit par le préfet, selon que l'on s'insère dans un cadre de police judiciaire ou administrative. Pour une utilisation par un acteur privé dans un lieu accessible au public, la CNIL - pour éviter de multiplier les acteurs - serait chargée de l'autorisation.
La CNIL serait ainsi systématiquement consultée : pour les usages publics, parce que les analyses d'impact doivent impérativement lui être transmises pour avis, et pour les usages privés, parce qu'elle aurait à délivrer l'autorisation préalable.
Ces différentes autorisations feraient l'objet d'un recensement national pour garder une vision globale.
Enfin, nous souhaitons que la CNIL exerce un rôle de gendarme de la reconnaissance biométrique, qu'elle mène des contrôles a posteriori du bon usage des dispositifs et des éventuels détournements de finalité en dehors de l'autorisation.