Avis défavorable sur l’amendement n° 62 et avis réservé sur l’amendement n° 25 rectifié.
À mon sens, il y a une petite confusion sur les raisons pour lesquelles les citoyens sont informés, conformément à la volonté de la Cnil et du législateur, qu’ils sont vidéoprotégés ou vidéosurveillés, comme vous le souhaitez ; nous avons déjà eu un débat sur la terminologie lors de l’examen de la loi pour une sécurité globale préservant les libertés.
Comme vous l’avez très bien dit, il s’agit de permettre au public d’être informé, de consulter ses données personnelles et, le cas échéant, de les faire effacer. Il ne s’agit pas – chacun le comprend – de lui permettre de refuser d’être filmé.
L’intelligence artificielle appliquée aux caméras de vidéoprotection et aux captations d’images vise à fournir des éléments supplémentaires de surveillance non pas des individus, mais des situations.
Que permettra très concrètement de faire cette caméra dotée d’une intelligence artificielle ? Elle permettra de repérer l’événement, la situation ou le comportement que nous souhaitons retrouver : un rassemblement intempestif, le casse d’un abribus, un sac posé au sol. Ce traitement ne visera pas à rechercher M. Dossus, M. Darmanin ou M. Durain. Il ne sera pas possible de retrouver les données personnelles propres à un citoyen individuellement, ce que permet la caméra classique de manière générale.
Si j’émets un avis réservé sur l’amendement de M. Durain – je ne le combats pas vraiment –, c’est parce qu’il ne mange pas de pain. Sans doute est-ce également pour cela que Mme la rapporteure a émis un avis favorable.
L’information générale est déjà donnée par le ministère de l’intérieur, par les communes ou par l’État pour la préfecture de police de Paris lorsqu’il s’agit de caméras déjà installées. L’installation de caméras, y compris mobiles, doit être signalée sur des panneaux d’information et dans le journal municipal. Il en va de même pour les aéronefs et les drones, conformément à la loi pour une sécurité globale.
L’intelligence artificielle n’ajoute rien : elle vise à retrouver des situations. Le cas aurait été différent si nous avions proposé la mise en œuvre de la reconnaissance faciale, qui concerne les personnes individuellement. Cela aurait alors sans doute eu du sens de discuter de l’information sur les données individuelles retrouvées par ce moyen nouveau, même à partir d’un moyen de captation ancien.
L’intelligence artificielle ne vise pas à accéder à de nouvelles données personnelles. Il s’agit de repérer des situations, comme chacun a sans doute pu le constater dans des documentaires, des reportages, des films ou lors des auditions au Sénat.
Imaginons ainsi que nous ayons à gérer une alerte à la bombe : il nous faut en pareil cas savoir si elle est sérieuse ou non, qui a déposé le sac et dans quelles conditions, s’il s’agit d’un oubli ou d’un abandon volontaire. De telles informations font gagner énormément de temps aux services de police. Les personnes autour ne seront pas concernées par les algorithmes et par ce que nous demandons au législateur d’inscrire dans le texte.
Je constate d’ailleurs que l’avis de la Cnil et celui du Conseil d’État sur un texte aussi complexe ne contiennent aucune réserve à cet égard. De surcroît, les points ayant fait débat lors de l’examen du projet de loi de programmation et d’orientation du ministère de l’intérieur sur les questions d’image ont tous été validés dans une excellente décision du Conseil constitutionnel, dont je me réjouis. Je profite de l’occasion pour saluer M. Loïc Hervé, rapporteur du texte, qui avait évoqué la question des données personnelles.
La Haute Assemblée devrait rejeter l’amendement de M. Dossus, qui repose sur une confusion. Celui de M. Durain est sans doute superfétatoire, mais j’émets un avis de « sagesse neutre ».