L’alinéa 10 de l’article 1er ter vise à améliorer la performance des traitements de données biométriques. Mais de quelle performance et de quelle amélioration parle-t-on exactement ?
D’après la Commission nationale de l’informatique et des libertés (Cnil), les technologies biométriques nuisent à la possibilité protégée par le droit d’aller et de venir sans être reconnu, en bénéficiant d’une forme d’anonymat. Elles comportent un risque d’erreur important, qui entraîne parfois l’arrestation de personnes non recherchées.
Ces technologies comportent également des biais discriminatoires majeurs. Une étude du Massachusetts Institute of Technology (MIT) révèle que les technologies d’intelligence artificielle présentent des préjugés liés au genre ou au type de couleur de peau. En analysant un logiciel de reconnaissance faciale, les chercheurs ont découvert un taux d’erreur de 0, 8 % pour des hommes à la peau claire et de 34, 7 % pour des femmes à la peau foncée.
Par ailleurs, comme je l’ai déjà souligné, ce texte vise à prévoir que des entreprises privées puissent être chargées de développer des traitements biométriques. C’est une aubaine pour ces entreprises, puisque le marché de la vidéosurveillance automatisée au niveau mondial représentait, en 2020, plus de 11 milliards de dollars.
Nous ne voulons certainement pas rendre ces technologies plus performantes et permettre aux entreprises de s’enrichir en exploitant la vie privée des personnes.
C’est la raison pour laquelle nous proposons au contraire de remplacer le dispositif d’amélioration en trompe-l’œil par un alinéa visant à indiquer que les critères sur lesquels se fondent ces traitements biométriques devront être disponibles en open source et que les données utilisées dans le cadre de ces traitements ne pourront être cédées ni vendues.