Le fait même d’expérimenter cette technologie est une menace pour nos libertés publiques, pour notre organisation sociale et pour nos débats démocratiques.
Certes, la promesse de cette technologie est simple : elle faciliterait la détection de situations permettant de présumer la commission d’infractions ou encore la survenue d’événements suspects ou potentiellement dangereux.
Pour cela, elle traite en temps réel des milliers d’images de vidéosurveillance. Par « traiter », il faut comprendre qu’elle les confronte avec un certain nombre de critères préétablis.
Afin que ce traitement soit pertinent, l’algorithme a besoin d’apprendre. « Apprendre », pour un algorithme d’intelligence artificielle, c’est se nourrir de millions d’images et de situations différentes, afin de codifier et de compartimenter l’espace public et la façon dont nous l’occupons, de manière à pouvoir distinguer des situations perçues comme déviantes, à risque ou menaçantes.
On commence ici à percevoir ce que cela implique ; on commence à pressentir la manière dont on bascule dans une société de la surveillance, celle où le citoyen se suspecte lui-même d’avoir un comportement inadapté, puisqu’il sait qu’un système de surveillance de son comportement existe, mais qu’il n’en connaît pas les règles, car elles ne sont, par essence, pas transparentes.
On va confier à des sociétés privées la codification et l’organisation de notre espace public commun, de ce que l’on peut considérer comme normal ou anormal, avec tous les biais que cela implique.
Il est donc facile de comprendre l’aubaine que les grands événements sportifs, comme les jeux Olympiques et Paralympiques, offrent à ces sociétés : les Jeux deviennent l’occasion rêvée de nourrir la bête.
L’enjeu réel est là. Il n’est pas dans l’assistance supposée de ces outils au moment de l’événement, madame la ministre ; il est dans l’incroyable masse de données que les start-ups qui auront décroché le marché pourront collecter lors de l’événement.
Ne vous faites pas d’illusion sur les garde-fous qui ont été introduits dans cette loi. L’ensemble des données sont utiles à l’algorithme : croire qu’il sera possible d’effacer les données non pertinentes n’a pas de sens quand on parle d’« apprentissage machine ». Les moments durant lesquels il ne se passe rien sont tout aussi utiles que ceux où se déroulent les événements problématiques, ne serait-ce que pour apprendre à la machine à les distinguer.