Intervention de Mounir Mahjoubi

Réunion du 25 octobre 2017 à 14h30
Intelligence artificielle enjeux économiques et cadres légaux — Débat interactif

Mounir Mahjoubi :

Vous avez, monsieur le sénateur, évoqué un élément essentiel, le deep learning. Selon cette méthode mathématique, l’ordinateur et l’humain qui le programme ne savent pas à l’avance ce que la machine va trouver ni de quelle manière elle va créer les mécanismes lui permettant de comprendre.

L’ordinateur se comporte alors comme le cerveau d’un enfant : il va lui-même créer des liens symboliques entre les images et les données et tirer des conséquences entre les uns et les autres – par exemple, ces images me permettent de définir ce qu’est la couleur rouge, puis de comprendre in fine comment parvenir à ce type d’objets.

Toutefois, ce réseau, cette capacité à comprendre, cette intelligence artificielle que l’ordinateur va lui-même créer n’ont pas été codés « en dur », contrairement à un algorithme simple. Si la loi exigeait de rendre transparent un tel algorithme, il suffirait de dévoiler le code ayant permis de le construire. On sait quelles sont les données, quelles sont les règles, comment sont traitées les données et quelle est la sortie.

En revanche, si on demande de rendre transparent un algorithme de deep learning, on ne verra rien, ou peu de chose. En revanche, comme vous l’avez rappelé, on peut connaître les données qui ont été enseignées à l’ordinateur. L’un des grands dangers, c’est effectivement le biais. Si je communique l’intégralité des données de Twitter à un algorithme de ce type, et qu’ensuite je lui enseigne des concepts autour des personnes, des femmes, de l’homophobie ou de la haine, la machine va croire qu’il s’agit de sa nouvelle réalité, étant donné qu’il utilise les données d’un réseau dans lequel la parole haineuse ou biaisée est particulièrement surreprésentée.

Lorsque j’étais président du Conseil national du numérique, j’ai participé à une mission lancée par la précédente secrétaire d'État au numérique auprès de l’INRIA sur la transparence et la loyauté des plateformes et des algorithmes. Cette mission a débouché sur le dispositif TransAlgo, piloté par l’INRIA, qui propose des méthodes mathématiques et informatiques pour tester la loyauté des algorithmes sans avoir à examiner en détail l’intérieur du programme. On projette des données d’un côté, on regarde ce qui sort de l’autre, on le fait régulièrement dans le temps, on crée d’autres algorithmes qui absorbent les données entrantes et sortantes et on formule des hypothèses.

Si on souhaite exercer une surveillance politique de ces nouveaux algorithmes, il va falloir que l’on se dote de la capacité technologique et technique d’y parvenir.

La mission de l’INRIA constituait une première. Mais pour être de bons régulateurs dans les dix ans à venir, il va falloir être de sacrés bons techniciens et chercheurs. Il faudra donc que nous soyons tous, collectivement, élus, membres du gouvernement ou de l’administration, encore plus compétents.

En conclusion, nous devons nous mobiliser massivement autour de ces compétences. Nous devons amener les Français, dès leur plus jeune âge, à se poser la question de ces technologies, parce que nous n’avons rien à subir et que c’est nous qui devons décider de l’avenir de ces technologies.

Je vous donne rendez-vous dès le mois de janvier ou de février : l’État verbalisera une stratégie nationale autour de l’intelligence artificielle. Cédric Villani nous remettra ses recommandations. Nous pourrons nous appuyer aussi sur le rapport de Claude de Ganay et de Dominique Gillot et sur celui de la mission « France IA ».

Cette stratégie nationale sera ensuite présentée aux assemblées et je serais heureux de venir en débattre avec vous dans quelques mois.

Aucun commentaire n'a encore été formulé sur cette intervention.

Inscription
ou
Connexion