Intervention de Dominique Gillot

Commission des affaires économiques — Réunion du 19 juillet 2017 à 9h35
Rapport fait au nom de l'office parlementaire des choix scientifiques et technologiques intitulé : « pour une intelligence artificielle maîtrisée utile et démystifiée » — Présentation

Photo de Dominique GillotDominique Gillot, rapporteure :

Je vous remercie de vos interventions et vais essayer d'y répondre dans l'ordre des questions posées.

Comme cela vient d'être indiqué, il y a en permanence des progrès à accomplir dans la maîtrise de l'intelligence artificielle et, en particulier, dans le « deep learning » dont je rappelle qu'il s'efforce de reproduire l'architecture neuronale humaine. Je fais observer que la recherche, dans ce domaine, contribue en même temps aux progrès de la science sur notre cerveau. En tout état de cause, les chercheurs ne sont pas encore parvenus à fabriquer l'équivalent d'un cerveau artificiel et seules certaines avancées partielles ont pu être menées à bien.

L'envahissement de notre quotidien par le numérique et l' « industrie 4.0 » ont ensuite été évoqués. Nous vivons là l'étape postérieure à celle de la robotisation des années 1950. Les nouveaux robots sont désormais capables de se substituer à certains salariés ou professionnels et cela entraine, comme nous l'avons vu, un déplacement des métiers. Il en résulte un immense besoin de formation pour nos futurs diplômés afin de leur permettre de s'adapter aux progrès technologiques. Nous changeons ainsi de paradigme, ce qui soulève non seulement le problème de la reconversion des personnes dont certaines fonctions sont effectuées par des machines mais aussi celui de la formation à de nouveaux métiers, en particulier dans le secteur de la santé. À mon sens, même si des robots d'accompagnement sont testés auprès des personnes âgées dépendantes, il est fondamental de maintenir une présence humaine, en particulier pour accomplir certaines tâches médicales. Il y aura donc à la fois des métiers qui vont disparaître ou être transformés et d'autres devront être créés. Cette problématique de substitution est un véritable défi pour l'ensemble de notre système de formation, tout particulièrement pour l'enseignement supérieur, et il faut lucidement reconnaitre que la continuation des schémas de pensée antérieurs n'est désormais plus possible.

S'agissant des craintes exprimées par Elon Musk ou Stephen Hawking, je souligne que parmi les scientifiques de haut niveau que nous avons rencontrés, beaucoup estiment un peu excessives les déclarations alarmistes sur les dangers de l'intelligence artificielle, qui peuvent sans doute s'expliquer par un manque de connaissances très spécialisées dans ce domaine. D'ailleurs, Stephen Hawking ne s'est plus exprimé sur ce sujet au cours de ces derniers mois et Elon Musk a beaucoup investi pour bénéficier d'une éventuelle immortalité liée à des intelligences artificielles supérieures. Au total, il est impossible de prouver que l'intelligence artificielle ne va pas remplacer l'homme mais rien ne le démontre positivement.

Par ailleurs, il est toujours envisageable qu'un « hacker » puisse rendre la machine folle ou l'entraver et nous préconisons donc qu'on puisse à tout moment appuyer sur le « bouton rouge ». Il est cependant illusoire de penser que le brigandage et l'escroquerie, ici comme ailleurs, pourront être totalement jugulés. Le robot lancé par Microsoft, qui a fini par envoyer des messages racistes et extrémistes, était, pour sa part, une expérimentation destinée à perfectionner le langage de la machine à travers des discussions. Cette affaire me conduit à vous préciser que les grandes firmes, comme Google ou Facebook, qui sont responsables de la transmission d'informations et dont l'impartialité a pu être mise en cause, travaillent aujourd'hui à des correctifs pour que les usagers ne reçoivent pas des informations tendancieuses allant dans un seul sens, ce qui peut menacer la démocratie.

Plusieurs rapports, en particulier de l'Office des choix technologiques, ont été publiés sur ce thème mais les choses évoluent très vite et cela nécessite un suivi attentif pour réagir très vite aux dangers. Je mentionne ici l'épisode dit des « drones tueurs » : on n'en parle plus aujourd'hui parce que le phénomène a été maîtrisé : certains États félons peuvent éventuellement continuer à les utiliser mais c'est une pratique désormais condamnée par la communauté internationale.

L'utilisation croissante d'algorithmes sur les marchés financiers a été mentionnée et on peut d'ailleurs y voir une preuve supplémentaire de la capacité des robots à effectuer certains métiers. Des verrous de sécurité sont prévus pour éviter toute déstabilisation excessive mais il faut renforcer la veille et nous proposons de la confier à une autorité qui relève probablement du niveau européen voire occidental, étant entendu que l'Asie se caractérise par un cadre éthique un peu différent. Une telle différence se retrouve en matière de santé puisque le contrôle est très strict dans l'Union européenne, par exemple, pour les données personnelles, les cellules souches et les expérimentations sur les animaux tandis qu'en Chine ou en Inde les règles sont plus souples.

Aucun commentaire n'a encore été formulé sur cette intervention.

Inscription
ou
Connexion