Intervention de Cédric Villani

Office parlementaire d'évaluation des choix scientifiques et technologiques — Réunion du 5 avril 2018 à 9h40
Présentation par M. Cédric Villani de son rapport au premier ministre « donner un sens à l'intelligence artificielle pour une stratégie nationale et européenne » Audition conjointe avec la commission des affaires économiques de l'assemblée nationale

Cédric Villani, député, premier vice-président de l'Office :

Je vais répondre à la première question clé du partage des données. Bien sûr, on peut argumenter une tension entre la protection et le partage. Si vous voulez être sûr de ne courir aucun risque de divulgation des données, vous ne partagez rien. Le partage de données constitue une nouvelle forme de solidarité. J'insiste sur le fait qu'une donnée d'un individu isolé - son dossier médical personnel par exemple - a très peu d'intérêt en soi. Seuls le partage, la recherche de corrélations, de points communs entre plusieurs données, leur confèrent de la valeur et permettent d'avoir des traitements plus efficaces, de réaliser des économies, etc.

Sur ce point, la participation des citoyens est essentielle. S'ils ne sont pas en confiance, ils ne partageront pas. Dans une vision démocratique, ce partage des données doit être consensuel, il exige un consentement éclairé de la part de celui qui partage ses propres données. Pour l'instant, les taux de partage des données de santé sont très bons. Mais ils chuteront si la confiance disparait. Le Règlement général sur la protection des données est un outil pour conserver la confiance. Il impose un certain nombre d'obligations. Une fois que ces obligations sont remplies, le partage peut se faire. Et surtout, il réaffirme les droits fondamentaux du citoyen par rapport à ses données : le droit de ne pas être « profilé » sans le savoir, le droit de faire transporter ses données d'un opérateur à un autre, le droit à l'oubli, etc. Il peut aussi réprimer, de façon dure, des comportements de la part d'entreprises qui ne respecteraient pas les règles. Ce volet répressif est nécessaire pour que la démarche soit prise au sérieux.

L'Union européenne a été très motrice en la matière. Le commissaire européen de la recherche, Carlos Moedas, nous a indiqué que, pendant longtemps, on se moquait de nous ailleurs, en nous disant qu'on allait se mettre des boulets aux pieds qui nous empêcheraient d'avancer. Maintenant que fleurissent de grands scandales sur l'utilisation des données personnelles, celui de Facebook par exemple, on commence à entendre, en Amérique, des voix qui disent que l'Europe est en avance sur ce sujet. L'affaire Snowden a produit une onde de choc considérable autour des notions de confidentialité et de vie privée. Il faut l'installer comme un préalable non négociable.

Une fois que la protection est là, le rôle de l'État est aussi d'inciter au partage des données entre les acteurs. Autrement dit, une fois que le filet de sécurité est en place, vous pouvez faire des acrobaties !

Concernant la question sur l'éducation, le rapport indique que des progrès sont possibles. Par nature, l'éducation est très rebelle au décorticage, à l'analyse de ce qui fonctionne ou pas. Qu'est-ce qui fait qu'un enseignant a de bons résultats, est apprécié ? Difficile de le savoir... Et d'ailleurs, c'est l'un des domaines où l'IA a fourni l'un des meilleurs exemples de désastre public, avec la mise en place, dans les écoles publiques de certains États américains, d'une politique nationale d'évaluation des enseignants fondée sur de l'IA. C'est analysé dans le livre de Cathy O'Neil (On Being a Data Skeptic), qui était présente lors du colloque. Partant du constat que l'évaluation de l'enseignant est très compliquée, l'ambition de ce projet était de voir de façon « objective », sans « biais humains », en fonction des élèves qu'il reçoit, le niveau vers lequel il arrive à les porter. Finalement, l'algorithme mis en place a donné des résultats calamiteux, instables, aboutissant au renvoi de certains enseignants de bonne qualité, et inversement.

Il faut donc faire très attention. D'une façon générale, les pays qui ont investi massivement dans l'informatique pour leur système d'éducation ont vu leur niveau d'éducation baisser. C'est un domaine dans lequel il faut expérimenter de façon importante.

Une fois qu'on aura maîtrisé l'IA dans ce domaine, que va-t-elle apporter ? D'abord, la possibilité pour les étudiants et les élèves de travailler davantage par eux-mêmes, ou en interaction avec l'IA, en complément avec le travail des enseignants. L'IA pourrait détecter d'elle-même les points de faiblesse et les exercices qu'on a besoin de poser à l'élève, et ainsi réaliser le rêve d'une éducation personnalisée. En quelque sorte, autant de petits précepteurs qui donneraient un enseignement adapté.

L'IA peut aussi aider l'enseignant à évaluer les étudiants ou à détecter des étudiants qui ont des troubles : dyslexie, autisme caché... L'absence de détection précoce peut être un obstacle à une prise en charge appropriée.

Il faut aussi rappeler qu'il convient toujours d'agir de façon bienveillante en la matière. Ces évaluations précoces ne cherchent pas à juger l'élève ni à décider de leur avenir. Elles visent à mettre en place une aide, une stratégie appropriée.

Il y a une autre difficulté fondamentale, qui va au-delà de l'éducation. L'IA est souvent conçue pour nous aider, aller au-devant de nos désirs, nous simplifier la tâche. Mais en matière d'éducation, vous avez besoin de faire des efforts et qu'on vous pose des défis. Des exercices dont on connaît déjà la solution, des programmes culturels qui vous plaisent et que vous connaissez déjà ne font ni progresser ni évoluer les individus. Comme l'IA est conçue au départ à partir d'exemples, le danger du conservatisme est presque inhérent à la technologie. Le jour où l'on viendra vous servir tout ce dont vous avez envie, vous ne ferez plus aucun effort. L'éducation, c'est aussi une affaire d'effort.

À titre personnel, je place beaucoup d'espoirs dans les techniques dites « adversariales », dont Yann LeCun a dit que c'était la meilleure idée en IA sur la dernière décennie. Vous avez non pas un mais deux outils d'intelligence artificielle qui sont en dialectique l'un et l'autre, comme un maître et un élève. L'élève cherche à prouver au maître qu'il est très fort en donnant la réponse à toutes les questions, le maître cherche à piéger l'élève en lui posant des questions difficiles, à la limite de ses connaissances. Ces techniques ont donné des résultats spectaculaires récemment. Ce sera peut-être un modèle d'IA capable de défier les élèves plutôt que de leur servir systématiquement ce dont ils ont envie.

Sur la question de la diffusion du rapport, il est très orienté vers l'action publique. Un lexique de vulgarisation a été rédigé à sa suite. À présent, nous avons en tête un ouvrage sur l'IA pour le grand public. Je signale aussi que, dans le cadre d'un groupe de travail entre l'Académie des sciences et l'Académie de médecine, nous allons éditer, notamment avec mon collègue médecin Bernard Nordlinger, un ouvrage qui comprendra de nombreuses contributions sur le thème plus spécifique de la santé.

Aucun commentaire n'a encore été formulé sur cette intervention.

Inscription
ou
Connexion