Intervention de Claude de Ganay

Commission des affaires économiques — Réunion du 19 juillet 2017 à 9h35
Rapport fait au nom de l'office parlementaire des choix scientifiques et technologiques intitulé : « pour une intelligence artificielle maîtrisée utile et démystifiée » — Présentation

Claude de Ganay, député, rapporteur :

Mesdames, Messieurs, chers collègues, je vous remercie de nous accueillir aujourd'hui au sein de votre commission, et d'avoir saisi notre Office de ce sujet important. Ce travail a représenté pour nous un très beau défi, car nous ne sommes pas scientifiques et nous n'avions aucun a priori sur le sujet. Cela nous a permis d'adopter une approche que l'on peut qualifier d'objective. Une certaine naïveté dans les questions posées aux spécialistes nous a permis de bien comprendre ce sujet.

J'en viens aux questions éthiques et juridiques posées par les progrès en intelligence artificielle. Reconnaître une personnalité juridique aux robots est une des pistes innovantes qui parcourent le débat public sur la robotique, mais nous ne sommes pas convaincus de l'intérêt d'une telle démarche, ce sujet n'est pas une question qui mérite d'être posée à ce stade.

S'agissant des autres aspects juridiques de l'intelligence artificielle, il n'y a pas d'urgence à combler un vide juridique béant car celui-ci n'existe pas. Les rapports parus sur le sujet, notamment dans le monde anglo-saxon, vont dans le même sens et ne recommandent pas de mesures législatives. La protection des données personnelles et de la vie privée méritera sans doute d'être renforcée dans l'avenir, en s'adaptant aux nouvelles innovations et à la présence croissante dans nos domiciles d'assistants intelligents. À ce stade, le droit est suffisamment protecteur.

Sur les régimes de responsabilité, nous notons que quatre régimes pourraient trouver à s'appliquer aux accidents causés par des robots : le régime de responsabilité du fait des produits défectueux, celui de la responsabilité du fait des animaux, celui de la responsabilité du fait d'autrui, ou, encore, celui, traditionnel, de la responsabilité du fait des choses. Le fait de mettre en place pour la robotique une responsabilité en cascade, pourrait être envisagée.

Sur les questions éthiques, nous avons relevé que les six « GAFAMI » se sont dotés d'un outil commun, le « Partnership on AI », formé en septembre 2016 par Google, Apple, Microsoft, Facebook, IBM et Amazon afin de réfléchir sur l'éthique de l'intelligence artificielle. Nous nous interrogeons sur les objectifs précis des GAFAMI et d'Elon Musk à travers les nombreuses initiatives qu'ils lancent. La volonté de ces nouveaux géants pourrait-elle être celle de se dédouaner ou de créer un nuage de fumée pour ne pas parler des vrais problèmes éthiques posés à court terme par les technologies d'intelligence artificielle, telles que l'usage des données ou le respect de la vie privée ? En effet, ces initiatives nous semblent donner une place trop grande au risque de l'émergence d'une intelligence artificielle « forte » qui dominerait et pourrait faire s'éteindre l'espèce humaine. L'intelligence artificielle dite « forte » est douée de conscience et comparable à l'intelligence humaine. La vision déjà tronquée du grand public, sous l'effet des oeuvres de fiction, et en particulier du cinéma, n'est pas améliorée par cela : il faut être vigilant avec les traitements médiatiques sensationnalistes et alarmistes de l'intelligence artificielle.

Je traite maintenant des questions technologiques et scientifiques qui se posent, souvent liées aux algorithmes utilisés par ces technologies. L'existence de biais dans les jeux de données est l'une des plus grandes difficultés pour les algorithmes d'apprentissage automatique. Ces derniers reproduisent les biais des données introduites en amont, en particulier toutes les discriminations connues dans nos sociétés. Il convient donc d'être vigilant sur ce point, surtout que ces biais sont souvent invisibles. La gouvernance des algorithmes et des prédictions qu'ils opèrent est nécessaire. Le phénomène de « boites noires » des algorithmes de « deep learning » appelle un effort de recherche fondamentale vers leur transparence. Ce problème d'intelligibilité reste à résoudre. Enfin les algorithmes sélectionnent le contenu des informations dont nous disposons, ce qui pose la question des bulles d'information dites « bulles de filtres » : l'information ciblée, la publicité personnalisée ou la logique de construction des « fils d'actualité » des réseaux sociaux, orientent, voire manipulent, notre perception de la réalité.

J'en viens aux sujets d'interrogation liés à la « singularité » et au « transhumanisme ». La rupture hypothétique de la « singularité technologique » ou passage de l'intelligence artificielle « faible » à l'intelligence artificielle « forte » doit être ramenée à sa dimension réelle : nous en sommes aujourd'hui encore très loin et il n'est pas sûr que nous y arrivions un jour. Attention au catastrophisme : non seulement l'avènement d'une super intelligence à long terme n'est pas certaine car c'est indémontrable scientifiquement mais sa menace à court terme relève du pur fantasme.

Il est en fait plus juste de parler d'intelligence augmentée plutôt que d'intelligence artificielle: l'intelligence artificielle ne remplace pas l'homme mais augmente son intelligence, et ce sont les combinaisons homme/machine qui sont les plus performantes.

Le projet transhumaniste de mort de la mort et de fin de la souffrance n'emporte pas notre adhésion. Il s'agit d'un mouvement philosophique qui s'apparente à une religion, prédisant et travaillant à une amélioration de la nature de l'homme grâce aux sciences et aux technologies. L'intelligence artificielle n'est pas un acte de foi et ne doit pas le devenir.

Je conclus avec nos quinze recommandations : nous sommes pour une l'intelligence artificielle maîtrisée, d'où nos cinq premières propositions. La première : se garder d'une contrainte juridique trop forte sur la recherche en intelligence artificielle, qui - en tout état de cause - gagnerait à être, autant que possible, européenne, voire internationale, plutôt que nationale. Proposition n° 2 : favoriser des algorithmes et des robots sûrs, transparents et justes et prévoir une charte de l'intelligence artificielle et de la robotique. Proposition n° 3 : former à l'éthique de l'intelligence artificielle et de la robotique dans les cursus spécialisés de l'enseignement supérieur correspondants. Proposition n° 4 : confier à une structure dédiée un rôle d'animation du débat public sur les principes éthiques qui doivent encadrer ces technologies. Proposition n° 5 : accompagner les transformations du marché du travail sous l'effet de l'intelligence artificielle et de la robotique en menant une politique de formation continue ambitieuse visant à s'adapter aux exigences de requalification et d'amélioration des compétences.

Je poursuis avec notre deuxième série de propositions : pour une intelligence artificielle utile au service de l'homme et des valeurs humanistes. Proposition n° 6 : redonner une place essentielle à la recherche fondamentale et revaloriser la place de la recherche publique par rapport à la recherche privée tout en encourageant leur coopération. Proposition n° 7 : encourager la constitution de champions européens en intelligence artificielle et en robotique, tout en poursuivant notre soutien aux start-ups. Proposition n° 8 : orienter les investissements dans la recherche en intelligence artificielle vers l'utilité sociale des découvertes, à savoir des applications à impact sociétal bénéfique : bien-être, santé, dépendance, handicap, infrastructures civiles, gestion des catastrophes. Proposition n° 9 : élargir l'offre de cursus et de modules de formation aux technologies d'intelligence artificielle dans l'enseignement supérieur et créer - en France - au moins un pôle d'excellence international et interdisciplinaire en intelligence artificielle et en robotique. Proposition n° 10 : structurer et mobiliser la communauté française de la recherche en intelligence artificielle en organisant davantage de concours primés à dimension nationale, destinés à dynamiser la recherche en intelligence artificielle. Proposition n° 11 : assurer une meilleure prise en compte de la diversité et de la place des femmes dans la recherche en intelligence artificielle.

J'en arrive à la troisième et dernière série de propositions, pour une intelligence artificielle démystifiée. Proposition n° 12 : organiser des formations à l'informatique dans l'enseignement primaire et secondaire faisant une place à l'intelligence artificielle et à la robotique. Il s'agit d'aller plus loin que l'offre actuelle. Proposition n° 13 : former et sensibiliser le grand public à l'intelligence artificielle par des campagnes de communication, l'organisation d'un salon international de l'intelligence artificielle et de la robotique et la diffusion de supports pédagogiques vidéo. Proposition n° 14 : former et sensibiliser le grand public aux conséquences pratiques de l'intelligence artificielle et de la robotisation. Quinzième et dernière proposition : être vigilant sur les usages spectaculaires et alarmistes du concept d'intelligence artificielle et de représentations des robots.

Ni quête vaine ni projet de remplacement de l'homme par la machine, l'intelligence artificielle représente une chance à saisir pour nos sociétés et nos économies. Les progrès en intelligence artificielle sont d'abord et avant tout bénéfiques, ils comportent aussi des risques, mais ces risques peuvent et doivent être identifiés, anticipés et maîtrisés. Nous nous prononçons donc pour une intelligence artificielle maîtrisée, utile et démystifiée, d'où le titre du rapport : maîtrisée parce que ces technologies devront être les plus sûres, les plus transparentes et les plus justes possibles, utile parce qu'elles doivent, dans le respect des valeurs humanistes, profiter à tous au terme d'un large débat public et, enfin, démystifiée parce que les difficultés d'acceptabilité sociale de l'intelligence artificielle résultent largement de visions catastrophistes erronées.

Nous croyons au bel avenir de la complémentarité entre l'homme et les machines. C'est, au final, bien plus vers une intelligence humaine augmentée que vers une intelligence artificielle concurrençant l'homme que nous allons.

Aucun commentaire n'a encore été formulé sur cette intervention.

Inscription
ou
Connexion