Intervention de Jean-Michel Besnier

Office parlementaire d'évaluation des choix scientifiques et technologiques — Réunion du 16 novembre 2017 à 9h30
Audition ouverte à la presse sur « les algorithmes au service de l'action publique : le cas du portail admission post-bac apb »

Jean-Michel Besnier, professeur de philosophie, université de Paris IV Sorbonne :

L'esprit de mon intervention rejoindra, en partie, le propos de M. Victor Demiaux. Je me situerai, en effet, sur un terrain éthique, c'est-à-dire sur les notions d'acceptabilité sociale des innovations et de « bien vivre », l'éthique étant d'abord la réponse à la question du « bien vivre ».

Je commencerai par indiquer, ce qui vous apparaîtra peut-être comme une insolence, qu'il n'est jamais bon de démoraliser le citoyen. Or, ceci risque fort de se produire, quand on le prive de participer à l'institution de la loi ou du droit d'exercer sa responsabilité, c'est-à-dire son pouvoir d'initiative, dans l'espace public. À force de considérer la part prise par la soif de consommer dans les sociétés développées, on a tendance à ne plus trop s'inquiéter de la demande insatisfaite de ce droit à la responsabilité, comme si le consommateur, l'usager, semblait étouffer de plus en plus le citoyen et le rendre pour ainsi dire politiquement apathique. Je crois que la déferlante d'annonces concernant l'intelligence artificielle est propice à une prise de conscience dans le public, que l'on aurait, que vous auriez, tort d'ignorer.

Du point de vue de son acceptabilité sociale, l'intelligence artificielle est de plus en plus perçue comme l'annonce d'une perte du pouvoir humain de décider, au profit d'un triomphe généralisé des automatismes et des algorithmes. Il s'agit d'un phénomène relativement récent du point de vue de l'épistémologie, ou de l'histoire des sciences. Tant que l'on présentait l'intelligence artificielle d'après des modèles cognitivistes et computationnalistes, l'inquiétude était endiguée. Mais aujourd'hui, avec les modèles connexionnistes, et la sophistication des systèmes convolutifs, la société réalise, à tort ou à raison, qu'elle perd la maîtrise de ses machines. C'est comme si le système expert de jadis laissait la place, aujourd'hui, à l'apprentissage profond (deep learning), et consacrait une espèce de déperdition du sentiment d'avoir l'initiative. Ceci n'a évidemment rien de gratifiant pour l'humain. L'intelligence artificielle apparaît même, pour l'humanité, comme une nouvelle forme de « blessure narcissique », pour reprendre l'expression employée par Freud, pour désigner la désillusion progressive de l'humain par rapport à l'image qu'il se faisait de lui-même.

Le rapport de l'Office parlementaire du 14 mars 2017, intitulé Pour une intelligence artificielle maîtrisée, utile et démystifiée, est, à mes yeux, quelque peu irénique de ce point de vue. Il semble penser qu'il suffit d'évacuer comme « fantasme », c'est l'expression qu'il emploie, l'inquiétude traduite par la fameuse lettre d'avertissement signée en janvier 2015 par MM. Stephen Hawking, Bill Gates, Elon Musk, et Noam Chomsky, pour s'assurer d'une démystification de l'intelligence artificielle. Or, le fantasme alimente l'imaginaire, qui lui-même conditionne l'acceptabilité. Maîtriser et rendre opérationnelle, c'est-à-dire utile et efficace, l'intelligence artificielle est une chose ; l'inscrire comme la composante d'une culture revendiquée, comme un progrès pour l'humanité, en est une autre. C'est d'ailleurs bien de l'idée de progrès dont il s'agit. Le battage médiatique dont les technologies NBIC (nanotechnologies, biotechnologies, informatique et sciences cognitives) sont l'objet met au premier plan l'imminence d'une rupture, non l'actualisation d'un progrès, ce qui est très différent. La « singularité » dont on nous parle régulièrement est l'attente d'une rupture dans le continuum qui pouvait jusqu'alors décrire le progrès issu des Lumières. Le rapport sur les NBIC remis en 2003 au gouvernement américain sous le titre Convergences technologiques pour l'augmentation des performances humaines, qui sert largement de feuille de route à bon nombre de politiques de recherche d'aujourd'hui, parle d'une renaissance, plutôt que de l'avènement d'une issue eschatologique, qui consacrerait l'effort volontaire de l'humanité pour se réaliser. La renaissance est autre chose que la révolution : c'est l'explosion imprédictible des possibles, sur fond d'une table rase. Je n'évoquerai pas ici le transhumanisme, mais il faut savoir que le transhumanisme n'est pas progressiste : il veut aller au-delà de l'humain, grâce à des technologies qui doivent précisément déborder l'humain.

Il y a là un paradoxe, qui souligne, à mes yeux, l'ambivalence de la réaction du public par rapport à l'intelligence artificielle. Les algorithmes nous promettent la sécurité, en produisant des machines qui savent apprendre, et qui fonctionnent en situation d'incertitude. Mais, dans le même temps, ils menacent de nous rendre superflus, ou en tout cas de nous vassaliser. Les transhumanistes affirment même parfois que les algorithmes vont nous réduire à l'état de chimpanzés du futur. Ce paradoxe d'un système qui promet la sécurité, et engendre la vassalisation, est celui de la modernité. Nous avons voulu réaliser l'autonomie du genre humain, en refusant les déterminismes naturels. C'est le fondement même de la culture. La science et la technique ont été les moyens de cette autonomisation. Puis, nous avons, insensiblement, délégué l'autonomie aux machines, de sorte que nous risquons de nous découvrir aliénés par elles. Mon propos est évidemment schématique, mais c'est bien cela qui traverse l'imaginaire qui entoure les innovations technoscientifiques, dont les ingénieurs, les industriels, et les politiques, sont les avocats spontanés.

Le rapport de l'OCDE du 30 octobre 2017, que vous avez peut-être lu, doit nous inquiéter, pas tellement parce qu'il annonce que seulement 13 % des gens qui travaillent utilisent leurs compétences de manière plus efficace que l'intelligence artificielle, mais parce qu'il n'envisage aucune perspective pour les 87 % qui sont déjà dépassés par les performances technologiques. Le sentiment de l'urgence à réagir, notamment en adaptant l'éducation, est de plus en plus supplanté par un fatalisme désolant. On entend dire partout que l'on n'y peut rien, que l'accélération des techniques est incontournable, qu'il faut essayer de suivre le mouvement, d'être compétitifs, etc. La représentation que nous sommes conduits à nous faire de nous-mêmes est profondément dégradée. Nous ne sommes plus aux commandes, et ne sommes que des boîtes noires, ou de simples supports de données traitées par les méga-machines, par les GAFAM (Google, Apple, Facebook, Amazon, et Microsoft). Nous appartenons même, selon certains, à une espèce ratée, inachevée, et appelée à céder la place aux machines, ou à un post humain. Je me situe, encore une fois, au niveau de l'imaginaire, du fantasme, mais qui conditionnent l'acceptabilité par le public de ce que nous lui proposons.

Qu'objecter à ce désenchantement des esprits ? D'où pourraient surgir des résistances aux recherches et aux pouvoirs qui les promeuvent ? L'intelligence artificielle rend des services incontestables, je le sais. Ceci est évident, par exemple dans le secteur de la santé. Mais elle doit rester un outil, et ne pas devenir l'équivalent d'une conception du monde. Un travail philosophique doit, pour ce faire, accompagner l'évolution des recherches. L'intelligence artificielle relève d'une conception qui réduit l'intelligence au calcul. Il convient de valoriser d'autres conceptions de l'intelligence, celle, par exemple, qui consistent à soutenir qu'être intelligent, c'est savoir refuser les automatismes de l'instinct. Résister aux machines : voilà où se situe la spécificité de l'intelligence humaine. L'éducation doit se pénétrer de cette vieille idée humaniste. L'intelligence artificielle ne fait pas droit au langage et aux signes, qui constituent les cultures, mais recourt à des systèmes de signaux, réfractaires au régime de conversation des humains. Il faut veiller à préserver le langage des objectifs de transparence qui sont ceux de l'intelligence artificielle. La fonction symbolique est l'atout majeur des humains. Elle est satisfaite par la littérature. Il faut donc développer l'enseignement de la littérature, qui offre de l'humain un visage complexe, irréductible aux simplifications que les machines voudraient lui imposer.

Enfin, la prétention de redéfinir l'humain, affichée par certains « technoprophètes » - je songe là au roboticien japonais Hiroshi Ishiguro, qui entend contribuer à une redéfinition de l'humain -, exprime une tentation totalitaire, dont il ne faut pas minimiser la portée sur les esprits contemporains, en particulier sur l'esprit des jeunes.

Aucun commentaire n'a encore été formulé sur cette intervention.

Inscription
ou
Connexion