Intervention de Jean-Pierre Leleux

Réunion du 2 octobre 2019 à 15h00
Intelligence artificielle — Débat interactif

Photo de Jean-Pierre LeleuxJean-Pierre Leleux :

Le rapport d’avril 2018 de notre collègue député Cédric Villani a largement ouvert le débat public et politique, sur l’urgence qu’il y a, en France et en Europe, à amplifier considérablement les moyens et le soutien au développement de la recherche dans le domaine de l’intelligence artificielle. Il s’agit, vous l’avez dit, d’un enjeu majeur pour notre indépendance et notre souveraineté futures.

Cédric Villani tente de nous convaincre qu’il n’est pas trop tard pour entrer dans le jeu de la compétition mondiale ; j’en accepte l’augure, et je me félicite des moyens, même s’ils restent insuffisants, débloqués par le Président de la République – un milliard et demi d’euros – pour mettre un coup de pression et encourager le développement de l’intelligence artificielle en France et en Europe.

Les questions qui se posent sont évidemment très nombreuses ; j’isolerai trois aspects : éthique, juridique et culturel.

Bien sûr, le rapport a cherché à proposer, avec humilité, est-il précisé, les fondements d’un cadre éthique pour le développement de l’intelligence artificielle et du débat dans la société. Quand nous parlons d’éthique ou de valeurs, chez nous, nous nous appuyons sur l’histoire culturelle française et européenne, et nous avons tendance à penser que ces valeurs sont universelles. C’est évidemment loin d’être le cas ; les valeurs ne sont pas du tout les mêmes en Europe, aux États-Unis et encore moins en Chine.

Déjà, des voix s’élèvent pour affirmer que, si nous sommes trop rigides dans notre conception de l’éthique et des valeurs, cela bridera les initiatives des chercheurs, et nous courons alors le risque de prendre un retard concurrentiel, sur le plan technique, par rapport à d’autres pays.

Comment définir, selon vous, les bornes de l’acceptable, voire de l’exigence de notre éthique ? Comment trouver, dans un contexte de concurrence scientifique mondialisée, l’équilibre entre, d’une part, le respect de notre éthique et, d’autre part, l’avancée scientifique de pays qui n’ont pas la même interprétation des valeurs que nous ?

Ma deuxième question concerne l’accompagnement juridique de l’intelligence artificielle, et tout particulièrement celui de la responsabilité civile et morale des actes provoqués par l’algorithme. Jusqu’où faire confiance à la décision du matériel porteur de ces algorithmes ? N’y a-t-il pas des domaines qui comportent des limites, au-delà desquelles la décision humaine doit reprendre la main ou le relais de la décision ?

Aucun commentaire n'a encore été formulé sur cette intervention.

Inscription
ou
Connexion