Intervention de Julien Chiaroni

Office parlementaire d'évaluation des choix scientifiques et technologiques — Réunion du 16 novembre 2017 à 9h30
Audition ouverte à la presse sur « les algorithmes au service de l'action publique : le cas du portail admission post-bac apb »

Julien Chiaroni, Laboratoire d'intégration de systèmes et des technologies (LIST), CEA Tech :

Je suis tout à fait d'accord avec vous, et allais justement souligner ce point. Nous travaillons beaucoup sur les aspects de vidéosurveillance, pour la sécurité des citoyens. Il faut savoir qu'il existe des champions français dans ce domaine, par exemple Thalès, pour n'en citer qu'un. Le CEA travaille également, dans le secteur des supercalculateurs, en étroite collaboration avec les équipes de Bull-Atos. Je pense qu'il existe un véritable enjeu de sécurité et de défense, autour des aspects informatiques algorithmiques.

Il est important d'insister sur la croissance forte de la quantité d'informations, mais aussi de désinformation, disponible. Il faut donc savoir développer des acteurs et des compétences capables de passer d'une information hétérogène, à une information homogène et exploitable. Dans ce domaine, les acteurs français sont très peu présents au niveau industriel. Or, il existe dans ce secteur un véritable enjeu en termes de veille, d'intelligence économique, ou d'autres sujets relatifs à la défense.

J'insiste également sur le point de la cyber-sécurité, évoquée précédemment par le professeur Gérard Berry, en ajoutant simplement l'exemple des objets connectés, qui sont partout, et ont tous été disséminés sans critères de sécurisation, autant matérielle que logicielle. Les statistiques indiquent une croissance des objets connectés de 15 % à 30 % sur les prochaines années, pour atteindre, selon les estimations prospectives, un nombre situé entre 18 et 50 milliards. Ceci présente un risque. Récemment, a ainsi eu lieu une attaque de déni de service sur la société Dyn, qui s'occupe, aux États-Unis, du reroutage sur les différentes plateformes. Un problème de cyber-sécurité a aussi affecté des seringues automatiques, depuis retirées du marché américain. La maîtrise de ces technologies clés, notamment des technologies d'intelligence artificielle, et le fait de disposer des filières adéquates, sont des enjeux majeurs pour être - je cite ici Jean-Yves Le Drian, alors ministre de la défense - « au rendez-vous des défis qui s'annoncent et auxquels nos principaux partenaires se préparent ».

Je souhaite revenir, en quelques mots, sur les aspects relatifs à la transparence et à l'éthique, en faisant notamment mention, concernant la transparence, de l'initiative « TransAlgo », portée par l'INRIA. Il existe également un aspect de vie privée puisque, pour les outils d'apprentissage machines, les données et les ressources de calcul sont fondamentales, ce qui explique que de plus en plus de données soient captées. On constate deux tendances dans ce domaine : soit l'on ouvre les données, et l'on crée de la valeur par externalité positive, soit on choisit de protéger les données, pour protéger la vie privée des personnes. Dans ce dernier cas, le chiffrement, la réglementation et l'accompagnement de l'Agence nationale de la sécurité des systèmes d'information (ANSSI) sont des éléments fondamentaux. Des discussions européennes sont par ailleurs en cours à ce sujet, sur lesquelles j'aimerais attirer votre attention. Il faut savoir aussi que des solutions se développent dans ce domaine, comme la cryptographie homomorphique, qui permettent de ne jamais décrypter les données. Il s'agit d'éléments clés, par exemple pour des applications touchant au génome.

Les aspects de garantie et de confiance constituent enfin des points centraux. L'appropriation des algorithmes nécessite la confiance des citoyens, qui ne peut être obtenue qu'en apportant une garantie de fonctionnement, voire une certification des systèmes, notamment des systèmes critiques. Ce sujet est fondamental pour les algorithmes d'intelligence artificielle et d'apprentissage automatique (machine learning). Or, il n'existe quasiment rien dans le domaine de la recherche sur ce sujet. Tout reste à faire. Demain, des intelligences artificielles vont être embarquées dans des avions ou des voitures, sans que l'on soit capable d'apporter la moindre certification.

Je conclurai en rappelant que ce sujet fait partie de l'ADN du CEA. Nous avons, en effet, beaucoup travaillé sur la sécurité et la sûreté des systèmes, qui constituent l'un de nos savoir-faire historiques. Nous disposons ainsi de stratégies pour l'adosser, et je pense qu'un soutien des pouvoirs publics dans ce domaine serait fondamental, non seulement pour le citoyen, mais aussi comme élément de compétitivité pour notre économie, au niveau européen. On observe que de plus en plus de publications sont consacrées à la manière de tromper très simplement des intelligences artificielles. La compréhension de ces éléments, et la manière dont on valide les intelligences artificielles, sont donc des aspects déterminants pour l'avenir, et pour l'implémentation. Ceci avait d'ailleurs conduit, voici une vingtaine d'années, à leur abandon.

Il s'agit d'un véritable défi pour la France et pour la recherche. Finalement, la métrologie du numérique, dans laquelle j'englobe les aspects de confiance, de garantie et de certification, semble représenter un élément déterminant. J'effectuerai une analogie avec la métrologie de la dose, sur laquelle nous travaillons également beaucoup, avec les équipes du Laboratoire national de métrologie et d'essais (LNE) : peut-être une telle approche, transposée dans le domaine de l'intelligence artificielle, serait-elle intéressante ?

Aucun commentaire n'a encore été formulé sur cette intervention.

Inscription
ou
Connexion