Monsieur le président, monsieur le ministre, mes chers collègues, le développement exponentiel de la technologie signifie-t-il la fin programmée de l'humanité, telle que nous la connaissons ?
Sans être aussi pessimiste, on peut être inquiet des menaces que l'intelligence artificielle générative fait peser, avec l'automatisation croissante, sur l'emploi dans tous les secteurs, sur l'éducation et la création, ainsi que sur nos modèles sociaux, politiques et démocratiques, notamment par de possibles abus en matière de désinformation, de manipulation des opinions ou de contrôle des individus.
Si la presse se fait, jour après jour, l'écho des nouvelles prouesses de ChatGPT, des pays comme l'Italie ou le Canada l'ont interdit, tout comme d'autres ont banni TikTok.
Faut-il mettre en pause la recherche sur l'intelligence artificielle, comme l'ont demandé Elon Musk et un millier de scientifiques ? Peut-être, mais ne soyons pas dupes : au-delà des considérations éthiques, il y a là pour le dirigeant de SpaceX et de Twitter une occasion de régler ses comptes avec OpenAI dans la course effrénée à laquelle se livrent les entreprises pour la captation du marché.
Faut-il de la régulation et une intervention des pouvoirs publics pour mieux encadrer ces futures applications ? Assurément. Je le demande depuis dix ans, rapport après rapport, car je mesure la puissance transformatrice des nouvelles technologies, mais aussi leurs effets incertains et potentiellement dangereux sur la mise en réseau du monde.
En matière de régulation, après le règlement général sur la protection des données (RGPD), l'Europe légifère de nouveau, avec le Digital Markets Act (DMA), le Digital Services Act (DSA), puis la proposition de règlement sur l'intelligence artificielle en cours d'examen.
Rapporteure de ce dernier texte pour notre commission des affaires européennes, avec André Gattolin, Cyril Pellevat et Elsa Schalck, et co-auteure à ce titre d'une proposition de résolution européenne, je veux en souligner le caractère précurseur, l'Europe étant la première à se doter d'un cadre juridique en la matière.
Cependant, si son approche par le risque est pertinente, cette proposition de règlement ne résout pas, hélas, les questions éthiques que posent les algorithmes gourmands de nos données et les modèles économiques qui les sous-tendent.
Comme je le réclamais pour le DSA, il faut exiger la transparence absolue, des audits indépendants et, tant avant la mise sur le marché d'une application ou d'un logiciel que tout au long de leur cycle de vie, une évaluation des possibles effets dangereux, en somme un safety by design.
Je n'ai pas le temps d'évoquer en détail à cette tribune les mesures que nous avons suggérées pour hisser la proposition de règlement à un haut niveau de protection et pallier certaines lacunes. Nous avons pris en considération, comme l'a rappelé André Gattolin, les risques de l'intelligence artificielle, mais également les progrès fulgurants qu'elle rend possibles. Elle n'est en effet ni positive ni négative : en réalité, sa valeur dépend intrinsèquement de l'usage qui en est fait.
L'intelligence artificielle peut nous aider à résoudre des questions environnementales, de santé, de productivité, toutes questions stratégiques ; d'où la nécessité, pour l'Europe, de soutenir l'innovation !
Or par manque de stratégie industrielle ces dernières années, l'Europe a été largement distancée par les États-Unis et la Chine, car ces États ont massivement investi dans la recherche et le développement de leurs propres entreprises, qui dominent aujourd'hui le monde.
Si l'Europe ne veut pas totalement disparaître de la carte des technologies de demain, monsieur le ministre, elle doit se réveiller et sortir de ces dépendances dangereuses.
Avec l'Inflation Reduction Act, les États-Unis vont investir près de 348 milliards de dollars. On en est loin en Europe ! Il nous faut pourtant un minimum d'investissements dans l'intelligence artificielle, dans le cloud et dans les réseaux, ce qui n'est pas vraiment prévu dans la boussole numérique pour 2030, qui est censée constituer le plan d'action de l'Union en la matière.
Il faut donc une réglementation exigeante, mais aussi une formation et une information de tous, pour ne pas se laisser dominer par une élite technologique seule capable de décider de notre avenir, ainsi qu'un investissement dans la recherche et un soutien assumé à notre écosystème européen, grâce à un Buy European Act : tel est le triptyque pour lequel je ne cesse de plaider.
La maîtrise des technologies les plus avancées est devenue un enjeu géopolitique. Cette approche n'est donc pas du protectionnisme ; c'est la seule manière de promouvoir un monde fondé sur nos valeurs fondamentales, un monde qui n'exprime ni le modèle business above all de la big tech – le profit avant la sécurité – ni le modèle du contrôle social par le parti communiste chinois.
L'Europe doit aussi peser dans les instances mondiales où s'élaborent les protocoles et les standards. Elle doit peser, monsieur le ministre, dans l'élaboration du Pacte numérique mondial proposé par les Nations unies pour 2024.
Ce cadre d'engagement universel, au sujet duquel j'ai défendu, au nom de l'Assemblée parlementaire de la francophonie (APF), un rapport devant l'Organisation internationale de la francophonie (OIF), doit absolument comprendre des mesures claires en faveur d'une intelligence artificielle qui soit au service de l'humain, fiable et éthique. Il y a là un enjeu de civilisation.