Monsieur le président, monsieur le ministre, mes chers collègues, depuis quelques mois, les intelligences artificielles sont au centre de l'actualité.
Qu'il s'agisse de logiciels conversationnels tels que ChatGPT ou Eliza, de modèles de génération d'images et de vidéos, ou encore d'auto-encodeurs, pas une semaine ne passe sans que l'on mette à la une les prouesses de ces nouvelles technologies pouvant produire des contenus de manière autonome, suscitant tour à tour admiration et inquiétudes.
En réalité, la très probable révolution industrielle que représentent les intelligences artificielles s'est amorcée il y a plusieurs années déjà. Nous en utilisons chaque jour sans le savoir. Au fil des mises à jour et de la collecte toujours plus massive de données, elles ne cessent de se perfectionner.
Si elles partagent des similitudes avec les intelligences artificielles plus traditionnelles, les IA génératives soulèvent des problèmes spécifiques, notamment en matière d'éthique, de désinformation, de protection des données, ou encore de productivité et d'impact sur les emplois.
Bien que des améliorations soient encore nécessaires pour qu'elles soient utilisables à une échelle industrielle, de nombreuses études montrent que leur éventuelle généralisation aura des impacts d'une ampleur inédite depuis l'arrivée de l'ordinateur.
Ainsi, une étude menée par OpenAI, Open Research et l'université de Pennsylvanie avance que 80 % de la main-d'œuvre américaine pourraient voir au moins 10 % de leurs tâches réalisées par une intelligence artificielle générative. Pour 19 % des travailleurs, 50 % de leurs tâches pourraient être prises en charge par ces nouvelles technologies, en particulier dans les domaines des services administratifs et juridiques, du management, des services financiers, du marketing, de la communication, ou encore du graphisme et de la conception.
D'après une autre étude de la banque Goldman Sachs, 300 millions d'emplois pourraient à terme être menacés, mais la productivité au travail pourrait progresser de 1, 5 point chaque année pendant dix ans, tandis que la hausse annuelle du PIB mondial pourrait atteindre 7 %, contre 2, 9 % prévus pour 2023 par le FMI.
Sans qu'il puisse être affirmé que certains métiers disparaîtront inévitablement, puisqu'un gain de productivité n'entraîne pas nécessairement la disparition d'un emploi, il est certain que le marché du travail sera bouleversé.
De même, de nouveaux métiers apparaîtront et compenseront probablement le nombre de postes supprimés. Si une étude du Forum économique mondial estime que 87 millions d'emplois seront remplacés par des intelligences artificielles, elle met en exergue que celles-ci permettront la création de 95 millions d'emplois.
Bien sûr, il ne s'agit à ce stade que de prévisions ; les effets de ces technologies sur le marché du travail devront de toute évidence être suivis de près, afin que nous puissions nous adapter à des conséquences imprévues de leur usage.
En outre, si la France veut profiter pleinement des externalités positives de l'intelligence artificielle générative, il ne faut pas qu'elle loupe le coche en matière d'innovation comme de formation à ces nouveaux métiers.
Les géants de la tech sont déjà dans les starting - blocks et, malgré l'existence de certaines start-up françaises prometteuses, notre pays et, plus largement, l'Europe font bien pâle figure face aux compagnies américaines et chinoises, qui investissent des milliards de dollars dans ces technologies.
Ma première question, monsieur le ministre, porte donc sur les moyens que le Gouvernement compte mettre en œuvre, pour, d'une part, soutenir l'innovation des entreprises françaises dans le domaine de l'intelligence artificielle, et, d'autre part, favoriser la formation à ces métiers d'avenir, ainsi que la reconversion pour les travailleurs dont l'emploi deviendrait obsolète.
Abordons désormais certains aspects de l'intelligence artificielle générative qui sont autrement moins réjouissants que la hausse de la productivité et que la création de nouveaux emplois.
Il apparaît en effet que des usages malveillants de ce type d'IA, ainsi que des erreurs du programme lui-même, peuvent avoir des conséquences dramatiques pour les libertés fondamentales, notamment le droit à la protection des données personnelles.
Les expériences de ces dernières semaines, voire de ces dernières années, nous prouvent que ces dangers sont réels : qu'il s'agisse du non-respect du RGPD par ChatGPT, du jeune homme poussé au suicide par le chatbot Eliza en Belgique, des images devenues virales du Président de la République et du pape, créées par intelligence artificielle, des deep fakes de personnalités publiques, du logiciel de recrutement d'Amazon qui s'est révélé discriminatoire envers les femmes, ou encore du scandale des allocations familiales aux Pays-Bas, où un algorithme d'auto-apprentissage ciblait les minorités et les accusait à tort de fraude, les exemples sont nombreux et se multiplient.
Que ces problèmes découlent d'une non-conformité du logiciel avec la réglementation, d'erreurs faites par l'intelligence artificielle ou d'usages sciemment malveillants qu'en font ses utilisateurs, il est nécessaire de trouver des solutions et de légiférer pour éviter ces effets de bord, sans pour autant interdire les intelligences artificielles génératives.
Il s'agirait en effet d'une grave erreur d'un point de vue économique, qui ferait une nouvelle fois perdre à la France du temps dans la course effrénée à l'innovation. Les entreprises développant des intelligences artificielles sont elles-mêmes en faveur de l'élaboration d'une réglementation, comme l'a récemment fait savoir OpenAI, car ce n'est qu'avec un cadre clair, assurant une sécurité juridique, que les potentialités économiques et sociétales de l'intelligence artificielle pourront pleinement se réaliser.
Le RGPD apporte un premier échelon de réponse en matière de protection des données utilisées par les intelligences artificielles, mais il n'est pas suffisant pour éviter l'ensemble des potentielles externalités négatives et peut, parfois, se révéler contre-productif en matière d'innovation, notamment parce que ce n'est qu'en traitant certaines données personnelles que les entreprises pourront lutter contre les biais de certains systèmes d'intelligence artificielle.
Des dérogations au RGPD devront donc être prévues, mais il faut qu'elles soient encadrées strictement pour nous prémunir de toute utilisation détournée de ces données sensibles, notamment à des fins commerciales.
Ces dangers réels ou prévisibles des IA et cette inadaptation du RGPD ont conduit l'Union européenne à se saisir de la question des intelligences artificielles au sens large, par le biais d'une proposition de règlement.
Avec mes collègues André Gattolin, Catherine Morin-Desailly et Elsa Schalk, dans le cadre des travaux de la commission des affaires européennes, j'ai été chargé d'élaborer une proposition de résolution européenne et un rapport relatif à ce règlement. Ce dernier est assurément un pas dans la bonne direction pour sécuriser les intelligences artificielles, mais mes corapporteurs et moi avons relevé certaines lacunes.
Faute de temps, je ne m'arrêterai pas sur chacune d'entre elles, mais je souhaiterais, monsieur le ministre, connaître la position du Gouvernement sur nos propositions, ainsi que les points principaux que vous souhaitez soutenir au Conseil au sein de ce règlement.
En outre, j'insiste sur l'absolue nécessité pour la France comme pour l'UE d'engager des discussions avec les pays tiers au sein des instances internationales de normalisation, pour les inviter à adopter des réglementations similaires. En effet, si nous sommes les seuls États à imposer des normes aussi ambitieuses, cela protégera certes les citoyens européens, mais cela pourrait nous désavantager d'un point de vue concurrentiel.
Aussi, monsieur le ministre, pourriez-vous m'indiquer si des échanges ont déjà été entamés avec d'autres pays, notamment les États-Unis et la Chine, afin de promouvoir l'élaboration de législations similaires dans ces États ?