Mme Joëlle Garriaud-Maylam interroge M. le ministre de la défense quant à la doctrine française en matière d'armes totalement autonomes, également surnommées « robots tueurs ».
Ces armes n'existent pas encore, mais plusieurs armées seraient en train d'en mettre au point ou se seraient déjà dotées d'engins précurseurs, illustrant la tendance au recours à des machines de plus en plus autonomes sur le champ de bataille. Le développement de tels armements soulève un certain nombre de questions sur le plan éthique et juridique : ces robots sont par nature dénués des qualités humaines entrant en jeu dans la prise de décisions militaires. Outre la difficulté à prévenir les violations du droit international humanitaire, des armes totalement autonomes rendraient aussi plus difficile l'identification d'une responsabilité juridique en cas de crime de guerre.
En novembre 2012, Human Rights Watch, International Human Rights Clinic et les prix Nobel de la paix de la Nobel Women's Initiative ont à la fois réclamé l'élaboration d'un traité international qui interdirait formellement la mise au point, la production et l'utilisation d'armes complètement autonomes et appelé individuellement les États à édicter des lois et à adopter des politiques visant à empêcher la mise au point, la production et l'utilisation de telles armes à l'échelon national.
Elle souhaiterait savoir si la France prévoit de s'impliquer dans une réflexion et une action sur ce thème. Suite au rôle pionnier joué par notre pays dans l'élaboration et la progressive universalisation des accords d'Oslo sur les armes à sous-munitions, il semblerait en effet particulièrement opportun de s'engager de manière la plus précoce possible sur cette thématique émergente.
Les forces armées françaises ne possèdent pas et ne prévoient pas de se doter de systèmes d'armes robotisés à capacité d'ouverture de feu autonome. En effet, les concepts d'emploi adoptés par la France requièrent une pleine responsabilité du militaire dans la décision de recourir à l'usage des armes. Par ailleurs, si un nombre croissant de fonctionnalités de systèmes d'armes militaires, par leur automatisation, voire leur autonomie, peut permettre de mieux respecter les principes de proportionnalité et de discrimination prévus par le droit international humanitaire (DIH) et de préserver de nombreuses vies, la France considère que ce type d'armes n'offre toutefois pas de garanties absolues au regard de l'ensemble des règles du DIH et continuent, par conséquent, de soulever des questions d'ordre éthique. Aussi, les enjeux éthiques, juridiques et sociétaux que pose la robotique dans ses usages militaires, mais également civils, sont discutés très en amont et de manière critique et responsable au sein du ministère de la défense. En effet, depuis plus de trois ans, le programme de colloques « robotisation du champ de bataille » du centre de recherche des écoles de Saint-Cyr Coëtquidan et les initiatives du pôle éthique de la direction des affaires stratégiques ont permis d'inscrire activement la France dans la réflexion menée à l'échelon international autour de ces sujets fondamentaux. Par ailleurs, si ces questions venaient à être portées dans une enceinte multilatérale, la France privilégierait le cadre onusien de la Convention de 1980 sur certaines armes classiques, adoptée à Genève le 10 octobre 1980 par la Conférence des Nations Unies, qui vise à réduire les souffrances humaines en établissant un cadre normatif permettant de mieux contrôler l'utilisation de certains matériels spécifiques. C'est en effet, selon la France, le seul forum de désarmement conventionnel capable de rassembler tous les acteurs militaires et industriels et d'assurer ainsi l'universalité d'un éventuel nouvel instrument de droit international, contrairement à la convention d'Ottawa, relative aux mines antipersonnel, et celle d'Oslo, traitant des armes à sous-munitions, auxquelles les plus grandes puissances militaires (États-Unis, Russie, Chine, Inde, Pakistan, Israël...) ne sont pas parties.
Aucun commentaire n'a encore été formulé sur cette question.