Magazine DSI

Pourquoi la France a renoncé aux SALA

Il y a aura bientôt dix ans, le rapport « Losing Humanity » de Human Rights Watch lançait le début d’une grande campagne ayant pour but l’interdiction préventive des « robots tueurs » ou Systèmes d’armes létaux autonomes (SALA). Très rapidement, la France saisissait la balle au bond et prenait l’initiative d’une négociation internationale sur la question dans le cadre de la CCAC (Convention sur l’emploi de certaines armes classiques). Dix ans plus tard, le traité tant attendu n’est pas encore signé, mais la réflexion a progressé sur deux points fondamentaux.

En premier lieu, un certain nombre de travaux ont permis d’avancer dans la définition des termes. Ce point est essentiel, car, si l’on ne sait pas de quoi il est question, il paraît difficile de construire un cadre juridique approprié. Un document est tout à fait essentiel à cet égard, le rapport rendu en avril 2021 par le Comité d’éthique de la défense. Pour lui, un SALA «  est programmé pour être capable de faire évoluer ses propres règles de fonctionnement concernant en particulier l’engagement de cibles, au-delà d’un cadre d’emploi fixé, et capable d’utiliser cette programmation pour calculer une décision en vue d’une action sans appréciation de situation par le commandement  ». En d’autres termes, un SALA est un système d’armes entièrement autonome, il n’est plus sous la responsabilité des acteurs militaires et son action est imprévisible. Malgré les confusions fréquentes, parfois volontairement entretenues, il résulte de cette définition et de l’état de la technique que les systèmes d’armes létaux entièrement autonomes n’existent pas à l’heure actuelle et n’existeront pas dans un horizon prévisible. Le SALA se distingue ainsi nettement d’autres systèmes d’armes existants ou à venir, qui demeurent sous le contrôle et la responsabilité des acteurs militaires qui les mettent en œuvre bien qu’ils intègrent des automatismes dans des fonctions de décision. On parlera dans ce cas de Systèmes d’armes intégrant de l’autonomie (SALIA), systèmes dont la caractéristique principale est de ne pas pouvoir outrepasser le cadre limité de la mission qui leur a été assignée.

La seconde avancée tient au renoncement de la France à l’utilisation des SALA. Tant la ministre des Armées que le président de la République ont déclaré leur opposition à des systèmes d’armes qui, du fait de leur entière autonomie et de leur imprévisibilité, seraient sans intérêt opérationnel, rompraient la chaîne du commandement, transgresseraient les principes fondamentaux du droit humanitaire et seraient incompatibles avec l’éthique des soldats français. La France ne mettra donc pas en œuvre ce type d’armes et elle est favorable à leur interdiction totale. À l’inverse, l’intégration d’un certain degré d’autonomie dans les systèmes d’armes apparaît comme une condition nécessaire du maintien de la France dans le camp des puissances militaires qui comptent. Cela ne revient pas à dire que ces SALIA ne présentent aucun risque à l’égard des équilibres du droit international humanitaire ou du droit des conflits armés. Il revient donc aux États qui comptent développer des armes nouvelles de ce type de s’assurer qu’elles seront bien en mesure de respecter les principes d’humanité, notamment la distinction entre combattants et non-­combattants, la proportionnalité des attaques ou l’absence de maux superflus.

En conclusion, l’intégration d’automatismes dans les systèmes d’armes doit donner aux forces armées les moyens de développer leurs capacités et leur masse (notamment dans la perspective de guerres de haute intensité), d’enrichir la connaissance des situations et d’accélérer la prise de décision, de préserver les hommes lorsqu’il est possible de les éloigner du combat en leur substituant des robots. Elle ne doit pas faire perdre aux chefs militaires le contrôle de l’emploi de la force ni rendre imprévisible une machine qui n’aurait dès lors plus de sens opérationnel, stratégique ou politique. Le développement de la technologie doit donc se faire sous un triple contrôle : lutter contre une déshumanisation éventuelle en s’appuyant sur le respect et l’application du droit positif (le droit international humanitaire en premier lieu), en responsabilisant l’ensemble des acteurs (politiques, militaires, industriels, scientifiques) et en équilibrant le principe de précaution et la nécessité de l’innovation.

Légende de la photo ci-dessus : Comme les drones en leur temps, les intelligences artificielles nourrissent les fantasmes – pour partie du fait de l’action de groupes militants, mais plus largement d’une ignorance quant à l’état de l’art des technologies militaires. (© US Air Force)

Article paru dans la revue DSI n°157, « Ukraine : prête à combattre ? », Janvier-Février 2022.
0
Votre panier