Intelligence artificielle et robots militaires

Conceptuellement, la doctrine française a donc fait le choix de parler d’automatisme, qui s’appuie bien entendu sur de l’IA. Néanmoins, pour des raisons de communication, il a été nécessaire de faire référence à des systèmes semi-­autonomes et pleinement autonomes, cette terminologie étant largement utilisée dans les médias, les organisations non gouvernementales et les instances internationales (ONU, UE) alors même qu’il n’y a pas de définitions agréées et partagées sur ces concepts.

Le recours à l’IA et à des moyens matériels de plus en plus automatisés est nécessaire pour de nombreuses raisons. On retiendra surtout que le modèle d’armée française repose à ce jour sur un nombre « relativement » limité d’hommes : pour être à la hauteur de leurs missions sur le territoire national ou à l’extérieur, les armées doivent donc compenser par un recours à des moyens matériels de plus en plus automatisés et de haute technologie. En clair, si demain l’emploi de l’IA devait être limité, il faudrait envisager de revoir à la hausse le modèle d’armée actuel ou de revoir à la baisse ses missions. Dans ce contexte, que dit la doctrine ?
• Les systèmes automatisés peuvent être supervisés, semi-­autonomes ou pleinement autonomes.
• Les systèmes semi-­autonomes sont subordonnés à la chaîne de commandement qui garde la responsabilité de l’emploi de ces systèmes.
• Les systèmes pleinement autonomes ne sont pas subordonnés à une chaîne de commandement et sont capables entre autres de redéfinir leur cadre d’emploi (règles, mission…). Outre le fait que ces systèmes n’existent pas, il n’y a pas à ce jour de concept d’emploi identifié associé à ce type de système dans les armées conventionnelles respectueuses du droit international.

Pour la doctrine interarmées, le commandement est responsable de la décision de l’emploi des systèmes en tout temps et en tout lieu, ces derniers devant rester subordonnés à l’homme. Par ailleurs, le droit international humanitaire reste applicable.

Le respect du droit international humanitaire

Le droit international humanitaire, qui s’est fixé pour objectif de limiter les effets des guerres sur les populations civiles, repose sur quatre grands principes : humanité, nécessité, distinction et proportionnalité. Les débats à l’ONU en matière de SALA (Systèmes d’Armes Létaux Autonomes) font apparaître trois grands types d’arguments :
• le premier, soutenu par les ONG, développe l’idée que la robotisation, grâce à laquelle l’homme ne risque plus nécessairement sa vie, baisse le seuil d’engagement des armées. Celles-ci, ne risquant rien, seraient alors plus susceptibles d’employer la force ;
• le deuxième argument, qui commence à être développé notamment par les États-Unis, postule que la robotisation est de nature à garantir un meilleur respect du droit international humanitaire. En effet, la robotisation constitue une nouvelle alternative dans la panoplie du décideur qui peut se révéler, dans des scénarios particuliers, une option tout à fait intéressante. Dans des combats de haute intensité en zone urbaine, par exemple, des systèmes automatisés performants feraient probablement plus de place à la distinction et à l’action chirurgicale que des combats rapprochés où des civils peuvent être utilisés en bouclier humain.

À titre d’illustration sur l’ampleur des enjeux, on peut se reporter à la libération de Mossoul par les forces irakiennes en 2017. Les résultats sont édifiants : plusieurs milliers de civils pris en otages et tués, victimes de l’État islamique, mais aussi des bombardements et de la coalition, une ville détruite dont la reconstruction coûtera plusieurs milliards de dollars, sans compter les pertes de l’ordre de 30 % dans la « Golden Division », la division d’élite de l’armée irakienne ;
• le dernier argument alimentant les débats sur les SALA est lié au devoir d’efficience des armées qui doivent pouvoir mener leurs actions et défendre le droit. Cette nécessité entraîne le devoir de s’armer des technologies les plus efficientes.

Force est de constater que l’ensemble des arguments, qu’ils soient en faveur ou en défaveur des SALA, sont recevables. Dans ces conditions, il n’est pas évident qu’un nouveau droit international naisse des travaux sur les SALA.

Les pays les plus influents (et les plus concernés) verraient certainement d’un mauvais œil une limitation de leur capacité opérationnelle alors même que les technologies de l’automatisation et de la robotisation font apparaître des gains de performances inégalés. Au regard des éléments précédents, on conçoit que, à court et à moyen termes, les systèmes seront de plus en plus automatisés, subordonnés à une chaîne de commandement et régis par les seules règles qui leur ont été données par le commandement.

Conclusions

L’intelligence et l’autonomie de décision sont le propre de l’homme et du vivant. L’association du qualificatif « autonome » à des technologies informatiques est à ce jour un contresens, de même que tout programmeur sait bien qu’une machine ne décide pas et ne fait qu’exécuter une suite d’instructions informatiques. Affirmer que la machine « décide » concourt principalement à nier la responsabilité de l’homme dans la programmation informatique.

Nous avons commis collectivement (le monde scientifique, le monde industriel, les médias…) l’erreur d’un choix sémantique et terminologique prêtant à confusion en calquant sur le monde matériel des caractéristiques du monde du vivant : apprentissage, intelligence, autonomie… Nous devons désormais en assumer les conséquences et gérer les fantasmes que ces choix génèrent, car nous nous retrouvons désormais dans la situation d’un enfant à qui on a raconté l’histoire du docteur Frankenstein et dont on s’étonne qu’il fasse des cauchemars.

Il devient de plus en plus indispensable que les « sachants » affirment que tant qu’il ne s’agira que d’intelligence artificielle faible (et tout porte à croire que l’IA forte pourrait n’être qu’une utopie), basée sur des automatismes et des algorithmes, l’homme restera responsable de son œuvre et maître de son destin. Un « gendarme de l’intelligence artificielle » et des comités d’éthique seront néanmoins probablement nécessaires pour accompagner les transformations sociétales profondes à venir.

Quant au monde militaire, il n’échappe pas aux besoins de clarification terminologique, d’évolution des concepts opérationnels et d’élaboration de principes éthiques inhérents à toute nouvelle technologie. Mais surtout, il lui revient de réaffirmer la place de l’homme dans l’utilisation de la technologie, cette dernière devant lui rester subordonnée.

Les éléments ci-dessus n’engagent que leur auteur.

Notes

(1) Reaper : drone aérien américain longue endurance à des fins d’observation et pouvant être armé. Les Reaper français achetés initialement n’étaient pas armables.

(2) Concept exploratoire interarmées : CEIA 3.0.2_I.A.&SYST-AUT(2018) N°75/ARM/CICDE/NP du 19 juillet 2018.

Légende de la photo : l’État islamique a militarisé des drones commerciaux, mais a également développé les siens dans une logique proto-industrielle. (© Yana Mavlyutova/Shutterstock)

Article paru dans la revue DSI hors-série n°65, « Intelligence artificielle – Vers une révolution militaire ? », avril-mai 2019.

Bienvenue sur Areion24.news.
Ce site regroupe une sélection d'articles et d'entretiens rédigés par des spécialistes des questions internationales et stratégiques (chercheurs, universitaires, etc.) et publiés dans les magazines Diplomatie, Carto, Moyen-Orient et DSI.

Dans notre boutique

at quis venenatis, suscipit odio eleifend ut felis Sed Phasellus risus sem,
Votre panier
Areion24.news

GRATUIT
VOIR