Magazine DSI HS

IA de combat : Saker entre en scène

Si les commentateurs ne manqueront certainement pas d’y voir un premier vrai système de ciblage et de combat par l’IA, ses usages sont fondamentalement diversifiés. Le premier n’est d’ailleurs pas tant la frappe que la reconnaissance : envoyé pour explorer une zone donnée, il peut cartographier les positions de véhicules ennemis, avec une injection directe de données déjà traitées dans le système de commandement Delta des forces ukrainiennes. Il intervient donc sur le plan tactique et/ou opératif, en tant qu’aide au commandement. Un deuxième usage consiste à appuyer les unités dotées de drones FPV (First person view) : le Saker Scout assure ainsi une détection et une localisation au profit des opérateurs de drones, sur le plan microtactique, donc. C’est également le cas pour un autre drone ukrainien, l’Autel Evo Max 4T, un quadcopter de surveillance doté d’une IA de détection automatique dont 2 000 exemplaires ont été livrés début octobre 2023 aux forces ukrainiennes – qui apparaissent de facto en pointe sur les usages militaires de l’IA.

Ces usages du Saker Scout pourraient d’ailleurs être plus significatifs pour la conduite des opérations que ses capacités de frappe automatique. Cette option est également envisageable, le drone pouvant être utilisé pour le largage de charges explosives, comme les grenades antichars RKG (5). Mais la méthode retenue pour le ciblage et le traitement autonome des cibles a ses limites : les forces ukrainiennes et russes disposent de matériels communs (chars, artillerie, système de défense aérienne) et l’engagement ne peut donc se faire que dans une « kill box » bien déterminée. De ce fait, le système est politiquement et éthiquement moins problématique qu’il n’en a l’air : cadrer le Saker pour frapper des chars et être certain qu’il ne gaspillera pas ses munitions contre un Bukhanka (6) ou qu’il restera dans sa zone d’action implique une main humaine, certes pas durant la mission, mais auparavant. En ce sens, le système ne peut pas être « autonome » : il ne définit pas quelles sont ses cibles, ni quelles sont les règles d’engagement, il ne définit donc pas ses propres lois.

Le Saker Scout est destiné à encore évoluer – tout comme d’ailleurs les différents systèmes basés sur l’IA utilisés par les forces ukrainiennes. Pour l’heure, les vidéos rendues publiques montrent une forte aptitude du système à la détection, avec une classification globalement pertinente, mais qui se limite à des catégorisations comme « blindé lourd », « blindé léger » ou « camion ». Si cela est en soi suffisant pour autoriser son engagement contre des cibles positionnées dans des kill zones prédéfinies, des questions, comme celles de la ré-­attaque d’objectifs déjà détruits, restent posées. En tout état de cause, au-­delà des goulets d’étranglement technique qui finiront par être dépassés, la question de la pertinence politique de l’usage d’IA ne semble pas se poser à l’Ukraine ; et on peut d’ailleurs s’interroger sur sa pertinence, d’une manière plus générale.

Disposer d’un système permettant de frapper automatiquement des cibles militaires de manière précise et en établissant un tri entre le pertinent et ce qui ne l’est pas pose moins de problèmes qu’une mine à action directionnelle où, quels que soient sa nature et son type, un véhicule qui passera devant son capteur (ou sur le câble l’actionnant) sera atteint par une charge creuse. De ce point de vue, le Saker Scout oblige à appréhender autrement la notion d’engagement et à dépasser une vision manichéiste de l’automatisme – dans un dilemme « bien/mal » qui ne prend pas en compte les nuances liées à la technique elle-­même – pour entrer dans le vif des questionnements sur les règles d’engagement et la définition de cibles pertinentes ; des aspects qui sont moins techniques que militaires – et donc bien plus politiques que ce que certains peuvent en dire (7).

À bien des égards, il y a urgence à penser ces actions de combat automatisées raisonnées par la doctrine, y compris en termes de programmation des IA : tôt ou tard, un acteur adverse s’engagera lui aussi dans cette voie. Il faudra alors disposer de systèmes capables de comprendre ces algorithmes, d’interférer avec eux pour les dégrader ou les rendre inopérants, mais aussi de réponses tactiques à opposer… En d’autres termes, une étude plus approfondie et à finalité opérationnelle des IA de combat sera nécessaire.

Notes

(1) Voir notamment Philippe Langloit, « Le SALA vaut-il mieux que le “robot-tueur” ? Voyage au cœur de l’autonomie », Défense & Sécurité Internationale, hors-série no 81, décembre 2021-janvier 2022.

(2) Sur le Brimstone : Jean-Jacques Mercier, « Brimstone : l’âge de raison ? », Défense & Sécurité Internationale, hors-série no 87, décembre 2022-janvier 2023.

(3) Sur ces méthodes, voir le hors-série de Défense & Sécurité Internationale consacré à l’intelligence artificielle.

(4) David Hambling, « Ukraine AI drone seeks, attack Russian forces without human oversight », forbes​.com, 17 octobre 2023.

(5) Jean-Jacques Mercier, « Mines, munitions improvisées et drones : l’Ukraine comme laboratoire », Défense & Sécurité Internationale, hors-série no 84, juin-juillet 2022.

(6) Sorte de camionnette produite par UAZ et semblable au célèbre van de Volkswagen.

(7) Joseph Henrotin, « Le robot tueur : enjeux stratégiques d’une invisibilisation techno-scientifique », Défense & Sécurité Internationale, hors-série no 81, décembre 2021-janvier 2022.

Légende de la photo en première page : De prime abord, le Saker Scout ne se distingue pas d’autres drones quadcopter. (© Saker)

Article paru dans la revue DSI hors-série n°93, « Technologies militaires 2024 », Décembre 2023-Janvier 2024.
0
Votre panier