Magazine DSI HS

Le robot tueur : Enjeux stratégiques d’une invisibilisation techno-scientifique

La note du GRIP sera suivie d’une autre, en mars 2021, intitulée « Robots tueurs : bientôt opérationnels ? (12) ». Là aussi, la télévision belge relaiera l’étude, avec un titre qui rendra sceptiques les spécialistes du domaine : « Les munitions rôdeuses, ces nouvelles armes intelligentes qui choisissent elles-mêmes leur cible (13) ». À l’article s’adjoindra un sujet télévisé. L’information donnée par le média belge se fait à sens unique, sans contrepoint, nuance, vérification ou recadrage par une mobilisation d’expertise. Le narratif adopté par le think tank est non seulement amplifié, mais aussi rendu plus radical. Interrogé sur le choix des terminologies utilisées, le journaliste répond : « Selon leurs fabricants, ces munrods ont la capacité de localiser et identifier leur cible. En mode autonome, ils décident, en fonction de leur mission, de leur algorithme et de leur perception de la situation, de déclencher ou non la frappe. En ce sens, ils choisissent leur cible(14) ».

La délivrance du narratif est d’autant plus aisée que la méthodologie adoptée par l’auteur comme par le journaliste est « d’aller plus loin en examinant les informations fournies par une demi-douzaine de producteurs d’armes autonomes(15) ». Or cette approche interpelle à plusieurs égards.

• D’une part, tout observateur sait qu’un industriel exagère naturellement : lequel n’a jamais dit que son système était le plus avancé au monde en dépit de l’existence d’une concurrence ? Sans entretien avec les utilisateurs pour examiner le déroulement précis d’une attaque, il est difficile de savoir quel est le degré exact d’autonomie d’un système. En l’occurrence, dans l’étude du GRIP, le quadricoptère STM Kargu-2 et le Mini Harpy sont présentés comme pleinement autonomes ou sur le point de l’être, et aptes à choisir leurs propres cibles – nous y reviendrons.

• D’autre part, les catégories de l’autonomie sont brouillées. Que ce soit volontairement ou non n’importe guère au vu du résultat sur la qualité des débats publics. Or, de quelle autonomie parle-t-on ? S’agit-il d’une reconnaissance de cible préencodée (Automatic target recognition), d’une acquisition de cible (ATA – Automatic target acquisition) sur la base d’un préencodage ou non, ou encore d’une aptitude à déterminer ce qui est une cible légitime et à l’engager ? En l’occurrence, tout fait farine au moulin du narratif du robot tueur, y compris le CLAWS – si secret que sa désignation complète n’est pas rendue publique – qui «  fournira des algorithmes permettant à toutes les familles [de sous-marins autonomes] de fonctionner dans des environnements complexes, dynamiques et dégradés(16) ». Or ces aspects sont liés à l’autonomie en matière de déplacements. S’il transporte 12 torpilles, ces dernières seraient mises en œuvre suivant un système… conceptuellement proche de la mine CAPTOR (17). Si jamais le système voit le jour, évidemment.

Le cas du Kargu-2 est intéressant, parce qu’il était cité en mai 2021 dans un rapport de l’ONU comme étant susceptible d’avoir attaqué des humains de sa propre initiative. L’information a été reprise par un article de New Scientist(18), connaissant une large diffusion. La narration s’emballe ensuite dans la presse généraliste : le conditionnel n’est plus de mise et le système est présenté comme étant bien un « robot tueur » ayant effectivement trouvé et engagé seul sa cible. Sur Korii par exemple, plus aucune précaution n’existe : « Pour la première fois, des drones ont abattu un homme sans aucun ordre humain.(19) »

De la vulnérabilité cognitive induite par les systèmes complexes

L’industriel finit par préciser qu’à moins qu’un opérateur n’appuie sur le bouton, il n’est pas possible pour le drone de sélectionner une cible et d’attaquer (20). L’assertion semble effectivement bien plus cohérente avec les vidéos et documents publiés par les forces turques, principales utilisatrices d’un système de petite taille et par ailleurs conçu pour être peu coûteux. Cela n’empêche cependant pas l’émission « Le dessous des cartes » d’Arte, le 30 octobre, de reprendre l’infaux, au conditionnel. De fait, il existe une réelle confusion quant aux technologies liées à l’intelligence artificielle, domaine qui évolue par ailleurs rapidement et dont la vulgarisation n’est pas instinctive. Certaines organisations militantes peuvent trouver dans la zone grise des savoirs un espace d’expression sur un marché des idées ayant une inclination naturelle pour les narratifs simplistes et spectaculaires. Il n’est pas impensable que ce soit également, à terme, le cas d’acteurs stratégiques cherchant à décrédibiliser leurs adversaires et ennemis sur une base morale dans le contexte de stratégies d’influence.

0
Votre panier