Blog de Joseph HENROTIN Magazine DSI

Ultra smart nazi killbot slaughters mankind, boils kitten in acid

Il n’aura échappé à personne s’intéressant aux technologies militaires comme, plus généralement, aux dynamiques technologiques, que les années 2010 ont été celles de la mise à l’agenda des questions liées à l’Intelligence artificielle (IA). Elles coïncident avec une série de débats, liés à l’usage de la force (notamment en contre-terrorisme et plus largement en contre-irrégularité) comme aux drones. « L’alignement des planètes » est presque parfait : derrière la convergence entre drones/robotique et IA se pose la question du « robot-tueur ». Mais que cache une désignation plus techno-folklorique (1) qu’académiquement pertinente ? 

Il n’est pas ici question de revenir sur les débats autour des implications légales, éthiques ou même stratégiques autour de la question. Elle a généré un gros volume de littérature, ouvrages, monographies et articles – qu’ils soient académiques, de vulgarisation ou de presse – et il n’est évidemment pas question de les résumer ici. Non, plutôt, il s’agit ici de s’interroger sur l’émergence même du terme « robot tueur », d’où le titre de ce billet, qui fait référence au hashtag un tantinet moqueur que tant moi que Carl von C. utilisons sur Twitter.

Evidemment, la terminologie elle-même dit beaucoup. Le robot n’est par définition pas humain et le « tueur » a une connotation qui renvoie plus à l’assassin qu’au soldat entraîné maîtrisant sa force. Le terme est militant et sa trajectoire elle-même est intéressante. On la retrouve historiquement dans la littérature de science-fiction. En 1991 elle semble se retrouver pour une première fois dans la littérature académique/d’essais (Manuel DeLanda, War in the Age of Intelligent Machines, New York, Zone Books, 1991) avant l’ouvrage de 1997 de Richard G. Epstein, qui présentait une série de nouvelles destinées à nourrir la réflexion éthique sur l’autonomie.

Au tournant des années 2000, l’expression n’est que très marginalement employée dans le domaine des études stratégiques. Elle le sera surtout durant la deuxième moitié de la décennie, ce qui correspond à une plus grande utilisation de plus en plus importante des drones armés (2). Le terme connaît une institutionnalisation avec la mise en place de la Campaign to Stop Killer Robots en 2013. Il se généralise alors dans bon nombre d’ONG (HRW a une page « killer robots », par exemple) mais aussi dans la littérature académique et en particulier les études dites critiques, en résonance avec l’apparition d’un véritable marché académique autour des drones. Le terme se propage d’autant plus rapidement qu’il peut être adossé à des représentations négatives d’une robotique hors de contrôle, notamment au travers d’oeuvres de fiction – à commencer évidemment par le sempiternel Terminator illustrant bon nombre d’articles de presse sur le sujet. 

De facto, le drone devient la « figure aérienne du mal » en jouant sur des peurs bien compréhensibles mais aussi un brouillage des catégorisations techniques et stratégiques, de même que sur un processus de disqualification de la prise en compte des facteurs techniques, à l’œuvre en particulier dans les études dites critiques – la fameuse critique de l' »expertise », auxquels certains opposent « recherche universitaire » (alors que les deux devraient partager les mêmes méthodes). J’y revenais notamment ici, plus spécifiquement sur le cas du drone et dans la foulée de l’ouvrage de G. Chamayou. On note d’ailleurs que la page web du bureau des affaires de désarmement de l’ONU consacrée aux SALA (Système d’Arme Létal Autonome) ne renvoie qu’à une littérature qui, faute d’inclure des travaux en études stratégiques, est spéculative.

Alors finalement, pourquoi ce terme serait-il inapproprié, alors même que le terme SALA (Système d’Arme Létal Autonome) est politiquement reconnu, aux Nations unies comme dans plusieurs Etats ? Si ce second terme a des connotations plus neutres, il interloque malgré tout. L’autonomie renvoie ainsi d’abord à une capacité maximaliste de production normative : être autonome, c’est définir ses propres règles. Or, bien évidemment, le robot ne le peut pas, d’une part, parce qu’il est le fruit d’une programmation qui est du fait de l’humain et d’autre part parce que, même dans des systèmes plus avancés impliquant différents processus d’apprentissage statistiques, l’algorithme de base est humain. Le robot est lui-même conçu pour une tâche ou un ensemble de tâches, il n’a pas, en tous cas jusqu’ici, la polyvalence potentielle qu’a un humain à sa naissance. Le risque évidemment est qu’à parler « robot tueur » mal à propos et sur une base fantasmatique, on passe à côté d’enjeux bien plus concrets liés à l’IA. C’est un voyage conceptuel qu’on avait notamment commencé avec ce numéro de DSI.

On y voyait notamment que ce qui est souvent qualifié « d’autonomie » n’est le plus souvent qu’une suite complexe d’automatismes. Or, force est de constater que la complexification des systèmes d’armes par l’introduction d’un nombre plus grand d’automatismes est une tendance historique mais, qui, du point de vue de l’indiscrimination des pertes civiles infligées, a sans doute déjà connu son paroxysme avec le missile balistique ou de croisière doté d’une charge nucléaire, en particulier lorsqu’il est doté de leurres. Plus largement, l’automatisation de fonctions avancées est au cœur de la deuxième stratégie d’offset (3). Elle trouve des applications aussi complexes que le système de combat Aegis et ses différentes itérations. En l’occurrence conçu pour faire face à une attaque de saturation de missiles antinavires soviétiques, le fait qu’il n’ait PAS été utilisé dans un environnement opérationnel aussi complexe que celui du Golfe persique en 1988 et alors que l’équipage du croiseur Vincennes n’était pas entraîné pour compenser a conduit à la destruction d’un Airbus d’Iran Air.

Sur quelle base objective se positionnent alors les auteurs utilisant le concept de « robot tueur » ? Le SGR-A1 sud-coréen est souvent évoqué mais en l’état, il s’agit d’un tourelleau téléopéré statique positionné face à la zone démilitarisée. Il n’est pas certain qu’il soit un jour basculé en mode « tir automatique » : cela renverrait à une guerre entre les deux pays, dans un contexte où la DMZ serait sans doute écrasée sous un gros volume de puissance de feu… Le blindé chenillé Uran-9, parfois présenté comme « robot tueur » n’est quant à lui que télécommandé… comme bon nombre de robots terrestres là aussi présentés abusivement comme des « robots tueurs », tels le Dogo. La nouveauté en termes d’automatisme réside surtout, en la matière, dans la fonction « follow me » utilisable pour des mules logistiques. 

Des systèmes de munitions rôdeuses ou de munitions aériennes peuvent disposer d’une capacité dite ATR (Automatic Target Recognition) ou ATA (Automatic Target Acquisition), encore qualifié de « pixel targeting »), mais le processus est, en fait, celui d’une comparaison avec une imagerie préalablement encodée. Elle est très loin d’être suffisamment sophistiquée pour s’en prendre à un homme en particulier (Edit du 21.01.2021 : ou de déterminer par elle-même une cible qui n’aurait pas été préalablement encodée et donc considérée comme légitime). Outre que rares sont les systèmes dotés d’une telle capacité, leur succès commercial est loin d’avoir été important. Le missile air-surface Brimstone a un mode ATA utilisable contre des blindés – que les pilotes britanniques ont rechigné à utiliser dans un désert libyen pourtant vide de civils – de même qu’un AGM-84K SLAM-ER… jusqu’ici très peu utilisé au combat et uniquement vendu à la Corée du Sud, en plus de l’US Navy. 

In fine, pourquoi le « robot tueur » ? Le plus beau hold-up sémantico-académique du siècle est d’abord le fruit d’une opération militante qui s’appuie sur un brouillage catégoriel ; une série de ressorts psychologiques ; et qui joue sur les déficits de culture scientifique. Elle n’est évidemment pas critiquable en soi mais elle fait passer outre de vraies questions – à commencer par celles, il est vrai moins « glamour » – liées aux processus de ciblage et de création des règles d’engagement et fait courir le risque d’un rejet en bloc de la robotique, alors que la complexité des débats techno-capacitaires appelle sans doute un peu plus de nuances.

(1) Joseph Henrotin, « Terminator, Uzi Makers Shootin’up Hollywood. Techno-folklore et aberrations technologiques », DSI HS n°75, décembre 2020-janvier 2021.

(2) Grégory Boutherin, « Les mouvements anti-drones. Naissance d’une campagne d’opposition aux systèmes opérés à distance », DSI n°81, mai 2012.

(3) Joseph Henrotin, « La troisième offset, les réseaux et la guerre au futur antérieur », DSI n°123, mai-juin 2016.

(Edit du 13.01.2021 : coquille sur la fonction du Brimstone)

0
Votre panier