Magazine DSI HS

Le robot tueur : Enjeux stratégiques d’une invisibilisation techno-scientifique

Les années 2010 ont vu la mise à l’agenda des questions liées à l’Intelligence artificielle (IA), qui a coïncidé avec une série de débats liés à l’usage de la force (notamment en contre-terrorisme et plus largement en contre-irrégularité), mais aussi aux drones. L’ « alignement des planètes » était presque parfait : derrière la convergence entre drones/robotique et IA se posait la question du « robot tueur ». Mais que cache cette désignation plus techno-folklorique (1) qu’académiquement pertinente ?

Il n’est pas ici question de revenir ici sur les débats autour des implications légales, éthiques ou même stratégiques suscités par cette question. Elle a généré un gros volume de publications, ouvrages, monographies et articles – qu’ils soient académiques, de vulgarisation ou de presse – et notre propos n’est évidemment pas de les résumer ici. Il s’agit plutôt de s’interroger sur l’émergence même du terme « robot tueur » en tant que norme du débat académique autour des systèmes robotisés avancés ; et partant, d’examiner en quoi cela risque ou non de poser un problème dans une analyse des débats liés aux technologies militaires.

La généalogie du robot tueur

La terminologie de « robot tueur » n’est en effet pas neutre : elle charrie des représentations négatives. Le robot n’est, par définition, pas humain. Le « tueur » renvoie quant à lui plus à l’assassin qu’au soldat entraîné maîtrisant sa force. Déshumanisée, la machine peut massacrer, sans foi ni loi : le terme est conçu pour effrayer. Si la terminologie est donc militante, sa trajectoire elle – même est intéressante. On la retrouve historiquement d’abord dans la littérature de science – fiction. En 1991, elle semble se retrouver pour une première fois dans la littérature académique/d’essai (2) avant l’ouvrage publié en 1997 par Richard G. Epstein, qui présentait une série de nouvelles destinées à nourrir la réflexion éthique sur l’autonomie (3). Les années 1990 voient également un bouillonnement cinématographique autour de la robotique et des technologies cyber.

Au tournant des années 2000, l’expression n’est que très marginalement employée dans le domaine des études stratégiques. L’usage se répandra surtout au début de la deuxième moitié de la décennie, qui correspond à une utilisation de plus en plus importante des drones armés (4). Ce dernier sujet devient, avec la première frappe américaine sur des responsables d’Al-Qaïda au Yémen en 2002 puis avec les opérations de frappe contre des leaders djihadistes, structurant pour le champ des études dites critiques. L’usage du terme « robot tueur » se généralise ensuite dans les années 2010. À ce moment, les drones deviennent un marché académique en soi : de nombreux sujets de thèse portent sur la question et Théorie du drone ne tardera pas à être publié (5). Le débat peut déjà être assez largement biaisé, voyant dans les drones des systèmes variablement autonomes. Lorsque cette autonomie n’est pas affirmée dans la littérature dite critique, elle est souvent sous – entendue, brouillant les représentations.

Le « robot tueur » connaît du reste une institutionnalisation avec la mise en place de la Campaign to Stop Killer Robots en 2013. Il se généralise alors dans bon nombre d’ONG. Human Rights Watch a une page « killer robots », par exemple. Corrélativement, c’est aussi le cas dans la littérature académique et en particulier dans les études dites critiques. Le terme se propage d’autant plus rapidement qu’il peut être adossé à des représentations négatives d’une robotique hors de contrôle, notamment au travers d’œuvres de fiction – à commencer évidemment par le sempiternel Terminator illustrant bon nombre d’articles de presse sur le sujet. À ce stade, représentations critiques et militance se renforcent mutuellement.

De facto, le drone devient la « figure aérienne du mal (6) » en jouant sur des peurs bien compréhensibles, mais aussi sur un brouillage des catégorisations techniques et stratégiques, de même que sur un processus de disqualification de la prise en compte des facteurs techniques à l’œuvre en particulier dans les études dites critiques. La fameuse critique de l’« expertise », réduite à son acception foucaldienne (7) et permettant donc à certains de généraliser pour lui opposer « recherche universitaire » – ce qui paraîtra étonnant à toute personne intéressée par le savoir –, joue un rôle central dans le dispositif de dislocation du débat mis en place. Confisqué, ce débat est réduit à une technique qui aurait été rendue folle, seule, hors de tout contexte militaire, au plus grand mépris des connaissances scientifiques sur l’IA et la robotique, des études stratégiques ou du droit des conflits armés. On note d’ailleurs que la page web du bureau des affaires de désarmement de l’ONU consacrée aux SALA (Systèmes d’armes létaux autonomes) ne renvoie qu’à une littérature qui, faute d’inclure des travaux en études stratégiques, est spéculative (8).

Un exemple de préemption du débat

Les effets dans le domaine public des narratifs autour du robot tueur sont bien réels. Nous prendrons ici un exemple belge, pour montrer en quoi la confusion entre recherche et militance peut entraîner à sa suite un écho médiatique, répandant une vision biaisée de la question robotique. En décembre 2020, le think tank belge GRIP, historiquement militant (9), publie une note intitulée « Robots tueurs : à quand un traité d’interdiction ? (10) ». Recevant un bon accueil dans les médias locaux, elle se voit transformée en sujet par la télévision belge, les interrogations cédant la place à l’assertion : « Les robots tueurs arrivent : peut-on les laisser faire ? » Le ton est rapidement donné : « Aucun cas n’a encore été signalé jusqu’aujourd’hui, mais le jour approche où un robot armé prendra la décision d’éliminer un humain […](11) ».

0
Votre panier