Magazine DSI

Les robots de combat vont-ils massacrer l’humanité (et les petits chats) ? Sociologie d’un débat non informé

La récente décision ministérielle d’armer les drones MQ‑9 de l’armée de l’Air a donné aux auteurs critiquant les « robots tueurs » de nouvelles raisons de s’indigner et d’alimenter ce qui est devenu à la fois un genre littéraire et une madeleine de Proust de la théorie critique. Mais ce débat n’est-il pas d’abord révélateur d’une méconnaissance, aussi profonde que coupable, du champ militaire ?

Il ne se passe plus un mois sans que l’on voie apparaître un ouvrage ou encore un article consacré à l’inévitable autonomisation des technologies et aux risques liés aux « robots tueurs » qui ne manqueront pas d’entrer en service au sein des armées occidentales. Pêle-mêle, on y retrouve les figures classiques de la philosophie des techniques (la perte de contrôle des technologies, le déterminisme technologique) et des interrogations éthiques, juridiques, mais aussi politiques dès lors que les technologies des « robots tueurs » sont aussi celles des « sociétés de la surveillance ». Ces questionnements s’incarnent d’abord dans le drone, figure perçue comme disruptive, sinon révolutionnaire. L’ouvrage de Grégoire Chamayou (1) en est un exemple assez abouti, mais les inquiétudes sont renouvelées par les récentes prises de position de leaders de l’innovation, comme Elon Musk et Bill Gates, ou de scientifiques, comme Stephen Hawking.

Les études dites critiques sont-elles informées ?

On peut comprendre ces interrogations : la vitesse de déploiement des innovations est devenue phénoménale. Il y a à peine 25 ans, Internet ne touchait qu’une toute petite fraction de la population mondiale et les capacités des ordinateurs de l’époque nous semblent aujourd’hui totalement dépassées. Les progrès réalisés dans tous les domaines liés à l’électronique et à ses applications (dont la robotique) ont été gigantesques et, comme tout développement technologique rapide, celui lié à l’informatique suscite des peurs et des critiques. Nombre de contributions au débat sont ainsi à considérer comme une forme, pacifiée, de luddisme (2). On ne peut extraire, par ailleurs, le débat de sa dimension commerciale : la peur est un marché dont le sensationnalisme est un moteur. Ouvrages et articles trouveront plus facilement un espace éditorial s’ils sont considérés comme critiques. De même, le « marché académique », avec à la clé des postes d’enseignement, est plus ouvert aux thésards adoptant des positions radicales sur ces technologies (3).

Il n’est pas question, ici, de dire que la critique n’est pas nécessaire ou qu’une posture méfiante à l’égard des nouvelles technologies, y compris militaires, n’a pas lieu d’être. Au contraire, s’il nous semble que les actuels débats ne sont pas pertinents, ce n’est pas en raison de leurs conclusions, mais, bien souvent, de la méthodologie adoptée, qui vise à prendre en compte à peu près tout, sauf l’objet lui-même. Ainsi, s’il est question de robots de combat, de drones et d’intelligence artificielle dans le champ militaire, toutes les disciplines sont présentes, à l’exception, aussi notable que regrettable, des études stratégiques et des defence/warfare studies elles-­mêmes. C’est évidemment un biais méthodologique majeur, dont l’équivalent en oncologie serait de chercher à prévenir et traiter le cancer non seulement sans l’étudier, mais au surplus sans comprendre ses causes, en ne s’intéressant qu’à ses conséquences sur la vie – et même pas la santé – du malade.

Déconstruire beaucoup, reconstruire mal

Avant d’aller plus loin, il faut revenir ici sur les méthodologies des études dites critiques. Depuis les années 1970, la théorie constructiviste a pris un réel essor dans le monde académique. En soi, elle est utile, notamment parce qu’elle permet de prendre en compte les perceptions des différents acteurs. C’est notamment le cas pour l’analyse des systèmes d’armes. Ils ne sont pas que de l’ingénierie, mais aussi le résultat d’une histoire qui leur est propre et qui implique des intérêts parfois opposés, se traduisant par des interactions au sein d’un programme d’armement. C’est ce qui explique pourquoi, par exemple, un Leclerc est différent d’un Leopard 2, alors que les ingénieurs les ayant conçus ont grosso modo les mêmes compétences. Le problème intervient lorsque la théorie est dévoyée et que tout est vu comme une perception : on bascule alors dans une logique dite « post-­positiviste ». Dès lors que tout est construction, y compris les faits et les opinions contraires à la théorie dite critique, tout devient relatif. Plus rien ne peut être analysé objectivement. La théorie peut alors s’autonomiser, perdant le contact avec le réel ; sachant que tout rappel au réel sera disqualifié comme renvoyant à des facteurs « techniques ».

La tactique est commode, mais pose évidemment la question de la finalité des travaux réalisés. Les aspects techniques renvoient, pour nombre d’auteurs se réclamant des études dites critiques, à la notion d’expertise. Elle semble dévalorisée parce qu’insuffisamment noble du fait de son manque de mise en perspective au regard des théories. Reste que toute discipline scientifique ne peut se passer d’éléments techniques, qui constituent un des premiers « matériaux de base » de l’analyse : on imagine mal un mathématicien ne maîtrisant pas l’algèbre ou un sociologue ne connaissant pas ses classiques. C’est pourtant ce que l’on observe, notamment chez G. Chamayou, dans le cas du drone. Ce dernier est déconstruit – pourquoi pas –, mais justifier de sa démarche implique pour l’auteur de construire, en retour, une théorie. La problématique est alors désincarnée : le drone est carrément sorti de son environnement militaire pour devenir le premier, voir le seul, outil de combat des forces occidentales. L’auteur se passe alors des fondamentaux de la stratégie aérienne, de l’organisation des forces, ou encore de la stratégie des moyens. Peu importe donc si des hommes sont présents sur le terrain (y compris pour la mise en œuvre des drones) et peu importe qu’ils y prennent des risques : toute la guerre devient « à distance », ce qui permet de justifier la thèse.

La rationalité scientifique est donc pervertie. En théorie, à l’appui d’une thèse, on pose des hypothèses, ensuite validées ou non par la recherche à proprement parler – la conclusion du travail peut donc varier au contact du terrain d’étude. Ici, il ne s’agit guère que de matraquer la thèse, en tordant la démonstration, la conclusion étant de toute manière établie d’avance. La logique retenue implique également la technique manipulatoire classique de la « cueillette de cerises ». Ainsi, s’il doit être question de stratégie aérienne pour asseoir la théorie, seul Douhet – qui paraît conforme à la théorie que l’auteur veut construire, parce que brutale et justifiant le ciblage de civils – est mobilisé, quand bien même il est totalement absurde de réduire la stratégie aérienne à Douhet. La démarche est donc tout sauf scientifique et relève bel et bien de l’idéologie (4). Ce n’est évidemment pas un problème en soi – en démocratie, toutes les opinions sont importantes –, mais ce l’est par la recherche d’une légitimité scientifique : il y a clairement confusion et celle-ci est dommageable, parce qu’elle contribue à délégitimer aux yeux du public l’utilité de l’Université.

Évidemment, en ne se concentrant que sur les usages du drone dans les conflits actuels, il devient facile de produire des ordres de grandeur de destruction qui semblent intolérables. De facto, ils sont sortis de leur contexte. Le « robot tueur » doté d’une mitrailleuse ou d’un missile antichar devient ainsi une menace pour la paix et la sécurité mondiale pire qu’un bataillon blindé ou qu’un tir d’artillerie de saturation. De même, le drone tirant quatre missiles à la charge explosive de 8 kg environ avec une précision de 30 cm sur des cibles clairement identifiées devient plus problématique qu’un Tu‑22M3 larguant 42 bombes non guidées de 250 kg depuis 6 000 m sur des cibles forcément moins identifiées. Le grand paradoxe est ici que, dans une vision « post-­positiviste », un auteur se réclamant des études dites critiques ne peut se passer de données. Or les États occidentaux font preuve de plus de transparence que les autres… dont on ne parle pas. In fine, des règles d’engagement prudentes comme celles de la France, du Royaume-­Uni ou des États-Unis seront plus facilement remises en question que celles de l’Arabie saoudite, du Pakistan, de la Chine ou des Émirats arabes unis, dont il n’est pas question dans ces travaux – alors même que ces États disposent de drones armés.

Études dites critiques et critique

Il y a donc un véritable ethnocentrisme, que l’on peut remarquer par ailleurs. Le site Airwars ambitionne ainsi de « surveiller et évaluer les pertes civiles issues des frappes aériennes internationales en Irak, en Syrie et en Libye(5) ». Mais travaillant en sources ouvertes et donc en fonction des communiqués de presse, il attribue l’essentiel des pertes civiles aux forces occidentales : les autres belligérants sont ainsi virtuellement lavés de tout soupçon (6). Les études « critiques » ne le sont donc pas tant que cela. Qu’on soit virologue ou politologue, faire de la recherche implique de prendre en compte tous les paramètres et de procéder à un « état de l’art » d’une question donnée : isoler ce que l’on en sait, avant de chercher à savoir ce que l’on ne sait pas. Évidemment, traiter de questions militaires sans les prendre en compte n’est pas le meilleur moyen d’y arriver. À cet égard, un dernier aspect nous semble également important. Le processus de légitimation des études dites critiques tend à faire l’impasse sur les approches qu’elles considèrent comme classiques et donc, toujours pour elles, « non critiques ».

Or toute discipline possède ses propres mécanismes critiques. Dès qu’il est question d’études stratégiques, ils paraissent même évidents : morts et blessés sont plus concrets encore que les coûts politiques et budgétaires de mauvaises décisions. La souffrance humaine n’a jamais été absente de l’éthique du soldat. Le domaine militaire, même s’il est historiquement déconsidéré par les sociologues, a également sécrété de lui-même ses propres mécanismes de critique, sous la forme des retours d’expérience. Ils peuvent évidemment être critiqués, notamment parce que ceux qui les rédigent peuvent être soumis à des pressions ou des intérêts. Mais, à l’instar de toute démarche scientifique, l’acteur entendant s’améliorer a intérêt à prendre en compte les retours d’expérience les plus intellectuellement honnêtes. On peut évidemment critiquer ce que recouvre cette « amélioration », y compris dans les opérations militaires contemporaines ; tout comme on peut critiquer les décisions politiques y conduisant. Mais, à force de se concentrer sur l’instrument qui trahirait une motivation, nos auteurs en oublient de s’intéresser à la motivation.

« Les robots arrivent et on va tous mourir ! »

S’il est évident que le monde des idées n’a rien à gagner d’une énième confusion entre fins et moyens, on remarque également que, pour nombre d’auteurs liés aux études dites critiques, disposer de systèmes d’armes implique nécessairement de les utiliser. Faut-il dès lors craindre pour l’avenir de l’humanité (et des petits chats) face à l’arrivée des « robots tueurs » ? Une première remarque porte sur le vocable utilisé, qui appelle fréquemment à son illustration par une photo tirée de Terminator. Pour l’instant, ce que l’on qualifie de « robot » est un engin téléopéré ; autrement dit, télécommandé. Des algorithmes automatisant certaines fonctions peuvent être utilisés, typiquement, pour le maintien de l’assiette de vol d’un drone ou son système d’atterrissage automatique, au même titre que sur un appareil civil. Ces algorithmes ne renvoient pas aux fonctions de combat. Mieux, techniquement parlant, l’usage d’un drone MQ‑9 consomme plus de ressources humaines liées au pilotage, au renseignement, au ciblage et au tir qu’un F‑16 doté d’un pod équipé d’une optronique similaire à celle du drone… et dont l’usage n’est pas plus critiqué qu’un tir d’artillerie ou de missile de croisière par les auteurs issus des études dites critiques. En cas d’erreur, l’affaire n’est donc pas à mettre sur le dos du « robot », mais bien des hommes qui le pilotent et des règles d’engagement qu’ils ont suivies (7).

La remarque vaut également pour les robots de combat terrestres, qui commencent à apparaître. La terminologie du « robot » sous-­entend un degré d’autonomie décisionnelle, mais la connotation est trompeuse : là aussi, l’engin est téléopéré. Le paradoxe tourne au comique lorsque les tourelles fixes SGR‑1A sud-­coréennes sont prises pour les premiers robots de combat, alors qu’elles ne sont que les avatars moins performants des tourelleaux téléopérés installés sur nombre de blindés. Certes, on peut rétorquer que, intelligence artificielle faisant, ces tourelles et tourelleaux pourraient un jour être automatisés. Ce serait cependant oublier trois facteurs. Un premier pourrait être qualifié de « et alors ? » en considérant que des systèmes de combat automatisés bien plus destructeurs se sont succédé depuis les années 1950 : les missiles balistiques porteurs de charges nucléaires sont totalement autonomes une fois lancés. Depuis les années 1970, des systèmes de combat naval comme l’Aegis américain intègrent un certain degré d’autonomie, au niveau des Phalanx de défense rapprochée, mais aussi (et surtout) des lancements de missiles surface-­air (8). C’est également vrai dans le domaine terrestre (9). Celui qui voit dans l’autonomie une nouveauté ne connaît pas l’histoire des techniques militaires.

Le deuxième facteur tire les conséquences du premier : non, disposer d’une capacité militaire donnée ne signifie pas que l’on s’en serve ; ce qui devrait pourtant sembler évident à tous ceux ayant un peu lu sur les arsenaux, l’histoire militaire ou sur les théories du culte de l’offensive ou du dilemme de la sécurité. Certes, disposer de systèmes d’armes permet de les utiliser, mais on ne peut faire fi de la volonté politique de leur usage. Or partir de ce préalable, comme le font plusieurs auteurs des écoles dites critiques, revient à créer le déterminisme technologique qu’ils font pourtant mine de combattre. Le paradoxe est qu’eux-­mêmes se plaignent de l’éviction des facteurs politiques… alors que l’essentialisation technologique qu’ils opèrent ne peut qu’y aboutir.

Un troisième facteur est lié à la sociologie militaire : la guerre est un environnement chaotique et incertain, de sorte que tous les efforts liés à la doctrine, à la tactique et aux technologies militaires portent sur la recherche de rationalisation de ce chaos. Dans pareil cadre, les militaires cherchent surtout à éviter tout ce qui peut ajouter de la friction au chaos. C’est ce qui explique que les options d’attaque sur le Japon, durant la Deuxième Guerre mondiale, ont rapidement écarté l’usage d’armes biologiques, trop incontrôlables par définition. C’est également ce qui explique que le premier « vrai » robot tueur, l’AGM‑84K SLAM‑ER – qui dispose d’une capacité de reconnaissance automatique de cible – n’ait connu qu’un succès commercial limité (10). C’est enfin la raison pour laquelle les pilotes britanniques engagés en Libye en 2011 n’ont utilisé que très marginalement le mode d’attaque automatique de leurs missiles Brimstone, alors que l’environnement s’y prêtait parfaitement.

Une deuxième remarque porte sur ce que l’on peut qualifier de « prophétie robotique », qui annonce l’arrivée de robots de combat et de munitions autoguidées de manière imminente… depuis 40 ans. Il y a, dans l’automatisation du « champ de bataille électronique » – pour reprendre le titre d’un ouvrage paru en 1976 et illustré… d’un drone (11) – une dimension fantasmatique certaine. On retrouve également la figure de leur réseaucentrage (12). En fait, ces différents aspects constituent autant de prolongements de la Second Offset Strategy (1977), matrice de la révolution dans les affaires militaires (RMA) des années 1990. On notera qu’elle-même a sécrété, avec la « RMA After-­Next », son propre techno-­folklore. Devant se réaliser de nos jours, à suivre les débats la concernant, elle serait à base de modifications génétiques des soldats, de neurotechnologies, de biotechnologies… et bien sûr de robotique (13). La Third Offset Strategy est en réalité plus sobre : l’attention qu’elle porte aux réseaux est telle qu’on peut surtout y voir le prolongement de la deuxième (14).

Le techno-­sensationnalisme étant recadré, est-ce à dire qu’il est définitivement exclu que l’intelligence artificielle soit intégrée à des robots de combat auxquels serait donné un certain degré d’autonomie ? Aucun déterminisme n’existant, c’est une possibilité objective, en particulier dans les pays dont le système de normes – juridiques ou de relations homme-machine – diffère de celui que l’on connaît en Europe. Si on peut y voir un nouveau paradoxe – ce n’est en effet pas sur ces États que se porte l’attention des auteurs –, on ne peut faire abstraction des débats européens, américains ou israéliens (15). Aucune armée n’estime nécessaire de disposer de systèmes de combat autonomes, même si bon nombre d’entre elles voient dans les technologies robotiques – drones et plates-­formes terrestres, exosquelettes – une possibilité de compenser les pertes de volume qu’elles sont subies. La logique est bien celle d’une coexistence, qui pose à son tour nombre de questions. À côté desquelles bien des auteurs sont passés, et tant pis pour la science comme pour le débat public… J. H.

Article paru dans DSI n°132, novembre-décembre 2017

Notes

(1) Grégoire Chamayou, Théorie du drone, Paris, La fabrique, 2013. Pour une critique circonstanciée de ses positions techniques, Joseph Henrotin, « Sur une interview de G. Chamayou, ou de quelques mythes entourant les drones armés », Areion24, 16 octobre 2013.

(2) Au début du XIXe siècle, les Luddites étaient des ouvriers textiles considérant que les métiers mécaniques allaient détruire leurs emplois et qui ont mené des actions de destruction dans les usines. Par extension, le terme s’applique aux oppositions violentes à l’égard des nouvelles technologies.

(3) Le paradigme réaliste en relations internationales est devenu minoritaire dans les facultés européennes.

(4) Jean-Baptiste Jeangène-Vilmer, « Idéologie du drone », La Vie des idées, 4 décembre 2013.

(5) https://​airwars​.org/.

(6) Il est bien question de la Russie (sans que les sources soient données), mais pas de l’Iran, de l’Irak ou de la Syrie, qui ont pourtant engagé leurs aviations.

(7) On peut certes dire que la légèreté de la plate-forme rend la précision de son ciblage plus délicate. Mais la même contrainte touche les AC‑208 irakiens qui, eux, sont pilotés in situ

(8) Paradoxalement, la destruction du vol Iran Air par le Vincennes, en 1988, est imputée au fait que ce système… n’était pas actif et que la maîtrise du système de combat du bâtiment par des hommes ayant voulu rester « en manuel » était insuffisante.

(9) On songe en particulier aux sous-munitions antichars guidées ou à des mines comme la M‑93 WAM, qui ne se déclenche qu’à l’approche de certains véhicules, en fonction de leur signature sismique ou infrarouge. La conception de ces systèmes remonte aux années 1980.

(10) En Corée du Sud et au sein de l’US Navy, où son utilisation a été plus que limitée.

(11) Paul Dickson, The Electronic Battlefield, Atheneum, New York, 1976.

(12) Joseph Henrotin, L’art de la guerre à l’âge des réseaux, ISTE, Paris, 2017.

(13) Voir Paul Bracken, « The Military After-Next », The Washington Quarterly, vol. 16, no 4, automne 1993 ; Lonnie D. Henley, « RMA After-Next », Parameters, hiver 1999-2000.

(14) Joseph Henrotin, « La troisième offset, les réseaux et la guerre au futur antérieur », Défense & Sécurité Internationale, no 123, mai-juin 2016.

(15) Voir notamment Philippe Langloit, « Robotique de combat : les progrès viennent des petits États », Défense & Sécurité Internationale, no 125, septembre-octobre 2016.

0
Votre panier