Magazine DSI

Combat coopératif aérien connecté, autonomie et hybridation homme-machine. Vers un « guerrier centaure ailé » ?

À l’horizon 2040, le Système de Combat Aérien Futur (SCAF) reposera sur une architecture en réseau, rassemblant plates-formes habitées et non habitées au sein d’un système de systèmes (1). Ce paradigme s’inscrit pleinement dans le man-unmanned aircraft teaming, en d’autres termes dans l’hybridation homme-machine en un système cognitif holistique.

Dans son dernier ouvrage, Army of none : Autonomous Weapons And the Future Of War (2), Paul Scharre désigne l’hybridation homme-machine par la forme mythologique du « guerrier centaure », mi-homme mi-cheval. Or le foisonnement intellectuel autour de l’autonomie n’est pas sans tiraillements conceptuels et éthiques. Cette question fascine autant qu’elle inquiète, nourrie par le fantasme du syndrome « Terminator » et le mythe du robot tueur, où l’homme aurait perdu le contrôle. Pour filer l’analogie mythologique, ce centaure guerrier sera-t-il à l’image de Chiron, précepteur d’Achille et d’Héraclès, réputé pour sa sagesse et sa connaissance ? Ou sera-t-il à l’image du perfide Nessus, qui trompa Héraclès, profitant de sa naïveté pour abuser de son épouse Déjanire ?

Face à ces défis, la rationalité du système de combat aérien doit être celle d’un guerrier centaure ailé modelé par trois exigences. L’hybridation doit tirer parti de la précision et de la vitesse de l’automatisation tout en décuplant l’agilité et la créativité de l’intelligence humaine. L’interface homme-machine doit préserver la distance épistémique et sensorielle avec l’ennemi, comme un des gages de l’éthique de responsabilité du combattant. L’automatisme doit capturer le processus décisionnel du combattant, et non celui de son concepteur selon une approche technocentrée.

Pour ce faire, la modernisation de notre système de combat aérien doit se conduire selon deux coordonnées, la coopération et l’autonomie, à la jonction desquelles se trouve le combat collaboratif connecté en essaim. La place de l’homme passera ainsi de centrale à épicentrale, mais la guerre résultera toujours d’un choc des volontés humaines : quoi qu’il advienne, si les machines peuvent faire beaucoup de choses, elles ne peuvent pas donner du sens à l’action. C’est à l’homme qu’il revient de faire les choix difficiles qui modèleront le futur de la guerre (3).

Le combat collaboratif aérien

À l’horizon du SCAF en 2040, la liberté d’action sera contestée dans tous les domaines. Les contextes stratégiques toujours plus complexes, l’évolution des menaces vers un maillage multidomaine et, dans le même temps, les opportunités technologiques imposent dès à présent un changement de paradigme pour le Système Global de Combat Aérien (SGCA) : la supériorité opérationnelle ne tiendra plus à la seule supériorité des matériels pris isolément, mais à la capacité à les employer conjointement avec nos alliés et avec plus d’efficacité que nos adversaires. En effet, à l’ère des réseaux, la conflictualité impose une approche nouvelle, inconciliable avec celle traditionnelle du duelliste, qui recherche l’avantage absolu pour renverser son adversaire. Au contraire, seul un réseau pourra vaincre un réseau et c’est en ce sens que le SGCA s’organise en système de systèmes. Cette rationalité va de pair avec le développement d’un septième sens pour les architectes de ce SGCA, tel qu’il est décrit par Joshua Cooper Ramo dans son livre The Seventh Sense (4). Ce septième sens est perçu comme étant l’aptitude d’un individu à comprendre la dialectique entre réseau et pouvoir : les systèmes connectés altèrent la nature des objets et permettent à la fois la concentration et la distribution d’une capacité, démultipliant de fait le niveau de performance final. Au sein du SGCA, un objet considéré de manière isolée perd une grande part de sa valeur : il est ce à quoi il est connecté.

Le combat mené dans et depuis le milieu aérospatial doit s’inscrire dans une perspective multidomaine au sein de laquelle sa dimension collaborative sera un des gages de la liberté d’action militaire. L’ayant parfaitement compris, l’armée de l’Air a lancé l’initiative Connect@aéro, dont l’enjeu est double. Ce projet doit d’abord permettre la numérisation incrémentale du SGCA pour l’adapter aux menaces actuelles et futures. En outre, il doit préparer l’arrivée du SCAF en 2040 par l’élaboration d’une architecture ouverte numérisée et sécurisée de système de systèmes. In fine, le combat coopératif au sein du SGCA, puis du SCAF, doit permettre d’augmenter à la fois la survivabilité, l’efficacité et la résilience de leurs constituants (destruction des systèmes ennemis malgré leurs défenses). Plus précisément, la mise en réseau des capteurs, des effecteurs et des décideurs doit permettre au SGCA :
• de détecter précisément les systèmes intégrés de défense sol-air : la connectivité apporte une solution tactique contre les cibles furtives et les radars sol-air passifs (SEAD) par la fusion des données des capteurs dispersés géographiquement (détection collaborative de menaces air-air et sol-air) ;
• d’adapter de manière collaborative les trajectoires et les manœuvres, grâce à la liaison munition-munition et avion-munition. La coopération doit notamment permettre le maintien de leur capacité de manœuvre dans un contexte de « guerre de la navigation » – Positionnement, Navigation, Temps (PNT ou NAVWAR).

Enfin, l’ensemble des échanges devra être supporté par un système de communication haut débit, résilient, adapté aux menaces électromagnétiques de ce type d’environnement. Toutefois, ce besoin en connectivité va de pair avec la nécessité de dominer le spectre électromagnétique et cyber, eux aussi toujours plus contestés. L’autonomie des systèmes est précisément l’un des moyens pour réduire cette dépendance.

L’autonomie comme un moyen de diminuer l’empreinte système

Il est tout d’abord primordial de définir précisément ce qu’on entend par autonomie, afin d’éviter l’écueil des caricatures imposées par la pop culture (syndrome du robot tueur préfigurant le jugement dernier). Ne pas nommer les choses, c’est fabriquer les totems et les pierres d’achoppement de demain. Sur ce point, la question de l’armement des drones en France fait d’ailleurs jurisprudence. Le problème central est bien celui du degré de liberté octroyée aux machines selon les tâches considérées : reconnaître que les intelligences artificielles (IA) ont des faiblesses ne doit pas éluder leurs avantages. L’IA n’est ni bonne ni mauvaise, elle est une réserve d’opportunité puissante, où l’homme doit avoir une place épicentrale.

Clairvoyance autour de la question de l’autonomie : de quoi s’agit-il ?

Pour Paul Scharre, aborder la question de l’autonomie dans l’abstraction ne peut mener qu’à une impasse. Au contraire, il est nécessaire d’en décortiquer les enjeux autour de ses trois dimensions : le type de tâche qu’on lui confie ; la relation homme-machine dans l’exécution de cette tâche ; et la sophistication de la machine. Précisément, le cœur du problème réside dans la seconde dimension, celle de la liberté qu’on octroie à la machine et non pas celle de sa sophistication : « Le niveau d’intelligence d’un système et les tâches qu’il effectue de manière autonome sont des dimensions différentes. C’est la liberté, pas l’intelligence, qui définit une arme autonome .(5) »

La relation homme-machine s’articule donc autour de trois niveaux d’autonomie : semi-autonome (human-in-the-loop) ; autonomie supervisée par l’homme (human-on-the-loop) ; autonomie totale (human-out-the-loop). Il doit être possible de parler d’autonomie complète pour assurer certaines fonctions en pleine coopération (autonomie coopérative pour la navigation et la gestion des trajectoires), et sanctuariser par ailleurs le jugement humain dans le processus décisionnel (man-on-the-loop). Les deux aspects ne sont pas indépendants d’un de l’autre.

En 2014, l’OTAN convergea vers une définition des systèmes autonomes aériens inhabités, les présentant comme étant « capables de comprendre un degré supérieur d’intention et de direction, détectant leur environnement et, sur la base d’un ensemble de règles et de limites, choisissant parmi des alternatives et prenant des mesures pour générer un état optimal, mais potentiellement imprévisible sans intervention humaine (6) ». Cette définition a l’avantage notable de considérer l’autonomie des systèmes d’armes… en s’appuyant sur celle applicable pour l’homme. En d’autres termes, il est bon de ne pas transposer aux systèmes autonomes les questions philosophiques déjà insolubles pour l’humain (La liberté totale existe-t-elle ? Un homme peut-il être totalement autonome ?). En revanche, il est pertinent de s’interroger sur les applications possibles de l’autonomie à nos systèmes d’armes.

L’autonomie : pour quoi faire ?

Les systèmes autonomes ne sont certes pas une fin en soi : ils doivent répondre à un besoin opérationnel dans un contexte conflictuel donné. En premier lieu, les systèmes autonomes doivent compenser les limites cognitives de l’homme dans un contexte d’infobésité, sans sacrifier pour autant l’agilité et la flexibilité de l’intelligence humaine. Les IA peuvent être utilisées pour des tâches bien ciblées et spécifiques, où elles surpassent les humains dans leur capacité de traitement de grandes quantités d’informations dans un temps très court, et lui épargnent ainsi une pénibilité préjudiciable à sa performance au combat. L’IA permet ainsi de répondre à la question du déluge informationnel matérialisé par les enjeux des « cinq V » (Volume/Velocity/Variety/Veracity/Value). Face à cette problématique, la vraie question n’est pas celle de l’algorithme, mais bien celle de la donnée.

En outre, les systèmes autonomes constituent une réponse aux stratégies de déni d’accès en réduisant l’empreinte système. À ce jour, un des inconvénients des robots est qu’ils dépendent de la disponibilité et de l’intégrité des moyens de communication avec leur opérateur humain (exemple des drones MALE). Or la contestation grandissante du spectre électromagnétique engendre une vulnérabilité, que l’autonomie des machines pourrait atténuer :
• sur la gestion de la navigation jusqu’à l’objectif, en particulier pour les éléments furtifs (notion de fly-by-sensor-and-signature) ;
• sur la discrimination, l’identification et l’engagement des cibles potentielles en phase finale (notion d’Automatic Target Detection/Recognition ou AsTD/AsTR ; technologies de deep neural network).

En bref, selon les mots de Paul Scharre, « l’autonomie est le moteur cognitif qui anime les robots. Sans autonomie, les robots ne sont que des vaisseaux vides, des enveloppes sans cervelle qui dépendent des contrôleurs humains pour agir ».

Enfin, nos propres solutions en IA demeurent l’unique solution pour contrer une IA adverse. Si la stratégie est bien, comme la définissait Hervé Coutau-Bégarie, « la dialectique des intelligences, dans un milieu conflictuel », les armées doivent être en mesure d’opposer à l’adversaire une intelligence capable d’opérer à une vitesse supérieure, sur un plus large spectre. Pour autant, ces quatre raisons, aussi valables qu’elles puissent être, ne doivent pas éluder les nombreuses interrogations que soulèvent les systèmes d’armes autonomes.

Les limites des systèmes d’armes autonomes

Ces limites sont à la fois cognitives, éthiques et in fine liées à la confiance nécessaire pour déployer ces technologies. Aussi sophistiquées soient-elles, les IA demeurent largement surclassées par le cerveau humain sur de nombreux points, comme les champs cognitifs et émotionnels. Si les IA surpassent l’homme dans des tâches très spécifiques, elles peinent encore à contextualiser les actions et à interpréter le sens des choses. En bref, elles ne sont pas programmées pour faire preuve de bon sens et s’adapter pleinement à une situation nouvellement donnée. Elles n’accèdent pas (encore) à la capacité de transversalité de l’intelligence humaine, et restent cantonnées à des domaines spécifiques.

En outre, la notion de la confiance est centrale dans l’automatisation des systèmes. Déléguer une tâche à une machine implique une délégation de pouvoir, volens nolens. Or les systèmes sont de plus en plus complexes, pouvant devenir opaques, y compris pour leur concepteur. C’est particulièrement le cas des deep learning machines, qui opèrent non pas en suivant un script de manière linéaire, mais en exploitant avec un haut niveau d’abstraction des données grâce à des architectures articulées en réseaux. Il est ainsi possible de se retrouver face à une distorsion des intentions, à l’image du mauvais sort réservé au roi Midas dans la mythologie grecque (Midas demande à Dionysos de lui donner la capacité d’accumuler les richesses en vue du bonheur parfait ; Dionysos fait en sorte que tout ce que touche Midas se transforme en or ; or celui-ci ne peut plus ni manger ni boire et demande au dieu – notre IA dans cette histoire – de le libérer de ce fardeau). L’opacité de ces systèmes va ainsi de pair avec un manque de prédictibilité qui induit une défiance naturelle chez l’utilisateur.

Évidemment, il existe en outre de nombreuses objections éthiques à l’emploi des armes autonomes létales offensives, tant d’un point de vue déontologique (une action est moralement bonne si elle est accomplie par devoir ou par respect pour un principe) que conséquentialiste (l’action est moralement bonne lorsqu’elle a les meilleures conséquences possibles pour les individus affectés).
• D’une part, la déresponsabilisation de l’homme dans l’emploi de la force complètement automatisée s’accompagne insidieusement du danger d’aléa moral : si ceux qui lancent des armes autonomes ne croient pas qu’ils sont responsables des morts qui en résultent, ils risquent de devenir négligents, et de les employer sans discernement.
• D’autre part, l’homme, certes capable des pires atrocités, est également un être doué d’empathie et de pitié, en particulier face à ce que Michael Walzer appelle le naked soldier dans son fameux livre Just and Unjust War (7).

À la croisée de ces deux phénomènes se cache ainsi la plus forte objection d’ordre éthique à l’emploi des armes autonomes stricto sensu, comme le résume brillamment Paul Scharre : « Tant que la guerre sera une activité humaine, fondée sur la violence et impliquant une part de souffrance, quelqu’un devra subir la douleur morale de ces décisions […]. La problématique n’est pas tant dans l’automatisation à proprement parler, mais dans la manière dont elle modifie la dialectique entre les êtres humains et la violence. (8) »

Enfin, les systèmes autonomes sont sensibles au risque d’escalade, dans la mesure où ils accélèrent le cycle décisionnel. Paul Scharre effectue un parallèle avec le long feu en session de tir et utilise les exemples du trading en Bourse pour mettre en exergue le risque d’emballement qui échappe aux intentions mêmes de l’opérateur. Le danger apparaît lorsque les systèmes autonomes font quelque chose qu’ils ne sont pas censés faire, après la perte de contrôle par l’opérateur humain. Il accentue ainsi le phénomène de caporal stratégique, comme si ce dernier était alimenté aux stéroïdes.

Le man-unmanned aircraft teaming

La tension constante entre les potentialités des systèmes létaux autonomes et les objections légitimes qu’on lui oppose met en exergue la singularité technologique de l’intelligence artificielle : il est de plus en plus difficile de regarder « derrière le mur du futur » face à cette singularité technologique décrite par Vernor Vinge dans son essai de 1993, Un feu sur l’abîme (9). En clair, il est délicat d’imaginer tous les futuribles (futurs possibles) dans la mesure où la teneur et la rapidité des progrès technologiques dépassent bien souvent notre entendement et notre capacité à nous projeter. La démarche incrémentale et la prise de risque sont dès lors essentielles pour préparer l’avenir. Cela est bien sûr valable sur le man-unmanned aircraft teaming avant de le définir comme le nouveau paradigme sur lequel l’armée de l’Air devrait s’appuyer pour le futur.

Pour autant, il est légitime de penser que, dans certaines situations, un partenariat entre opérateurs humains, embarqués ou non, et fonctions autonomes améliorera l’efficacité de la mission au-delà de ce que le seul vecteur habité traditionnel aurait pu obtenir de manière unilatérale. Ainsi, à l’horizon 2030, le SGCA reposera sur une mise en réseau de ses systèmes qui, associée à l’exploitation temps réel de quantités toujours plus grandes de données valorisées au moyen de systèmes d’aide à la décision (big data, intelligence artificielle), rendra possible les modes de combat collaboratifs qui vont démultiplier les forces intrinsèques des plates-formes.

Par exemple, le combat en essaim (plate-forme habitée, drones de combat et remote carriers) constitue une solution de saturation et de neutralisation des défenses sol-air d’un réseau A2/AD. L’autonomie coopérative permettra dans ce cadre d’assurer la cohérence globale des trajectoires (anti-abordage, saturation) et de compenser par la collaboration les limitations des algorithmes AsTD/AsTR. Elle augmentera en outre la survivabilité de l’ensemble par l’assignation de tâches particulières à certains éléments consommables au profit de la meute. Cette approche est celle d’un combat d’usure par opposition au classique du duel, qui nécessite bien souvent des technologies plus onéreuses. Pour Joseph Henrotin, la coopération au sein d’un système de systèmes permet de recréer de la masse, essentielle pour ouvrir des fenêtres de supériorité aérienne, à la fois spatiales et temporelles, face aux défenses ennemies (10).

Le « guerrier centaure ailé »

Un tel niveau de combat collaboratif nécessitera des moyens de connectivité et d’autonomie entre les acteurs du système de combat aérien, où la logique d’efficacité aura le primat sur celle de meilleure plate-forme. L’initiative Connect@aéro de l’armée de l’Air pose dès aujourd’hui les jalons du combat collaboratif connecté de demain dans une démarche incrémentale.

Parallèlement, l’intelligence artificielle constitue une réserve d’opportunité pour l’avenir, à condition qu’on la manipule avec précaution, mais également sans fausse pudeur. À la croisée de ces voies, l’hybridation homme-machine (man-machine teaming) sera un réel facteur de supériorité opérationnelle, tirant le meilleur parti du jugement humain et de la puissance des algorithmes : elle permettra de collecter la donnée, de sécuriser l’information et de distribuer la connaissance, pour décider et agir avec clairvoyance.

La place de l’homme demeurera centrale, modelant le « guerrier centaure ailé » à l’image de Chiron et non à celle de Nessus, afin de ne pas être trompé par le piège technocentré posé en ces termes par John Boyd, et qu’il convient de ne jamais oublier : « Ce ne sont pas les machines qui font la guerre. Ce sont les hommes, et ils utilisent leur intelligence. Vous devez rentrer dans le cerveau des hommes. C’est là que les batailles se gagnent. »

Notes

(1) David Pappalardo, « The Future of The French Air Force : A Future Combat Air System as a Strategy to Counter Access Denial », Over The Horizon, octobre 2017 (https://​othjournal​.com/​2​0​1​8​/​0​2​/​0​5​/​t​h​e​-​f​u​t​u​r​e​-​o​f​-​t​h​e​-​f​r​e​n​c​h​-​a​i​r​-​f​o​r​c​e​-​a​-​f​u​t​u​r​e​-​c​o​m​b​a​t​-​a​i​r​-​s​y​s​t​e​m​-​a​s​-​a​-​s​t​r​a​t​e​g​y​-​t​o​-​c​o​u​n​t​e​r​-​a​c​c​e​s​s​-​d​e​n​i​al/).

(2) Paul Scharre, Army of None : Autonomous Weapons and the Future of War, W. W. Norton & Company, New York, 2018.

(3) Ibidem, p. 362.

(4) Joshua Cooper Ramo, The Seventh Sense : Power, Fortune, and Survival in the Age of Networks, Little, Brown and Company, New York, 2016.

(5) Paul Scharre, op. cit., p. 50.

(6) NSA(AIR)0103(2014)ASB (REV 1), 29 janvier 2014.

(7) Paul Scharre, op. cit., p. 274.

(8) Paul Scharre, op. cit., p. 293, 295.

(9) Vernor Vinge, A Fire upon the Deep, Tor Books, New York, 1999.

(10) Joseph Henrotin, « L’aviation de combat en pleine révolution », Défense & Sécurité Internationale, no 137, septembre-octobre 2018.

Légende de la photo en première page : La connectivité des appareils de combat va s’accroître exponentiellement. Le standard F3R et le futur F4 du Rafale en témoignent déjà. (© Anthony Pecchi/Dassault Aviation)

Article paru dans la revue DSI n°139, « Face à la Russie, la mutation des forces finlandaises », janvier-février 2019.
0
Votre panier