Combat coopératif aérien connecté, autonomie et hybridation homme-machine. Vers un « guerrier centaure ailé » ?

Enfin, nos propres solutions en IA demeurent l’unique solution pour contrer une IA adverse. Si la stratégie est bien, comme la définissait Hervé Coutau-Bégarie, « la dialectique des intelligences, dans un milieu conflictuel », les armées doivent être en mesure d’opposer à l’adversaire une intelligence capable d’opérer à une vitesse supérieure, sur un plus large spectre. Pour autant, ces quatre raisons, aussi valables qu’elles puissent être, ne doivent pas éluder les nombreuses interrogations que soulèvent les systèmes d’armes autonomes.

Les limites des systèmes d’armes autonomes

Ces limites sont à la fois cognitives, éthiques et in fine liées à la confiance nécessaire pour déployer ces technologies. Aussi sophistiquées soient-elles, les IA demeurent largement surclassées par le cerveau humain sur de nombreux points, comme les champs cognitifs et émotionnels. Si les IA surpassent l’homme dans des tâches très spécifiques, elles peinent encore à contextualiser les actions et à interpréter le sens des choses. En bref, elles ne sont pas programmées pour faire preuve de bon sens et s’adapter pleinement à une situation nouvellement donnée. Elles n’accèdent pas (encore) à la capacité de transversalité de l’intelligence humaine, et restent cantonnées à des domaines spécifiques.

En outre, la notion de la confiance est centrale dans l’automatisation des systèmes. Déléguer une tâche à une machine implique une délégation de pouvoir, volens nolens. Or les systèmes sont de plus en plus complexes, pouvant devenir opaques, y compris pour leur concepteur. C’est particulièrement le cas des deep learning machines, qui opèrent non pas en suivant un script de manière linéaire, mais en exploitant avec un haut niveau d’abstraction des données grâce à des architectures articulées en réseaux. Il est ainsi possible de se retrouver face à une distorsion des intentions, à l’image du mauvais sort réservé au roi Midas dans la mythologie grecque (Midas demande à Dionysos de lui donner la capacité d’accumuler les richesses en vue du bonheur parfait ; Dionysos fait en sorte que tout ce que touche Midas se transforme en or ; or celui-ci ne peut plus ni manger ni boire et demande au dieu – notre IA dans cette histoire – de le libérer de ce fardeau). L’opacité de ces systèmes va ainsi de pair avec un manque de prédictibilité qui induit une défiance naturelle chez l’utilisateur.

Évidemment, il existe en outre de nombreuses objections éthiques à l’emploi des armes autonomes létales offensives, tant d’un point de vue déontologique (une action est moralement bonne si elle est accomplie par devoir ou par respect pour un principe) que conséquentialiste (l’action est moralement bonne lorsqu’elle a les meilleures conséquences possibles pour les individus affectés).
• D’une part, la déresponsabilisation de l’homme dans l’emploi de la force complètement automatisée s’accompagne insidieusement du danger d’aléa moral : si ceux qui lancent des armes autonomes ne croient pas qu’ils sont responsables des morts qui en résultent, ils risquent de devenir négligents, et de les employer sans discernement.
• D’autre part, l’homme, certes capable des pires atrocités, est également un être doué d’empathie et de pitié, en particulier face à ce que Michael Walzer appelle le naked soldier dans son fameux livre Just and Unjust War (7).

À la croisée de ces deux phénomènes se cache ainsi la plus forte objection d’ordre éthique à l’emploi des armes autonomes stricto sensu, comme le résume brillamment Paul Scharre : « Tant que la guerre sera une activité humaine, fondée sur la violence et impliquant une part de souffrance, quelqu’un devra subir la douleur morale de ces décisions […]. La problématique n’est pas tant dans l’automatisation à proprement parler, mais dans la manière dont elle modifie la dialectique entre les êtres humains et la violence. (8) »

Enfin, les systèmes autonomes sont sensibles au risque d’escalade, dans la mesure où ils accélèrent le cycle décisionnel. Paul Scharre effectue un parallèle avec le long feu en session de tir et utilise les exemples du trading en Bourse pour mettre en exergue le risque d’emballement qui échappe aux intentions mêmes de l’opérateur. Le danger apparaît lorsque les systèmes autonomes font quelque chose qu’ils ne sont pas censés faire, après la perte de contrôle par l’opérateur humain. Il accentue ainsi le phénomène de caporal stratégique, comme si ce dernier était alimenté aux stéroïdes.

Le man-unmanned aircraft teaming

La tension constante entre les potentialités des systèmes létaux autonomes et les objections légitimes qu’on lui oppose met en exergue la singularité technologique de l’intelligence artificielle : il est de plus en plus difficile de regarder « derrière le mur du futur » face à cette singularité technologique décrite par Vernor Vinge dans son essai de 1993, Un feu sur l’abîme (9). En clair, il est délicat d’imaginer tous les futuribles (futurs possibles) dans la mesure où la teneur et la rapidité des progrès technologiques dépassent bien souvent notre entendement et notre capacité à nous projeter. La démarche incrémentale et la prise de risque sont dès lors essentielles pour préparer l’avenir. Cela est bien sûr valable sur le man-unmanned aircraft teaming avant de le définir comme le nouveau paradigme sur lequel l’armée de l’Air devrait s’appuyer pour le futur.

Pour autant, il est légitime de penser que, dans certaines situations, un partenariat entre opérateurs humains, embarqués ou non, et fonctions autonomes améliorera l’efficacité de la mission au-delà de ce que le seul vecteur habité traditionnel aurait pu obtenir de manière unilatérale. Ainsi, à l’horizon 2030, le SGCA reposera sur une mise en réseau de ses systèmes qui, associée à l’exploitation temps réel de quantités toujours plus grandes de données valorisées au moyen de systèmes d’aide à la décision (big data, intelligence artificielle), rendra possible les modes de combat collaboratifs qui vont démultiplier les forces intrinsèques des plates-formes.

Par exemple, le combat en essaim (plate-forme habitée, drones de combat et remote carriers) constitue une solution de saturation et de neutralisation des défenses sol-air d’un réseau A2/AD. L’autonomie coopérative permettra dans ce cadre d’assurer la cohérence globale des trajectoires (anti-abordage, saturation) et de compenser par la collaboration les limitations des algorithmes AsTD/AsTR. Elle augmentera en outre la survivabilité de l’ensemble par l’assignation de tâches particulières à certains éléments consommables au profit de la meute. Cette approche est celle d’un combat d’usure par opposition au classique du duel, qui nécessite bien souvent des technologies plus onéreuses. Pour Joseph Henrotin, la coopération au sein d’un système de systèmes permet de recréer de la masse, essentielle pour ouvrir des fenêtres de supériorité aérienne, à la fois spatiales et temporelles, face aux défenses ennemies (10).

Le « guerrier centaure ailé »

Un tel niveau de combat collaboratif nécessitera des moyens de connectivité et d’autonomie entre les acteurs du système de combat aérien, où la logique d’efficacité aura le primat sur celle de meilleure plate-forme. L’initiative Connect@aéro de l’armée de l’Air pose dès aujourd’hui les jalons du combat collaboratif connecté de demain dans une démarche incrémentale.

Parallèlement, l’intelligence artificielle constitue une réserve d’opportunité pour l’avenir, à condition qu’on la manipule avec précaution, mais également sans fausse pudeur. À la croisée de ces voies, l’hybridation homme-machine (man-machine teaming) sera un réel facteur de supériorité opérationnelle, tirant le meilleur parti du jugement humain et de la puissance des algorithmes : elle permettra de collecter la donnée, de sécuriser l’information et de distribuer la connaissance, pour décider et agir avec clairvoyance.

La place de l’homme demeurera centrale, modelant le « guerrier centaure ailé » à l’image de Chiron et non à celle de Nessus, afin de ne pas être trompé par le piège technocentré posé en ces termes par John Boyd, et qu’il convient de ne jamais oublier : « Ce ne sont pas les machines qui font la guerre. Ce sont les hommes, et ils utilisent leur intelligence. Vous devez rentrer dans le cerveau des hommes. C’est là que les batailles se gagnent. »

Notes

(1) David Pappalardo, « The Future of The French Air Force : A Future Combat Air System as a Strategy to Counter Access Denial », Over The Horizon, octobre 2017 (https://​othjournal​.com/​2​0​1​8​/​0​2​/​0​5​/​t​h​e​-​f​u​t​u​r​e​-​o​f​-​t​h​e​-​f​r​e​n​c​h​-​a​i​r​-​f​o​r​c​e​-​a​-​f​u​t​u​r​e​-​c​o​m​b​a​t​-​a​i​r​-​s​y​s​t​e​m​-​a​s​-​a​-​s​t​r​a​t​e​g​y​-​t​o​-​c​o​u​n​t​e​r​-​a​c​c​e​s​s​-​d​e​n​i​al/).

(2) Paul Scharre, Army of None : Autonomous Weapons and the Future of War, W. W. Norton & Company, New York, 2018.

(3) Ibidem, p. 362.

(4) Joshua Cooper Ramo, The Seventh Sense : Power, Fortune, and Survival in the Age of Networks, Little, Brown and Company, New York, 2016.

(5) Paul Scharre, op. cit., p. 50.

(6) NSA(AIR)0103(2014)ASB (REV 1), 29 janvier 2014.

(7) Paul Scharre, op. cit., p. 274.

(8) Paul Scharre, op. cit., p. 293, 295.

(9) Vernor Vinge, A Fire upon the Deep, Tor Books, New York, 1999.

(10) Joseph Henrotin, « L’aviation de combat en pleine révolution », Défense & Sécurité Internationale, no 137, septembre-octobre 2018.

Légende de la photo en première page : La connectivité des appareils de combat va s’accroître exponentiellement. Le standard F3R et le futur F4 du Rafale en témoignent déjà. (© Anthony Pecchi/Dassault Aviation)

Article paru dans la revue DSI n°139, « Face à la Russie, la mutation des forces finlandaises », janvier-février 2019.

Bienvenue sur Areion24.news.
Ce site regroupe une sélection d'articles et d'entretiens rédigés par des spécialistes des questions internationales et stratégiques (chercheurs, universitaires, etc.) et publiés dans les magazines Diplomatie, Carto, Moyen-Orient et DSI.

Dans notre boutique

dictum libero dolor. accumsan diam eget
Votre panier
Areion24.news

GRATUIT
VOIR