L’intégration humains-systèmes pour le SCAF

« Travailler à plusieurs cerveaux » illustre déjà le quotidien des forces armées. L’efficacité de l’équipe et le bon emploi des ressources reposent sur l’intelligence collective, définie par Pierre Lévy (6) comme une « intelligence partout distribuée, sans cesse valorisée, coordonnée en temps réel, qui aboutit à une mobilisation effective des compétences ». Cette intelligence collective s’appuie sur la communauté d’intérêt et sur un espace collaboratif. La communauté d’intérêt rassemble des « agents » partageant un but commun, traduit en mission tasking. Sa gestion dynamique est régie par les droits et les devoirs de ses membres, chacun détenant un degré d’autonomie et de décision prédéfini susceptible d’évoluer en fonction des circonstances. Elle est définie par des matrices d’engagement et par des autorités de décision (Classification Authority…). Éminemment attachées au contexte de l’opération, les règles de gestion collective peuvent favoriser des modes d’action très centralisés ou, à l’inverse, des délégations jusqu’aux plus bas niveaux tactiques. Les maîtres mots sont la flexibilité et l’adaptation sous le contrôle permanent de l’autorité que détient le Mission Command.

L’espace collaboratif tactique fait quant à lui appel à la fusion informationnelle et à la diffusion de la situation awareness au sein de la communauté d’intérêt, sources d’une conscience commune et partagée. Ces principes sont déclinés à tous les niveaux d’une opération aérienne : au sein d’un cockpit de combat biplace, d’une communauté de défense aérienne (chasseurs, systèmes de défense surface-air, C2, Air Defense Commander), etc.

Quel degré de liberté affecter à la machine et qu’est-ce que cela peut impliquer sur le plan doctrinal ?

Comme le soulignait le lieutenant-­colonel Pappalardo dans les colonnes de ce journal, l’autonomie de la machine n’est pas une fin en soi. Les degrés de liberté que l’humain lui accorde s’analysent par leur valeur ajoutée tactique comparativement au risque (7) qu’ils pourraient faire peser sur nos propres forces ou sur l’environnement (et donc sur la légitimité de l’opération). Considérés comme des équipiers, les systèmes d’IA n’ont de sens que s’ils améliorent, in fine, la productivité du teaming. L’introduction d’algorithmes d’IA dans cet écosystème suit donc des règles immuables de recherche d’efficience opérationnelle avec un niveau de risque accepté par le commandant de l’opération.

Comme tout système d’armes, le domaine de validité des algorithmes d’IA doit être testé et qualifié. Accompagné d’experts opérationnels, l’apprentissage au sein des algorithmes d’IA doit s’affranchir des comportements « tricheurs » liés à une simplification trop importante de l’environnement de simulation, et d’autre part élargir le domaine d’exploration dans les dimensions opérationnelles les plus pertinentes. Ce deuxième item poursuit deux buts : l’extension du contexte d’emploi et l’identification des zones de grande vulnérabilité (8) (peu de changements en entrée, mais de grandes variations en sortie) et des discontinuités. Ces expérimentations, indispensables à la mise en service opérationnelle, mettront en évidence la flexibilité et la robustesse de la machine à l’intérieur d’un ou de plusieurs domaines d’emploi potentiellement disjoints. Enfin, la machine doit présenter en temps réel son état de « santé », ainsi que la qualité estimée de ses sorties (par exemple un indice de confiance).

En s’appuyant sur le contexte d’emploi, sur l’indice de confiance présenté par l’algorithme d’IA, et sur sa connaissance du système, l’humain peut choisir le meilleur protocole (centralisé ou distribué) de fonctionnement du teaming. Parce qu’il est seul à pouvoir embrasser le risque sur le plan juridique et éthique, l’humain conservera toujours la responsabilité de fixer le cadre d’emploi de la machine :

• en mode centralisé, il bénéficiera des recommandations de l’IA ;

• en mode distribué, il déléguera à la machine des fonctions tactiques et supervisera son activité, avec la possibilité, à tout moment, de les reprendre à son compte.

Ce n’est pas nouveau. L’homme optimise l’exécution de ses missions en confiant des tâches à des machines. L’aviation n’a pas échappé à cette règle. Dès 1912, Lawrence Sperry inventait le conservateur d’altitude et de cap. C’est à cet agent « machine », amélioré depuis, que les pilotes de combat délèguent par mauvais temps la conduite de l’aéronef à quelques dizaines de mètres du sol et à grande vitesse. Dans le cockpit, les pilotes de chasse conservent les tâches d’analyse et d’application des règles d’engagement, de désignation de la cible et de décision d’ouverture du feu, tandis que le système d’armes fusionne les informations tactiques, leur propose des enveloppes de tir enrichies. Ces modes d’action sont possibles grâce à des systèmes d’armes connectés et performants complétés d’une panoplie de missiles capables de frapper une cible avec une grande autonomie (Meteor, SCALP, Exocet…).

D’abord circonscrites à des tâches basiques d’action taking – au sens de Mica Endsley (9) –, les machines démontrent chaque jour leur apport à la compréhension de la situation tactique (situation awareness). Les automatismes de corrélation et de fusion de pistes facilitent par exemple l’analyse décisionnelle de la Recognized Air Picture (RAP) pour le directeur tactique d’un C2 Air. Ils proposent également la classification automatique de pistes basée sur des critères de nature et de comportement. Grâce à la maturation de combinaisons de techniques d’IA, l’humain peut désormais choisir d’attribuer des fonctions décisionnelles tactiques aux machines… pour des cas d’usage pertinents, dans un domaine d’emploi où l’organisation du C2 et la bonne distribution des tâches aux agents « humain » et « machine » valoriseront leurs domaines d’excellence respectifs et in fine l’efficience opérationnelle.

L’enjeu consiste donc à formaliser les logiques d’utilisation de ces machines à la fois informatiques et mécaniques. Ces modèles cognitifs et physiques deviennent aujourd’hui sociocognitifs et cyberphysiques. C’est pour cela que nous poursuivons nos recherches afin de mieux les intégrer dans les systèmes sociotechniques d’armes du futur.

Propos recueillis par Joseph Henrotin, le 12 février 2020.

Synapse Défense

Synapse Défense travaille à des études technico-­opérationnelles ou au développement de capacités nouvelles pour l’industrie de défense. Ses solutions s’appuient sur une équipe complémentaire et expérimentée capable d’imaginer et de détailler des ontologies tactiques et doctrinales innovantes. La firme est spécialisée dans la modélisation des contextes des opérations aériennes, créant des scénarios contemporains enrichis par des simulations de systèmes multiagents scriptés ou apprenants. Déjà retenue pour deux contrats dans le cadre du PEA Man-­Machine Teaming, Synapse Défense a été récemment sélectionnée par la Banque publique d’investissement pour répondre à un challenge Intelligence Artificielle (IA) sur les stratégies d’optimisation de défense aérienne. Synapse Défense développe des partenariats stratégiques pour traiter les problématiques sous des angles d’approche opérationnels, académiques et techniques notamment avec Numalis, Estia Bidart & CentraleSupélec, chaire FlexTech, Institut de recherche technologique Saint-Exupéry…).

Notes

(1) Le colonel Herb Kemp explique que l’entretien d’un cycle de décision toujours plus rapide nécessite la combinaison des informations issues de capteurs hétérogènes et multidomaines, quel que soit leur niveau de performance. « Rethinking the Information Paradigm : The Future of Intelligence, Surveillance, and Reconnaissance in Contested Environments », The Mitchell Forum, no 18, février 2018.

(2) Guy André Boy, Orchestrating Human Centered Design, Springer, Londres, 2013.

(3) International Council on Systems Engineering.

(4) Guy André Boy, Human Systems Integration : From Virtual to Tangible, CRC Press, Boca Raton, 2020.

(5) Luc Julia, L’intelligence artificielle n’existe pas, First Éditions, Paris, 2019.

(6) Pierre Lévy, L’intelligence collective. Pour une anthropologie du cyberespace, La Découverte, Paris, 1994.

(7) Ce type de décision est typique des cycles de ciblage, où le ratio (valeur tactique/risque) fait systématiquement l’objet d’une étude approfondie, par exemple confiée à la Terminal Engagement Authority dans le ciblage dynamique.

(8) Au-delà des discontinuités « naturelles », chaque arme appelle une contre-mesure. Il est facile de leurrer des intelligences artificielles, par exemple les systèmes de reconnaissance automatique d’objets.

(9) Mica R. Endsley, ancien Chief Scientist de l’US Air Force, définissait en 1995 (« Toward a Theory of Situation Awareness in Dynamic Systems », Human Factors Journal, vol. 37, no 1, mars 1995) trois typologies de fonctions : prise de conscience de la situation (SA), décision (D), action (A).

Légende de la photo en première page : L’IA sera au cœur du SCAF, mais comment assurer une intégration harmonieuse avec les composantes humaines ? (© Eridia Studio/Dassault Aviation/V. Almansa)

Article paru dans la revue DSI n°146, « Bombardiers russes : Quelle modernisation ? », janvier-février 2020.

À propos de l'auteur

Julien Dezemery

Julien Dezemery

Président et cofondateur de Synapse Défense (www.synapse-defense.com), lieutenant-colonel (r) et Guy André Boy, professeur à CentraleSupélec et à l’ESTIA, membre titulaire de l’Académie de l’air et de l’espace.

Bienvenue sur Areion24.news.
Ce site regroupe une sélection d'articles et d'entretiens rédigés par des spécialistes des questions internationales et stratégiques (chercheurs, universitaires, etc.) et publiés dans les magazines Diplomatie, Carto, Moyen-Orient et DSI.

Dans notre boutique

elit. commodo non Phasellus neque. leo. justo adipiscing accumsan mi,
Votre panier
Areion24.news

GRATUIT
VOIR