L’intégration humains-systèmes pour le SCAF

Le Man-Machine Teaming (MMT) est un domaine en pleine effervescence, avec en ligne de mire les évolutions du Rafale et le Système de Combat Aérien Futur (SCAF). Concrètement, de quoi s’agit‑il ?

Julien Dezemery. Dans un contexte où la technologie seule ne suffit plus à surpasser l’adversaire, l’avantage opérationnel reposera sur l’emploi des meilleures combinaisons tactiques, c’est-à‑dire sur la capacité flexible et dynamique à intégrer les services d’acteurs inter-
armées diversifiés en synchronisant leurs actions pour multiplier les effets que chaque agent produit isolément. Le concept de flexibilité opérationnelle est pris en compte et développé au sein de la chaire FlexTech dirigée par le professeur Guy André Boy. Au-delà du suivi de procédures opérationnelles et de l’automatisation classique qui ont tendance à rigidifier les pratiques en situations extrêmes, il est nécessaire de mieux comprendre, identifier et mettre en œuvre les solutions sociotechniques qui permettent la résolution de problèmes, sûre et efficace, en temps réel.

À l’horizon 2040, le SCAF sera composé d’une mosaïque de capacités complémentaires mises en réseau. Cette solution ouverte, sécurisée et agile devra apporter depuis (et dans) l’environnement aérospatial des services collaboratifs de haut niveau, y compris dans les milieux physiques et immatériels les plus contestés. Le défi du SCAF sera d’agréger et d’enrichir les prestations fournies par chacun de ses membres et de ses partenaires, incrémentalement, sans exclure les plates-­formes anciennes. Chaque contribution, y compris la plus modeste (1), renforcera l’équipe… L’initiative « Connect@éro » de l’état-­major de l’armée de l’Air promeut, avec le soutien d’un cloud de combat, la fusion informationnelle (au niveau tactique, au sein de communautés de mission) et l’intégration informationnelle qui associera au niveau central les données « chaudes » produites par chaque domaine d’activité à celles préalablement stockées. Le C2 accédera alors à des niveaux inédits de compréhension de l’environnement opérationnel, du comportement de l’adversaire et de l’anticipation de ses intentions.

Pour répondre à quelques-uns de ces enjeux, la Direction générale de l’armement a lancé le PEA Man-­Machine Teaming. Ce projet étudie la faisabilité d’un « système aérien cognitif ». Il explore les pistes technologiques qui, à l’échelle d’un aéronef de combat, serviront le concept d’emploi du SCAF. Les axes de recherche majeurs couvrent la performance de la collaboration humain-­machine, les capteurs intelligents et le développement d’outils d’aide à la décision basés sur des intelligences augmentées. Synapse Défense y traite deux sujets :

• l’explicabilité des IA constitue l’un des piliers de la confiance, essentielle à la qualité du teaming humain-­machine. Sous la direction de Numalis, nous cherchons, dans un environnement de combat air-air, à rendre tangible le comportement d’un réseau de neurones « tactique » grâce à des métriques opérationnelles synthétiques et compréhensibles pour un équipage au combat ;

• l’avantage tactique repose également sur l’optimisation de la distribution des tâches et des interactions entre le pilote et son « assistant virtuel ». La pertinence de ces ajustements dynamiques impose d’identifier les besoins du cockpit : ils dépendent du contexte, mais aussi de la mesure de la performance du teaming humain-­machine. En gardant toujours l’humain « In/On/Over The Loop », Synapse Défense apporte, aux côtés du professeur Guy André Boy des méthodes et des solutions transposables à la mesure de la performance collective au profit du développement des « agents virtuels » d’une mosaïque de systèmes de systèmes complexes comme le SCAF.

Ces deux thèmes mettent d’ores et déjà en évidence la complémentarité opérationnelle humain-­machine, et la nécessité d’appliquer des méthodes de Human Centered Design (2). Elles impliquent l’agent humain dès les phases initiales de conception et de simulation et mobilisent des équipes aux compétences multidisciplinaires.

L’Intelligence Artificielle (IA) et l’ergonomie jouent un rôle central dans le MMT. Quelles autres disciplines doivent être mobilisées ?

Au-delà de l’ergonomie traditionnelle, il faut aujourd’hui considérer l’intégration humains-systèmes (Human-Systems Integration ou HSI). Le HSI est en cours de développement, notamment au sein d’organisations comme INCOSE (3) et la chaire FlexTech (4). Les disciplines concernées sont les suivantes : l’inter-action homme-­machine (Human Computer Interaction ou HCI) et le génie logiciel ; la science des données (big data, machine learning, etc.) ; la modélisation et la simulation numérique, avec surtout des simulations humains-dans-la-boucle ; les sciences humaines et sociales ; les sciences des organisations et le domaine juridique. Il est nécessaire d’associer, à toutes les étapes du développement d’un système sociotechnique militaire complexe, des experts en informatique (data science en particulier) et en HSI, des experts en ingénierie cognitive et organisationnelle, sans oublier, bien sûr, les experts des opérations militaires.

La chaire FlexTech nous apporte progressivement les connaissances indispensables liées à la gestion des évènements inattendus ou imprévus. Face à ces occurrences, les humains ont besoin de méthodes et d’outils flexibles que l’approche traditionnelle ne permet pas. Le défi est de passer d’une automatisation rigide à une autonomie flexible (Boy, 2020). C’est par le développement de scénarios appropriés, basés sur des futurs possibles développés à partir de créativité et d’expérience opérationnelle (deux concepts souvent contradictoires) et des simulations humains-dans-la-boucle, que nous mettrons en évidence des phénomènes, propriétés systémiques et fonctions émergents, qui eux-mêmes devront être considérés dans la conception et le développement agile des technologies, organisations et métiers (voir le TOP Model de G. A. Boy).

Le nombre de paramètres et de facteurs à prendre en compte dans un système comme le SCAF sera incroyablement important : il y a le Next Generation Fighter en tant que tel, mais aussi ses capteurs et leurs flux de données, la relation aux différents effecteurs déportés, voire à des munitions éventuellement rôdeuses, la sécurité des réseaux… Comment déterminer ce qui est utile à un équipage – engagé au combat avec le stress qui y est lié – de ce qui serait générateur d’infobésité ?

Le risque d’infobésité menace également le système SCAF, limité par les capacités de calcul des machines et la bande passante des réseaux de fusion tactique et d’intégration informationnelle. L’adversaire obstruera nos canaux de communication. Il éliminera nos nœuds tactiques. Il ciblera nos capacités de calcul. Nous devons donc concevoir un système juste suffisant et frugal qui favorise la parcimonie, la robustesse et la valorisation des « bonnes informations » plutôt qu’une dispendieuse « force brute » (5).

Cette ambition nécessite de cartographier, pour chaque groupe de contextes d’emploi, le comportement du système multiagents SCAF. L’observation et l’analyse des activités en simulation, avec des humains dans la boucle, mettront ainsi en évidence la pertinence du jumeau numérique et l’émergence ou l’abandon de certaines fonctions. Confrontés à la mesure de la performance opérationnelle individuelle et collective, ces tests permettront de mieux définir et de raffiner l’ontologie du SCAF, d’exploiter le potentiel des agents, et d’explorer l’efficacité des principes doctrinaux (dont l’organisation du C2) et des choix tactiques retenus suivant le contexte étudié.

Cette méthode, basée sur la combinaison de la théorie et de l’expérience, détecte, classifie, et révèle l’importance des échanges entre agents. À chaque instant, elle distingue, pour chaque agent, humain ou machine, l’information indispensable de celle souhaitable. Nous l’appliquons déjà à l’échelle du cockpit dans le cadre de la mesure de performance du teaming humain-­machine (projet Mohican). Dans ce dernier cas, l’intégration humains-systèmes passe également par la qualité des interfaçages, c’est-à‑dire la capacité de la machine à présenter des informations pertinentes, synthétiques (la bonne information, sous le bon format) et au bon moment. Elle doit donc s’adapter aux besoins et aux capacités cognitives instantanées de l’humain, avec l’adoption de méthodes et d’outils anthropocentrés conçus et modelés autour de lui.
L’abondance d’informations, les automatismes et l’aide d’assistants virtuels modifieront en profondeur le métier du pilote de combat. À bord du Next Generation Fighter, la combativité, la pugnacité, la rigueur et la créativité seront complétées par des qualités de maturité, de plasticité mentale, d’abstraction, de synthèse et d’analyse de haut niveau. Soutenues par le développement de services de simulation interarmées collaborative, ces aptitudes favoriseront la compréhension de l’environnement de combat, du potentiel et des degrés de liberté des participants à l’opération, et des droits et devoirs de chacun.

L’explicabilité des décisions prises par les algorithmes d’IA est un enjeu majeur – quel que soit leur domaine d’application. N’y a‑t‑il cependant pas un paradoxe dès lors que ces algorithmes permettent de disposer rapidement d’options viables… alors que le temps gagné peut être perdu à les valider, le décideur devant travailler, en quelque sorte, à plusieurs cerveaux ?

L’humain et la machine sont parfaitement complémentaires. La vitesse, la capacité de calcul, la fiabilité, la mémoire quasi infinie et l’infatigabilité de la machine offrent effectivement des atouts formidables de persistance et de consistance. La prévisibilité des algorithmes (ou des réseaux de neurones) peut cependant s’avérer désastreuse face à un adversaire capable d’anticiper des manœuvres tactiques stéréotypées. De son côté, l’être humain n’est capable de traiter qu’un volume de données limité. Particulièrement vulnérable à l’infobésité, il dispose cependant de qualités encore inaccessibles aux machines : parmi celles-ci, la flexibilité, la créativité, de fortes capacités d’abstraction et d’adaptation face à l’incertitude et à la nouveauté, à partir de données partielles non structurées.

L’autonomisation des machines permet de conserver l’initiative, en instaurant un cycle décisionnel plus performant que celui de l’adversaire. Elle peut également faciliter l’accès à des environnements informationnels contestés dans lesquels l’ennemi tenterait d’isoler les clusters de forces de première ligne du reste de l’opération et du C2 « Rear ». Dans ces conditions, en réduisant la pression cognitive appliquée aux humains, la machine augmente leur intelligence : ils se concentrent sur les fonctions nobles du contrôle de la mission. Les choix tactiques sont-ils pertinents ? Sont-ils bien appliqués par les acteurs de l’opération ?

« Travailler à plusieurs cerveaux » illustre déjà le quotidien des forces armées. L’efficacité de l’équipe et le bon emploi des ressources reposent sur l’intelligence collective, définie par Pierre Lévy (6) comme une « intelligence partout distribuée, sans cesse valorisée, coordonnée en temps réel, qui aboutit à une mobilisation effective des compétences ». Cette intelligence collective s’appuie sur la communauté d’intérêt et sur un espace collaboratif. La communauté d’intérêt rassemble des « agents » partageant un but commun, traduit en mission tasking. Sa gestion dynamique est régie par les droits et les devoirs de ses membres, chacun détenant un degré d’autonomie et de décision prédéfini susceptible d’évoluer en fonction des circonstances. Elle est définie par des matrices d’engagement et par des autorités de décision (Classification Authority…). Éminemment attachées au contexte de l’opération, les règles de gestion collective peuvent favoriser des modes d’action très centralisés ou, à l’inverse, des délégations jusqu’aux plus bas niveaux tactiques. Les maîtres mots sont la flexibilité et l’adaptation sous le contrôle permanent de l’autorité que détient le Mission Command.

L’espace collaboratif tactique fait quant à lui appel à la fusion informationnelle et à la diffusion de la situation awareness au sein de la communauté d’intérêt, sources d’une conscience commune et partagée. Ces principes sont déclinés à tous les niveaux d’une opération aérienne : au sein d’un cockpit de combat biplace, d’une communauté de défense aérienne (chasseurs, systèmes de défense surface-air, C2, Air Defense Commander), etc.

Quel degré de liberté affecter à la machine et qu’est-ce que cela peut impliquer sur le plan doctrinal ?

Comme le soulignait le lieutenant-­colonel Pappalardo dans les colonnes de ce journal, l’autonomie de la machine n’est pas une fin en soi. Les degrés de liberté que l’humain lui accorde s’analysent par leur valeur ajoutée tactique comparativement au risque (7) qu’ils pourraient faire peser sur nos propres forces ou sur l’environnement (et donc sur la légitimité de l’opération). Considérés comme des équipiers, les systèmes d’IA n’ont de sens que s’ils améliorent, in fine, la productivité du teaming. L’introduction d’algorithmes d’IA dans cet écosystème suit donc des règles immuables de recherche d’efficience opérationnelle avec un niveau de risque accepté par le commandant de l’opération.

Comme tout système d’armes, le domaine de validité des algorithmes d’IA doit être testé et qualifié. Accompagné d’experts opérationnels, l’apprentissage au sein des algorithmes d’IA doit s’affranchir des comportements « tricheurs » liés à une simplification trop importante de l’environnement de simulation, et d’autre part élargir le domaine d’exploration dans les dimensions opérationnelles les plus pertinentes. Ce deuxième item poursuit deux buts : l’extension du contexte d’emploi et l’identification des zones de grande vulnérabilité (8) (peu de changements en entrée, mais de grandes variations en sortie) et des discontinuités. Ces expérimentations, indispensables à la mise en service opérationnelle, mettront en évidence la flexibilité et la robustesse de la machine à l’intérieur d’un ou de plusieurs domaines d’emploi potentiellement disjoints. Enfin, la machine doit présenter en temps réel son état de « santé », ainsi que la qualité estimée de ses sorties (par exemple un indice de confiance).

En s’appuyant sur le contexte d’emploi, sur l’indice de confiance présenté par l’algorithme d’IA, et sur sa connaissance du système, l’humain peut choisir le meilleur protocole (centralisé ou distribué) de fonctionnement du teaming. Parce qu’il est seul à pouvoir embrasser le risque sur le plan juridique et éthique, l’humain conservera toujours la responsabilité de fixer le cadre d’emploi de la machine :

• en mode centralisé, il bénéficiera des recommandations de l’IA ;

• en mode distribué, il déléguera à la machine des fonctions tactiques et supervisera son activité, avec la possibilité, à tout moment, de les reprendre à son compte.

Ce n’est pas nouveau. L’homme optimise l’exécution de ses missions en confiant des tâches à des machines. L’aviation n’a pas échappé à cette règle. Dès 1912, Lawrence Sperry inventait le conservateur d’altitude et de cap. C’est à cet agent « machine », amélioré depuis, que les pilotes de combat délèguent par mauvais temps la conduite de l’aéronef à quelques dizaines de mètres du sol et à grande vitesse. Dans le cockpit, les pilotes de chasse conservent les tâches d’analyse et d’application des règles d’engagement, de désignation de la cible et de décision d’ouverture du feu, tandis que le système d’armes fusionne les informations tactiques, leur propose des enveloppes de tir enrichies. Ces modes d’action sont possibles grâce à des systèmes d’armes connectés et performants complétés d’une panoplie de missiles capables de frapper une cible avec une grande autonomie (Meteor, SCALP, Exocet…).

D’abord circonscrites à des tâches basiques d’action taking – au sens de Mica Endsley (9) –, les machines démontrent chaque jour leur apport à la compréhension de la situation tactique (situation awareness). Les automatismes de corrélation et de fusion de pistes facilitent par exemple l’analyse décisionnelle de la Recognized Air Picture (RAP) pour le directeur tactique d’un C2 Air. Ils proposent également la classification automatique de pistes basée sur des critères de nature et de comportement. Grâce à la maturation de combinaisons de techniques d’IA, l’humain peut désormais choisir d’attribuer des fonctions décisionnelles tactiques aux machines… pour des cas d’usage pertinents, dans un domaine d’emploi où l’organisation du C2 et la bonne distribution des tâches aux agents « humain » et « machine » valoriseront leurs domaines d’excellence respectifs et in fine l’efficience opérationnelle.

L’enjeu consiste donc à formaliser les logiques d’utilisation de ces machines à la fois informatiques et mécaniques. Ces modèles cognitifs et physiques deviennent aujourd’hui sociocognitifs et cyberphysiques. C’est pour cela que nous poursuivons nos recherches afin de mieux les intégrer dans les systèmes sociotechniques d’armes du futur.

Propos recueillis par Joseph Henrotin, le 12 février 2020.

Synapse Défense

Synapse Défense travaille à des études technico-­opérationnelles ou au développement de capacités nouvelles pour l’industrie de défense. Ses solutions s’appuient sur une équipe complémentaire et expérimentée capable d’imaginer et de détailler des ontologies tactiques et doctrinales innovantes. La firme est spécialisée dans la modélisation des contextes des opérations aériennes, créant des scénarios contemporains enrichis par des simulations de systèmes multiagents scriptés ou apprenants. Déjà retenue pour deux contrats dans le cadre du PEA Man-­Machine Teaming, Synapse Défense a été récemment sélectionnée par la Banque publique d’investissement pour répondre à un challenge Intelligence Artificielle (IA) sur les stratégies d’optimisation de défense aérienne. Synapse Défense développe des partenariats stratégiques pour traiter les problématiques sous des angles d’approche opérationnels, académiques et techniques notamment avec Numalis, Estia Bidart & CentraleSupélec, chaire FlexTech, Institut de recherche technologique Saint-Exupéry…).

Notes

(1) Le colonel Herb Kemp explique que l’entretien d’un cycle de décision toujours plus rapide nécessite la combinaison des informations issues de capteurs hétérogènes et multidomaines, quel que soit leur niveau de performance. « Rethinking the Information Paradigm : The Future of Intelligence, Surveillance, and Reconnaissance in Contested Environments », The Mitchell Forum, no 18, février 2018.
(2) Guy André Boy, Orchestrating Human Centered Design, Springer, Londres, 2013.
(3) International Council on Systems Engineering.
(4) Guy André Boy, Human Systems Integration : From Virtual to Tangible, CRC Press, Boca Raton, 2020.
(5) Luc Julia, L’intelligence artificielle n’existe pas, First Éditions, Paris, 2019.
(6) Pierre Lévy, L’intelligence collective. Pour une anthropologie du cyberespace, La Découverte, Paris, 1994.
(7) Ce type de décision est typique des cycles de ciblage, où le ratio (valeur tactique/risque) fait systématiquement l’objet d’une étude approfondie, par exemple confiée à la Terminal Engagement Authority dans le ciblage dynamique.
(8) Au-delà des discontinuités « naturelles », chaque arme appelle une contre-mesure. Il est facile de leurrer des intelligences artificielles, par exemple les systèmes de reconnaissance automatique d’objets.
(9) Mica R. Endsley, ancien Chief Scientist de l’US Air Force, définissait en 1995 (« Toward a Theory of Situation Awareness in Dynamic Systems », Human Factors Journal, vol. 37, no 1, mars 1995) trois typologies de fonctions : prise de conscience de la situation (SA), décision (D), action (A).

Légende de la photo en première page : L’IA sera au cœur du SCAF, mais comment assurer une intégration harmonieuse avec les composantes humaines ? (© Eridia Studio/Dassault Aviation/V. Almansa)

Article paru dans la revue DSI n°146, « Bombardiers russes : Quelle modernisation ? », janvier-février 2020.

À propos de l'auteur

Julien Dezemery

Julien Dezemery

Président et cofondateur de Synapse Défense (www.synapse-defense.com), lieutenant-colonel (r) et Guy André Boy, professeur à CentraleSupélec et à l’ESTIA, membre titulaire de l’Académie de l’air et de l’espace.

.
Votre panier