Magazine DSI

Intelligence artificielle et conduite des opérations

Aujourd’hui, le SICS (système d’information du combat de Scorpion) en cours de déploiement dans nos unités permet de connecter tous les véhicules du groupement tactique interarmes et de partager les informations du combat en temps réel. Il est garant d’une situation opérationnelle partagée, consolidée et de confiance, en temps quasi réel, et permet une vision en continu de la situation tactique en agrégeant l’ensemble des capacités d’observation, de protection et d’agression collaboratives.

Le chef restant toujours celui qui lance l’action à son niveau, les outils de type SICS permettent une meilleure coordination, c’est-à‑dire une meilleure concentration des efforts. Ainsi, sa liberté d’action peut évoluer, lui permettant un accroissement de la fulgurance dans l’action. En conduite, l’autonomie de décision passe par une autonomie d’appréciation de la situation. Mais le chef militaire est soumis à deux contraintes : la surcharge intellectuelle avec l’afflux de données émises par les vecteurs déployés avec lesquels il est interconnecté, et le stress du combat qui amplifie le phénomène. Or les deux contraintes mentionnées ci-dessus font que le chef a des capacités d’analyse restreintes en situation extrême.

Pour pallier cela, l’Intelligence artificielle (IA) peut être une aide à la perception en sélectionnant les données que celui-ci doit visualiser, une aide à l’analyse en décomplexifiant les problèmes à résoudre, qui sont souvent multidimensionnels, et une aide à la mise en œuvre de la décision, c’est-à‑dire à l’action, par exemple pour le ciblage. Par ses calculs rapides, la machine proposera en effet des conclusions que le chef n’aura pas le temps de contester rationnellement dans le feu de l’action. Néanmoins, il convient de garder à l’esprit que les ressources embarquées dans une plateforme robotique seront en priorité consacrées à la décision au contact, c’est-à‑dire au service des capacités de feu de l’unité puis de son soutien, et enfin à l’analyse de la situation.

Délégation de tâches à des plateformes robotiques

Dans l’esprit de beaucoup de militaires, déléguer une tâche à une machine revient à lui permettre d’exécuter un certain nombre d’actions définies, dans un espace et un temps bornés, afin qu’elle réalise la mission que le chef lui aura assignée. Cela revient à définir précisément les comportements de la machine et ses réactions face à une situation donnée. La planification d’actions est, quant à elle, l’une des formes d’IA symbolique qui permet de modéliser et de décrire des comportements intelligents et autonomes. L’exemple le plus parlant concerne les plateformes robotiques.

Pour une seule plateforme, on définira des actions de base comme se déplacer en évitant les obstacles, se charger, se localiser, communiquer ; puis des plus complexes comme poursuivre une cible, suivre un autre robot, ou patrouiller dans une zone pour détecter des intrusions. Pour un ensemble de plateformes s’appuyant sur les missions individuelles, on peut ajouter une dimension de groupe et donner des missions collectives comme surveiller une zone, poursuivre un objectif ou une cible en collaboration, se relayer.

Title

Il représente la capacité pour un chef militaire de superviser un système d’armes et d’opposer son veto aux potentielles actions de ce dernier qui contreviendraient à l’esprit de la manœuvre.

Le commandement par veto permet de maîtriser l’autonomie d’un système, non par une supervision constante, mais par l’imposition de directives (telles que les limites spatio-temporelles, les autorisations de conduite, les degrés de liberté dans une action) en amont de son emploi. Il permet également le recadrage de ce système dans l’exécution de sa mission lors d’une resynchronisation, c’est-à‑dire une reprise de contrôle directe.

Mais les actions de base sont responsables d’un seul aspect du comportement, et les actions caractérisant l’état d’une plateforme sont complexes à implémenter vu le nombre de cas possibles et difficiles à faire évoluer. Aussi faut-il encadrer l’autonomisation décisionnelle des robots, c’est-à‑dire assurer la garantie mathématique d’évitement des comportements indésirables/dangereux, s’assurer de l’explicabilité des actions et de l’interprétabilité par des humains des décisions prises, préciser la coopération attendue entre robots hétérogènes, tout en anticipant l’extensibilité et la flexibilité du système, comme l’ajout d’une fonction ou d’une entité additionnelle.

0
Votre panier