Magazine DSI

Quelle intelligence artificielle pour les robots de combat ?

Les logiques de mise en réseau et de combat cloud sont un des vecteurs de la convergence technologique autour des SALA. Certes, on peut se dire que c’est une affaire de cybersécurité distante de la réflexion sur l’éthique des IA ; mais, d’un autre côté, une IA est plus simple à reparamétrer par cyber interposé que le « logiciel moral » d’un humain. Comment prendre en compte ce risque ? Par plus d’IA ?

La protection cyber des matériels militaires n’est pas un problème nouveau. Il faudra effectivement se prémunir au maximum d’attaques qui pourraient modifier le comportement du SALA, car les conséquences d’un « retournement » seraient catastrophiques. Mais je ne pense pas qu’un surplus de technologie puisse beaucoup mieux protéger qu’une discipline d’utilisation draconienne. Nous sommes d’ores et déjà habitués à travailler en réseaux internes protégés, à intégrer dans nos aéronefs des données informatiques préparées sur des stations sol « blanches », etc. Ces règles de sécurité cyber seraient sans doute similaires dans le cas du SALA. On peut également imaginer des procédures de test internes pour se prémunir de modifications non planifiées, pour détecter d’éventuelles intrusions. Bien sûr, aucune protection n’est inviolable, et le risque d’attaque cyber sera toujours présent. C’est pourquoi il faudra toujours que l’humain puisse reprendre le contrôle d’un SALA, qu’il soit capable de bloquer une de ses actions, de le mettre en veille, de le redémarrer ou de l’éteindre s’il le faut. Il faudra absolument garder à l’esprit qu’un robot ne sera jamais qu’un programme informatique dans une carcasse mécanique. La prééminence de l’humain sur la machine doit demeurer à tout prix, malgré les risques de fascination devant la technologie autonome.

Votre ouvrage est une très belle réflexion, bien charpentée, sur ce que devrait – ou pas – être une IA de combat. Mais il est toujours difficile d’en terminer un et il arrive fréquemment aux auteurs de se dire, après parution, que tel ou tel aspect aurait mérité d’être abordé, ou de l’être différemment. Avez-vous ce sentiment ?

Je n’ai qu’un seul véritable regret, c’est de ne pas avoir eu le temps de tenter de programmer le réseau de neurones que j’inclus dans l’architecture de programmation du module d’éthique artificielle. Ce réseau de neurones aurait la charge de donner une valeur éthique à une action, dans un contexte perçu par le SALA. J’aimerais tenter l’expérience, à partir d’une modélisation simplifiée de situations de combat, afin de déterminer quelles seraient les données d’entrées réellement nécessaires. J’aurais voulu pouvoir développer beaucoup plus ce point dans le livre, afin de rendre l’architecture de programmation que je propose plus détaillée, et peut-être plus percutante. Les premiers retours de lecteurs sont intéressants, car ils diffèrent selon le degré de connaissance du monde militaire. J’ai par exemple été contacté par des ingénieurs de l’armement qui ont beaucoup aimé le livre et ont trouvé très pertinent le raisonnement qui y est conduit. Mais certains lecteurs, très peu au fait des équipements militaires actuels, me reprochent de ne pas avoir établi un état des lieux des SALA existants. Or le fait est qu’il n’en existe encore aucun, mais je crois qu’ils auraient aimé que je liste les différents robots militaires qui sont employés dans le monde en démontrant qu’ils ne sont pas autonomes. Je n’avais pas envie de perdre de temps avec cela, mais peut-être que le lectorat novice en la matière aurait eu les idées plus claires sur la différence entre technologie autonome, automatique et téléopérée, que je définis pourtant en introduction. Je soupçonne également certains d’être déçus de ne pas y trouver des prédictions apocalyptiques sur la fin de l’homme ou des paris sur la célèbre singularité technologique. Le fait est que le conditionnel est très présent dans mon raisonnement, et que je tente de demeurer le plus réaliste possible. Je déteste les faiseurs d’oracles, dignes héritiers du devin d’Astérix, qui assènent des certitudes sur le devenir de la technologie pour faire peur à madame Michu. C’est certainement bien plus vendeur, mais ils participent ainsi à maintenir la plupart des gens dans une méconnaissance nourrie de craintes exagérées. J’ai voulu mener une réflexion plus pragmatique, à partir de mes connaissances du combat et de la psychologie humaine qui y est associée, et j’espère avoir réussi à respecter une certaine rigueur scientifique tout au long de l’ouvrage.

Propos recueillis par Joseph Henrotin, le 15 mars 2018.

Traduit de l’anglais par Gabriela Boutherin.

Légende de la photo en première page: La robotique de combat est encore loin d’avoir acquis son autonomie. Torpilles et missiles fire and forget sont certes autonomes, mais au regard d’une catégorie spécifique de cibles et dans des conditions d’emploi qui le sont tout autant. (© Pavel Chagoshkin/Shutterstock)

Article paru dans la revue DSI n°135, « Face à la Chine : Les défis de la marine indienne », mai-juin 2018.

À propos de l'auteur

Avatar

Brice Erbland

Officier supérieur de l’armée de Terre, auteur de « Robots tueurs ». Que seront les soldats de demain ?

Ajouter un commentaire

Cliquez ici pour poster un commentaire

Bienvenue sur Areion24.news.
Ce site regroupe une sélection d'articles et d'entretiens rédigés par des spécialistes des questions internationales et stratégiques (chercheurs, universitaires, etc.) et publiés dans les magazines Diplomatie, Carto, Moyen-Orient et DSI.

Dans notre boutique

Votre panier
Areion24.news

GRATUIT
VOIR