L’intelligence artificielle, une épée à double tranchant

Prometteuse ou dangereuse ? Casse-tête fondamental ou solution à tous les problèmes ? Des États-Unis à la Chine en passant par l’Europe, l’intelligence artificielle ne cesse de faire parler d’elle, quel que soit le domaine — social, politique, militaire — dans lequel elle se déploie. Pour chaque espoir que l’on rattache au potentiel de l’IA, sa rapide évolution suscite autant de risques dont on mesure encore mal les répercussions, particulièrement stratégiques. Faut-il craindre l’intelligence artificielle ? Quels enjeux soulève-t-elle aujourd’hui sur le terrain géopolitique ?

Bien que le concept soit bien connu, un obstacle fondamental se pose d’emblée : il n’y a présentement aucun consensus sur une définition consacrée de ce qu’est l’intelligence artificielle. On la définit généralement comme étant la capacité d’une machine à apprendre par l’expérience, à s’adapter à de nouveaux environnements et à accomplir des tâches qui sont habituellement dévolues aux humains. Les premières traces de ce concept remontent à un article d’Alan Turing publié en 1950, mais c’est en 1955 que le terme « intelligence artificielle » est utilisé plus systématiquement, et ce par John McCarthy, principal pionnier du domaine. Dans sa relativement courte vie, le concept fut sujet de nombreuses fabulations. On en vint même à imaginer, en quelque sorte, la création d’androïdes à la psyché humaine capables de passer le test de Turing (1). Nous sommes toutefois encore loin du moment où nous marcherons côte à côte avec les réplicants de Blade Runner.

Vieux concept, nouveaux potentiels

Loin d’être une nouveauté des années 2000, l’idée d’intelligence artificielle (IA) existe donc depuis six décennies. Son élaboration a connu des hauts et des bas, que l’on appelle communément les hivers et les printemps de l’IA (2), qui s’articulent autour de trois grandes vagues. La première a débuté dans les années 1960, et fut marquée notamment par le développement du système expert, un système informatique qui cherchait à imiter le raisonnement et la capacité de décision d’un professionnel spécialisé dans un domaine précis. Vint ensuite la deuxième vague de l’IA, qui se concentrait autour de l’apprentissage automatique/statistique (le fameux machine learning). Celle-ci comprend la reconnaissance vocale, le traitement du langage naturel ainsi que les technologies de vision par ordinateur, dont découle notamment la technologie de reconnaissance faciale. Les années 2000 ont donc consacré l’effervescence de ce domaine, avec une croissance exponentielle des données, autrement dit l’ère du big data : l’amélioration de la capacité de stockage informatique, l’accélération de la vitesse de traitement des données ainsi que la création d’algorithmes utilisant des méthodes d’apprentissages profonds (le deep learning) propulsent le développement de l’intelligence artificielle.

Survient ainsi la troisième vague, débutant il y a une dizaine d’années, avec l’introduction d’un nouveau paradigme technologique : celui du deep learning. Grâce à une stratification de la structure, souvent sous la forme de réseaux de neurones artificiels hiérarchisés selon le degré de complexité des concepts, l’apprentissage profond permet à un agent d’apprendre progressivement à partir de mégadonnées. Les véhicules autonomes présentent un bel exemple de l’état d’avancement de cette troisième vague (3). Si l’objectif poursuivi par l’IA est de permettre aux machines de fonctionner de manière hautement intelligente (4), cela se traduit au sein du domaine militaire par la volonté d’intégrer certaines technologies de l’IA, comme la perception visuelle, la reconnaissance de la parole et la reconnaissance faciale dans l’optique d’exécuter des opérations (aériennes, terrestres et maritimes) qui seraient indépendantes de toute intervention et supervision humaines. Il faut pourtant constater que nous sommes pour le moment à l’étape de l’intelligence artificielle faible, une IA capable d’accomplir des tâches au même niveau et parfois mieux que les humains, mais qui ne possède pas réellement d’intelligence.

Le péril de la « boîte noire »

Le marché de l’IA vise à amener la technologie au stade de l’intelligence artificielle générale. Celle-ci se traduit par des systèmes émulant le cerveau humain, capable d’effectuer des tâches cognitives plus diverses. Pour atteindre cette étape, un système qui améliore ou découvre automatiquement son algorithme d’apprentissage, soit le méta-apprentissage — un système qui apprend par lui-même — est nécessaire. Cette ambition comporte toutefois un risque, car les humains pourraient avoir de moins en moins de contrôle et de choix sur son application. On se souvient notamment de Tay, le chatbot lancé par Microsoft sur Twitter en 2016, qui en moins d’une journée, influencé par l’analyse des tweets qu’il recevait, tint des propos racistes, misogynes et conspirationnistes. L’expérience confirma que lorsqu’elle utilise des données du monde réel, l’IA peut conduire à des résultats désastreux.

Ce problème est d’autant plus épineux qu’à l’heure actuelle, les systèmes d’IA évoluent dans l’opacité et confrontent ceux qui tentent de l’expliquer au problème de la boîte noire, soit une incapacité à observer comment l’intelligence artificielle s’optimise et prend ses décisions. Un tel manque d’information obscurcit la compréhension du fonctionnement de l’IA, rendant son futur impondérable. L’avenir de l’intelligence artificielle, pour l’heure, repose essentiellement dans les mains du secteur privé, et plus particulièrement de neuf grandes entreprises : IBM, Microsoft, Amazon, Facebook, Apple, Baidu, Tencent, et Alibaba.

Cette liste dessine un champ de forces très polarisé entre les États-Unis et la Chine, déjà en compétition sur de nombreux fronts. Abordant une politique nationale qui incite au développement technologique, Pékin se positionne désormais en tête dans l’élaboration des normes techniques et des mécanismes de l’IA. Or, plus se réduit le fossé entre les domaines numériques et physiques, notamment par la prolifération des technologies d’IA à double usage, et plus se transforme la nature des menaces en découlant, au risque d’introduire de nouvelles tensions dans le paysage sécuritaire.

L’IA sur le champ de bataille

Ces nouveaux risques stratégiques introduits par l’IA sont de plusieurs ordres. Sur le plan des rapports de force conventionnels, l’intelligence artificielle représente un multiplicateur de force potentiel dans divers domaines hautement technologiques (5). Ce constat laisse présager que la Chine, en avance dans le domaine de l’IA, puisse exploiter celle-ci pour combler son retard sur d’autres terrains. Dans le domaine aérien, la Chine se positionne déjà comme le plus grand exportateur de véhicules aériens de combat sans pilote (UCAV, ou drones de combat) et mise maintenant sur le développement de drones et de robotique militaire disposant de capacités d’IA. En 2019, la compagnie Ziyan UAV a mis sur le marché son drone d’attaque Blowfish A2 qui exécute de manière autonome des missions de combat complexes, notamment de reconnaissance et de frappes ciblées (6). Chengdu Aircraft Industry Group, fabricant d’avions de chasse chinois, investit également dans la recherche en intelligence artificielle pour en équiper ses aéronefs.

Dans les domaines moins conventionnels, l’IA menace aussi d’ajouter encore davantage d’incertitude à une nouvelle conflictualité déjà déroutante : l’IA pourrait par exemple faciliter les cyberattaques contre les C4ISR (7) des grandes armées technologisées, notamment via le data poisoning ou en recourant à la synthèse vocale à des fins d’usurpation d’identité. De manière similaire, les deepfakes (technique de synthèse d’images qui superpose des fichiers audio et vidéo existants sur d’autres vidéos) offrent désormais la possibilité de faire dire n’importe quoi à n’importe qui. Le procédé présente donc un indéniable potentiel de désinformation, dont on s’attend à ce qu’il soit très prochainement déployé dans la sphère civile (à des fins d’ingérence électorale par exemple) et possiblement dans le domaine militaire (pour disséminer publiquement de faux contenus sur le déroulement d’un conflit par exemple).

Par ailleurs, l’essor de l’IA à des fins militaires soulève aussi de nombreux problèmes éthiques et humanitaires. Un exemple parmi d’autres : les escadrilles de microdrones, qui seront prochainement utilisées de manière autonome pour collecter et traiter des données sur les théâtres de guerre, pourraient systématiser et banaliser la surveillance des populations, et menacer de brouiller la distinction entre espaces civils et militaires, mettant ainsi à risque la sécurité des non-combattants. Se pose aussi le problème de la prolifération des technologies militaires basées sur l’IA. Le drone d’attaque chinois Blowfish A2 aurait déjà été vendu aux Émirats arabes unis, un pays présentement dépourvu (ou presque) de protocoles d’éthique militaire quant à l’utilisation de l’IA au combat. Pour l’heure, tout indique donc que l’intelligence artificielle se militarise plus rapidement que le droit des conflits armés ne s’adapte à l’IA.

Un destin funeste ?

En tout état de cause, la question reste ouverte : quel avenir nous réserve l’intelligence artificielle ? Une chose est sûre, l’IA n’est pas encore l’arme absolue que certains imaginent. Ses fonctions militaires actuelles sont d’améliorer la capacité des systèmes et des plateformes existants, et il faut disposer au préalable de compétences pointues quant au fonctionnement de l’IA pour en tirer bénéfice. Tout indique donc que ce sont les grandes puissances, comme la Chine et les États-Unis, qui conserveront à moyen terme le monopole du développement de l’IA à des fins militaires. La diffusion de ces développements, toutefois, est une tout autre question : seront-ils jalousement gardés secrets par les États ? Partagés avec les alliés de confiance ? Allègrement vendus au plus offrant ?

Faut-il craindre une prolifération des technologies d’IA à usage militaire ? Bien malin qui peut le prédire.

L’autre scénario est celui d’une implacable course aux armements de l’IA, entre la Chine et les États-Unis. Celle-ci à vrai dire est probablement déjà entamée, même si l’opacité du département de la Défense chinois nous empêche d’avoir un réel état des lieux des avancées en la matière. La question est de savoir comment ce bras de fer viendra modifier, et potentiellement perturber, les rapports de force internationaux : l’IA sera-t-elle le joker par lequel la Chine prendra l’ascendant sur les États-Unis ? Les technologies militaires qui en découlent, encore à leur stade juvénile, seront-elles source de mésinterprétation entre des superpuissances malavisées ? Dans un monde où la technologie évolue à un rythme différent de la diplomatie, l’essor de l’IA exigera vraisemblablement un effort d’intelligence humaine de taille comparable afin d’éviter les dérapages incontrôlés.

En partenariat avec l’Observatoire des conflits multidimensionnels de la Chaire Raoul-Dandurand.

Notes

(1) Le test de Turing permet de vérifier la capacité d’une machine à faire preuve de signes d’intelligence humaine. Bien que très critiqué, ce test fait encore figure de standard pour déterminer l’intelligence d’une machine.

(2) Le terme est apparu pour la première fois en 1984 lors d’un débat public à la réunion annuelle de l’AAAI (alors appelée « American Association of Artificial Intelligence »).

(3) A.-Y. Portnoff et J.-F. Soupizet, « Intelligence artificielle : opportunités et risques », Futuribles 2018/5 (no 426), p. 5-26 (https://​doi​.org/​1​0​.​3​9​1​7​/​f​u​t​u​r​.​4​2​6​.​0​005).

(4) L. Deng, « Artificial Intelligence in the Rising Wave of Deep Learning : The Historical Path and Future Outlook [Perspectives] », IEEE Signal Processing Magazine, vol. 35 no 1, p. 180-177, janvier 2018 (https://​doi​.org/​1​0​.​1​1​0​9​/​M​S​P​.​2​0​1​7​.​2​7​6​2​725).

(5) J. Johnson, « Artificial intelligence & future warfare : implications for international security », Defense & Security Analysis, 35(2), 147-169, 2019 (https://​doi​.org/​1​0​.​1​0​8​0​/​1​4​7​5​1​7​9​8​.​2​0​1​9​.​1​6​0​0​800).

(6) E. B. Kania, « Chinese military innovation in artificial intelligence : Hearing of the U.S.-China Economic and Security Review Commission », juin 2019 (http://​bit​.ly/​3​s​8​I​7S6).

(7) C4ISR : Command, Control, Communications, Computers, Intelligence, Surveillance and Reconnaissance.

Article paru dans la revue Les Grands Dossiers de Diplomatie n°60, « L’État des conflits dans le monde », Février – Mars 2021 .
.
Votre panier