Magazine Les Grands Dossiers de Diplomatie

« I, AI » (1)

L’intelligence artificielle n’est pas un mythe

Certes, rien ne permet de prédire qu’une machine aussi parfaite que le robot R. Daneel Olivaw créé par Isaac Asimov puisse être un jour construite. En revanche, il paraît plus aisé de spéculer sur le fait que celui-ci a très certainement inspiré des scientifiques et des inventeurs qui se sont lancés dans l’aventure de recréer artificiellement tout ou partie de ce qui fait une part de notre spécificité en tant qu’espèce et qui conserve, certainement, une part de mystère : l’intelligence humaine. Si l’IA est une thématique (re)devenue à la mode et si le terme en soi reste utilisé dans de nombreuses occurrences, il est parfois difficile de faire la part des choses entre ce qui relèverait effectivement d’une intelligence artificielle et ce qui n’est finalement qu’un « simple » algorithme. Il est vrai que le terme est souvent employé pour faire le « buzz » ou à titre d’argument commercial, ce qui contribue à en brouiller la perception. Il n’en demeure pas moins que ces avancées scientifiques et technologiques sont porteuses d’enjeux qui dépassent largement le seul cadre technique. En filigrane, elles reflètent également une autre facette de l’être humain qui, par-delà l’intelligence, revêt une certaine forme d’hubris. En effet, comment ne pas voir une certaine démesure dans les ambitions parfois affichées pour des projets d’IA ? On rejoint en cela la réflexion posée, notamment, par Jacques Ellul sur la fascination que la technique exerce sur l’Homme. Le caractère fascinant de l’intelligence artificielle réside, peut-être, moins dans les potentialités qu’elle peut offrir et les promesses de progrès qu’elle inspire, que justement dans la volonté des hommes (de certains d’entre eux du moins) de recréer par eux-mêmes ce dont ils ont été dotés à la naissance, et qui leur échappe d’une certaine manière. 

Notes

(1) Le titre est (volontairement) inspiré de celui du film I, Robot sorti en 2004, qui est lui (librement) inspiré des deux premiers ouvrages du Cycle des robots d’Asimov.  

(2) Pour un panorama complet de l’histoire et des enjeux de l’intelligence artificielle, voir par exemple Piero Scaruffi, Intelligence is not Artificial, autoed. 2019 (https://​bit​.ly/​3​D​7​7​lIm). 

(3) Texte 58 du « JORF n° 0285 », 2018 (https://​bit​.ly/​3​x​b​m​i8s).

(4) Intelligence is not Artificial, op. cit.

(5) Emmanuel Chiva, « L’intelligence artificielle : un moteur de l’innovation de défense française », Revue Défense Nationale, vol. 820, no 5, 2019 (https://​bit​.ly/​3​D​c​k​xLT). 

(6) Ibid.

(7) Nous parlons ici des techniques d’apprentissage, pour l’essentiel. 

(8) Cédric Villani, « Donner un sens à l’intelligence artificielle : pour une stratégie nationale et européenne », 2018 (https://​bit​.ly/​3​U​9​E​YiX). 

(9) Kevin Limonier, « La Russie dans le cyberespace : représentations et enjeux », Hérodote, vol. 152-153, no 1-2, 2014 (https://​bit​.ly/​3​D​e​G​OJi). 

(10) DG Trésor, « Stratégie nationale en matière d’intelligence artificielle : Chine », février 2017 (https://​bit​.ly/​3​c​V​N​P76).

(11) Celle-ci double tous les 18 mois environ, selon une interprétation extensive, et (à peu près) vérifiée empiriquement, de la loi de Moore. 

(12) Alice Pannier, « Calcul stratégique : le calcul haute performance et l’informatique quantique dans la quête de puissance technologique de l’Europe », Études de l’Ifri, octobre 2021 (https://​bit​.ly/​3​c​Y​Y​gH0).

(13) Henri Hours, « L’intelligence artificielle, principes et limites », Revue Défense Nationale, vol. 820, no 5, 2019 (https://​bit​.ly/​3​B​s​w​4W9). 

(14) Cédric Villani, « L’intelligence artificielle, ce n’est pas intelligent », France Culture, 4 avril 2018 (https://​bit​.ly/​3​K​Y​b​LTP).

(15) Jean-Gabriel Ganascia, Le mythe de la singularité : faut-il craindre l’intelligence artificielle ?, Le Seuil, coll. « Science ouverte », 2017. 

(16) Celui-ci a en particulier rendu en 2021 un avis relatif à l’intégration de l’autonomie dans les systèmes d’armes létaux. Voir Comité d’éthique de la défense, « Avis sur l’intégration de l’autonomie dans les systèmes d’armes létaux », ministère des Armées, avril 2021 (https://​bit​.ly/​3​U​0​O​Zi3). 

(17) Kenneth Payne, I, Warbot : The Dawn of Artificially Intelligent Conflict, Hurst, juin 2021.

Légende de la photo en première page : En 2015, une lettre ouverte signée par plus de 2000 experts dans le domaine de l’informatique et de l’intelligence artificielle, accompagnée de la signature de 10 000 personnalités du monde scientifique et technologique telles que le physicien Stephen Hawking, Bill Gates ou Elon Musk, mettaient en garde contre les dangers de l’intelligence artificielle et la menace que cette dernière pourrait constituer pour l’avenir de l’Humanité. Par cette lettre, ils appelaient notamment à une interdiction des robots militaires tueurs autonomes, que ce soit sous forme humanoïde, de drone, ou d’engin marcheur. (© Shutterstock)

Article paru dans la revue Les Grands Dossiers de Diplomatie n°70, « Géopolitique et technologies : puissance, souveraineté, défense… », Octobre-Novembre 2022.

À propos de l'auteur

Benoît Rademacher

Directeur du domaine « Armement et économie de défense » à l’Institut de recherche stratégique de l’École militaire (IRSEM).

À propos de l'auteur

Valentin Collumeau

Aspirant de l’École polytechnique, stagiaire à l’IRSEM.

0
Votre panier