Magazine Les Grands Dossiers de Diplomatie

« I, AI » (1)

Les progrès concomitants en matière de capacités de calcul et d’accessibilité des données ont permis, ces dernières années, une accélération de la recherche sur certains champs de l’intelligence artificielle, dont les potentialités ont fait un enjeu stratégique, tant pour les grandes puissances étatiques que pour des acteurs privés comme les géants du numérique.

Dans son roman Caves of steel (Les Cavernes d’acier), le deuxième ouvrage du Cycle des robots, l’auteur américain Isaac Asimov met en scène un robot androïde, R. Daneel Olivaw, indiscernable des êtres humains par son aspect physique. Doté d’un « cerveau positronique », il en possède également les capacités de raisonnement et de logique, mais les sentiments lui sont étrangers. Ce personnage est le point de départ de tout un univers de science-fiction, dans lequel l’auteur a également développé une réflexion personnelle sur les relations entre les hommes et les robots, qui peuvent être empreintes de tensions (le monde dans lequel évolue R. Daneel Olivaw est robotphobe, marqué par la peur des robots) et sujettes à de nombreuses interrogations, comme celle autour de la notion de « conscience » pour un robot. Asimov a notamment énoncé les « trois lois de la robotique » qui fixent les limites d’action des robots, ces derniers surpassant les humains tant sur le plan physique que cognitif, mais n’existant néanmoins que pour être au service de l’homme et devant être conçus pour être dans l’incapacité de lui nuire. 

Caves of steel a été publié en 1954, soit deux années avant la conférence de Dartmouth qui a consacré le terme d’« intelligence artificielle » (IA) en même temps qu’elle a institutionnalisé le champ de recherche éponyme. L’image associée à l’intelligence artificielle, dans la culture notamment, se rapproche, bien souvent davantage de celle de robots ou d’ordinateurs « intelligents », à l’instar du personnage de R. Daneel Olivaw, que des différentes réalités que recouvre ce terme, dont certaines font néanmoins partie de notre quotidien. Certes moins spectaculaires que les robots autonomes imaginés par Asimov, les progrès réalisés dans certains champs de la recherche sur l’IA et leurs applications n’en sont pas moins fascinants. Sur un sujet aussi large et complexe, il s’agira donc ici moins de viser une forme d’exhaustivité dans la présentation des enjeux de l’intelligence artificielle, que, plus modestement, d’en présenter les plus importants et de (tenter de) faire la part des choses entre réalité, possibilités et fantasmes (2).  

L’intelligence artificielle, un (vaste) domaine de recherche avant tout 

Il n’existe pas de définition univoque de l’intelligence artificielle. Celle donnée dans le Journal Officiel du 9 décembre 2018 renvoie l’IA à un « champ interdisciplinaire théorique et pratique qui a pour objet la compréhension de mécanismes de la cognition et de la réflexion, et leur imitation par un dispositif matériel logiciel, à des fins d’assistance ou de substitution à des activités humaines » (3). Les disciplines scientifiques concernées sont nombreuses (mathématiques, informatique, algorithmie, sciences cognitives, neurobiologie, etc.) et les finalités recherchées peuvent être très différentes. Suivant Piero Scaruffi (4), quatre grandes classes de « technologies » — ou plutôt de problèmes — sont englobées dans l’IA : traitement du langage naturel, perception visuelle (détection et reconnaissance des formes), raisonnement (analyse) et apprentissage. Ces catégories renvoient aux capacités humaines d’appréhender et d’interpréter son environnement et, le cas échéant, de se fixer des règles afin d’évoluer dans celui-ci ou d’interagir avec lui. Il serait ainsi erroné de parler de l’IA comme d’une technologie unique, elle s’appuie au contraire sur des technologies très variées qui font l’objet de travaux de recherche spécifiques, à la fois matérielles (infrastructures et processeurs de calcul dédiés, senseurs e.g.) et logicielles (algorithmes d’apprentissage e.g.).

Historiquement, deux grands courants se sont dégagés au sein de ce domaine. Le premier, appelé « symbolisme » ou « situationnisme », cherche à simuler le comportement d’un être intelligent à travers la simulation comportementale et la définition de règles. Il est fondé sur le raisonnement logique et la manipulation des symboles, et a donné lieu à la création de systèmes experts, soit des machines relativement autonomes, plus dédiées à la résolution de tâches ciblées, mais loin de l’intelligence humaine créative et capable de décision raisonnée. Le « connexionnisme » vise, lui, à reproduire le fonctionnement du cerveau humain, et particulièrement ses réseaux de neurones. Il s’agit d’une approche empirique, qui s’appuie sur un apprentissage à partir de grandes bases de données, et qui est plus adaptée à la compréhension des environnements complexes. On y retrouve en particulier les techniques d’apprentissage automatique, supervisé ou non, dont le machine learning et le deep learning, qui sont parfois confondues avec l’IA. Ce sont en effet ces techniques qui sont utilisées pour la reconnaissance d’images, indispensable pour le développement des véhicules autonomes, ou par le programme informatique AlphaGo créé par la société DeepMind, qui a été popularisé par ses victoires contre des champions de go (jeu réputé pour sa complexité) en 2015-2017. 

À propos de l'auteur

Benoît Rademacher

Directeur du domaine « Armement et économie de défense » à l’Institut de recherche stratégique de l’École militaire (IRSEM).

À propos de l'auteur

Valentin Collumeau

Aspirant de l’École polytechnique, stagiaire à l’IRSEM.

0
Votre panier