Uncategorized

Les apports de l’intelligence artificielle en cybersécurité et cyberdéfense

Apparue dans les années 1950, l’Intelligence Artificielle (IA) bouleverse désormais l’ensemble des pratiques et des activités humaines. Sa diffusion rapide dans les infrastructures numériques transforme l’économie mondiale, supprime certains métiers tout en créant de nouveaux besoins (1).

Le secteur de la cybersécurité-­cyberdéfense n’échappe pas à cette révolution technologique et doit anticiper des mutations disruptives qui imposent l’intégration rapide de nouvelles approches. À court terme, les forces armées seront elles aussi confrontées à la montée en puissance de l’IA dans les systèmes d’armes et d’aide à la décision. Elles devront alors relever deux défis majeurs : tirer avantage de cette IA tout en contrant celle de l’ennemi.

Intelligence artificielle : de quoi parle-t-on ?

L’histoire de l’IA est récente. Apparu en 1956 durant la célèbre conférence du Darmouth College (États-Unis), le terme d’« intelligence artificielle » est attribué à Marvin Minsky (1927-2016) qui a été le premier à en donner une définition : « L’intelligence artificielle est la science qui consiste à faire faire à des machines ce que l’homme fait moyennant une certaine intelligence ». Formulée dans le contexte de l’époque, cette définition incomplète exclut aujourd’hui des domaines majeurs de l’IA contemporaine : la perception (vision et parole), la robotique, la compréhension du langage naturel et le sens commun. Elle souffre également d’une forte récursivité qui ne tient pas compte des différences de niveaux séparant la « complexité mentale » de la complexité informatique. Une définition plus opérationnelle et plus ouverte au progrès technologique a été proposée par Elaine Rich et Kevin Knight : « L’IA est le domaine de l’informatique qui étudie comment faire faire à l’ordinateur des tâches pour lesquelles l’homme est aujourd’hui encore le meilleur (2) ».
Historiquement, il existe quatre approches distinctes de l’IA qui doivent être entendues comme des tentatives pour amener un ordinateur à : 1) penser comme les humains, 2) penser rationnellement, 3) agir comme les humains, 4) agir rationnellement. Les deux premières approches relèvent de l’intellect et de l’hypothèse d’une IA forte : « Les machines seront intelligentes, posséderont une conscience, quel que soit le support physique de leur implémentation (3) ». Les deux dernières approches, quant à elles, sont associées au comportement et à l’hypothèse d’une IA faible : « Les machines pourront agir comme si elles étaient intelligentes, mais ne penseront pas, n’auront ni émotion ni conscience ». L’une des composantes les plus actives de l’IA concerne aujourd’hui l’apprentissage automatisé qui permet à un système d’apprendre de ses expériences pour devenir plus performant. Des progrès spectaculaires ont été réalisés, ces cinq dernières années, dans les techniques d’apprentissage profond (deep learning) qui investissent désormais de nombreux domaines civils et militaires. Ainsi, la simulation de combat aérien s’appuie sur l’apprentissage automatisé pour offrir aux élèves pilotes un environnement particulièrement réaliste. En juin 2016, Alpha, une IA de simulation de combat aérien développée par une équipe de chercheurs de l’université de Cincinnati (4), a surpassé plusieurs pilotes instructeurs « humains ». Le colonel Gene Lee (US Air Force), l’un des experts défaits par Alpha, déclarait à l’issue de son dernier combat : « Alpha semblait être au courant de mes intentions et réagissait instantanément à mes changements de tactique et à mes déploiements de missiles. Elle savait comment défaire mes moindres tentatives. Elle se déplaçait instantanément entre positions défensives et offensives. C’est l’intelligence artificielle la plus agressive, la plus réactive, la plus dynamique et la plus crédible que j’ai observée à ce jour ».

L’apprentissage artificiel au service de la cybersécurité-cyberdéfense

On attend d’une IA qu’elle soit suffisamment généraliste, autonome et auto-­apprenante. Elle doit devenir performante et adaptative dans des situations dynamiques, changeantes et singulières. Elle doit être capable d’assister l’apprentissage humain et de gérer des dialogues entre « agents » très hétérogènes. Il faut pour cela traiter la cognition comme une émergence dans l’interaction avec l’environnement. Cela implique la conception d’une nouvelle génération de systèmes informatiques qui vont privilégier une cognition située, distribuée, émergente (prolifération d’agents intelligents et auto-­apprentissage). Un système d’apprentissage est en général composé d’un modèle paramétrique, d’une façon d’interagir avec l’environnement, d’une « fonction de coût » à minimiser, et d’un algorithme destiné à adapter le modèle, en utilisant les données issues de l’environnement, avec l’objectif d’optimiser la fonction de coût.
Les réseaux de neurones artificiels fonctionnent sur ce modèle et peuvent être considérés comme le moteur de l’apprentissage machine. Les techniques de deep learning utilisent des réseaux de neurones dotés de plusieurs couches intermédiaires qui permettent de subdiviser le travail de catégorisation. Chaque couche intermédiaire du réseau de neurones traite un sous-­problème plus simple et fournit le résultat à la couche suivante. Appliquée à la reconnaissance d’images, cette architecture permet de s’affranchir d’une phase d’analyse préparatoire des images avant de les fournir au réseau. Dans un contexte de deep learning, on laisse aux couches du réseau le soin de découvrir les caractéristiques déterminantes d’un objet dans une image. Ce fonctionnement se rapproche de celui du cerveau humain. Après avoir fourni une grande quantité d’images pour son entraînement, le réseau de neurones se règle lui-même pour apprendre à reconnaître les images suivantes. Cette autonomie dans l’apprentissage ouvre la voie à de nouvelles capacités utilisées notamment en cybersécurité.
Les grands acteurs de la cybersécurité s’orientent désormais vers l’UBA (User Behavior Analytics), qui fournit une image précise, presque en temps réel, du risque associé au comportement de l’utilisateur. Le développement de produits de cybersécurité embarquant des technologies d’UBA se généralise depuis 2012. Les finalistes de l’édition 2015 de la conférence RSA « Innovation Sandbox » ont présenté des solutions de smart-security UBA particulièrement efficaces. Qu’il s’agisse de HP, de SentinelOne ou de Fortscale, ces finalistes ont dévoilé en 2015 leurs produits combinant le machine learning et les technologies classiques de supervision pour détecter les comportements anormaux. Une solution utilisant l’UBA apprend, sans prérequis de modèle, à partir de « l’historique de vie » d’un système puis catégorise et sépare les comportements « anormaux » de ceux qui sont conformes aux standards de sécurité. L’UBA est ainsi en mesure de produire des alertes sur des événements susceptibles de créer un contexte de vulnérabilité.
Le fonctionnement de l’UBA repose sur l’apprentissage statistique. Celui-ci utilise les données massives qui demeuraient jusqu’à présent sous-­employées ou seulement partiellement utilisées comme les bases de logs des systèmes connectés. Les systèmes s’appuyant sur l’UBA exploitent massivement les rapports d’activité, les fichiers de logs et le SIEM (Security Information Management System) en tant que base d’apprentissage. Ils définissent des motifs typiques correspondant statistiquement à des comportements à risque. Les solutions UBA contiennent souvent plusieurs moteurs de détection d’anomalies, complémentaires, qui collaborent pour couvrir un large spectre de menaces. On y trouve en général un moteur de détection de signal faible, un moteur de corrélation métier issu de l’expertise d’ingénieurs en cybersécurité complétés par une base de connaissances globale régulièrement mise à jour à partir des retours d’expériences clients. Ces moteurs travaillent sur une base (Big Data) souvent externalisée qui contient les données d’entrées utilisées ensuite lors de la phase d’apprentissage. Les technologies d’UBA fournissent ainsi une approche optimale dans la détection de menaces inédites et d’attaques furtives, donc complexes. À telle enseigne que le président de la NSA déclarait dès 2012 : « L’analyse comportementale est la solution la plus plausible contre les APT [menaces persistantes avancées] ».

Vers une automatisation de la cybersécurité-cyberdéfense

Qu’il s’agisse de robotique militaire, de systèmes d’armes semi-­autonomes ou de plates-formes d’aide à la décision destinées au commandement, les domaines d’application de l’IA dans un contexte militaire se diversifient à grande vitesse. Les progrès réalisés en IA permettent de plus en plus souvent de surpasser les capacités des meilleurs experts humains. C’est désormais le cas en cybersécurité, avec une tendance forte à l’automatisation des processus. Ainsi, les trois avancées technologiques qui suivent témoignent d’une évolution vers une cyberdéfense « robotisée ».

Les « Bug-Hunting Bots » – CGC consacrés à la cyberdéfense

Lancé par la DARPA dans le cadre du Cyber Grand Challenge (CGC) 2016 (5), ce programme concerne la détection automatisée des bugs et des vulnérabilités présents dans les programmes informatiques. Son objectif est de robotiser et d’industrialiser la cybersécurité. La phase finale du CGC s’est déroulée les 6 et 7 août 2016, à Las Vegas. Il a opposé sept systèmes robotisés développés durant trois ans par sept équipes du concours. Les sept solutions retenues ont été mises en compétition dans la détection automatique de vulnérabilités logicielles et réseaux présentes dans les systèmes adverses et dans la protection de son propre réseau. Conçu avant tout comme un démonstrateur, le tournoi CGC a prouvé qu’il était désormais possible de créer des agents logiciels capables de scanner de façon automatique des codes adaptés puis de détecter certaines de leurs vulnérabilités. La compétition a eu lieu dans un environnement numérique spécifique dans lequel se sont affrontés quinze supercalculateurs détecteurs de vulnérabilités informatiques devant un comité d’arbitrage qui a finalement désigné l’équipe ForAllSecure comme gagnante du CGC.
La DARPA souhaite désormais développer des agents logiciels « chasseurs de bugs » ouvrant ainsi la voie à une cybersécurité automatisée, industrialisée, exploitant massivement les techniques de l’intelligence artificielle. Les démonstrateurs finalistes du CGC doivent évoluer à très court terme vers la production d’agents « Bug-­Hunting Bots » qui seront déployés sur l’ensemble des réseaux sensibles. Ces futurs agents autonomes pourront être utilisés autant en mode défensif qu’en version offensive afin de détecter certaines des vulnérabilités d’un système adverse. Cette évolution vers une cyberdéfense « robotisée » se trouve toutefois limitée par un résultat mathématique lié au problème de l’arrêt (Turing) qui prouve qu’il n’existe pas d’analyseur universel capable de décider sans jamais se tromper, pour tout programme, si ce programme est sûr ou non. Cette limite théorique permet d’affirmer que la cybersécurité absolue n’existe pas… Cela dit, une telle borne n’interdit pas le développement de systèmes de détections dont la performance pourrait atteindre 90 ou 95 % de l’ensemble des vulnérabilités.

Les réseaux de neurones en cryptographie

Dans le cadre du programme Google Brain (6), une équipe de recherche de Mountain View vient de prouver que deux intelligences artificielles (des réseaux de neurones artificiels) sont capables d’établir un protocole cryptographique puis de l’utiliser pour communiquer de manière sécurisée. L’expérience a été menée avec trois réseaux de neurones : Alice, Bob et Eve. Alice a débuté le processus en envoyant des messages chiffrés de 16 bits à Bob qui devait les déchiffrer (tout comme Eve). Seul Bob possédait la clé de déchiffrement. Plus de 10 000 messages ont été nécessaires pour que Bob puisse reconstruire les messages en clair. Ce délai correspond précisément à la phase d’apprentissage des réseaux de neurones Alice et Bob. Durant cette période, Eve a d’abord commencé à baisser son taux d’erreurs puis a définitivement perdu la partie en devenant incapable de décrypter les messages interceptés à mesure qu’Alice et Bob se comprenaient de mieux en mieux. Au bout de 15 000 messages, Eve n’était plus en mesure de décrypter la conversation établie entre Alice et Bob. Cette expérience marque un progrès considérable en cryptographie et en sécurité de l’information. Elle prouve que l’automatisation d’installation d’un protocole cryptographique entre deux réseaux de neurones est possible et ouvre de nouvelles perspectives dans le domaine des communications sécurisées.
Les assistants de preuve comme Coq (7) sont des logiciels qui permettent de manipuler et de prouver des énoncés mathématiques complexes. Ils utilisent un langage avec lequel il est possible de décrire à l’ordinateur les étapes du raisonnement mathématique établissant la véracité d’une proposition mathématique. Les « prouveurs automatiques de théorèmes » (comme SAT, SMT) établissent la véracité ou la fausseté d’un énoncé mathématique. Ils prennent l’énoncé en entrée et fournissent en sortie « vrai », « faux » ou « je ne sais pas » à partir des règles de logique et d’arithmétique. Les analyseurs de programmes sont une classe d’outils destinés à l’étude des programmes informatiques. Les systèmes de typage statique et d’interprétation abstraite peuvent ainsi garantir l’absence d’une classe d’erreurs (absence de confusion pointeurs/entiers) ou l’absence de division par zéro. L’assistant de preuve Coq, développé depuis trois décennies par des équipes de l’INRIA, s’appuie sur le calcul des constructions. Il permet de manipuler des assertions de calcul, de vérifier mécaniquement les preuves de ces assertions, d’aider à la recherche de preuves formelles ou de synthétiser des programmes certifiés à partir de preuves constructives de leurs spécifications. Ainsi, la démonstration mécanisée du théorème des quatre couleurs a été obtenue à partir de Coq. De même, le compilateur CompCert C optimisant le langage C a été programmé et prouvé en Coq. La bibliothèque CertiCrypt permet de vérifier la sécurité exacte de primitives cryptographiques dans l’assistant de preuve Coq. D’une manière générale, les programmes et compilateurs prouvés en Coq garantissent alors un haut niveau de qualité du code. Ils renforcent ainsi la sécurité numérique.

La cybersécurité de l’IA en question

Si l’IA profite pleinement à la cybersécurité, la question de la cybersécurité de l’IA devient également centrale. Les risques résident aujourd’hui principalement dans le détournement ou l’orientation que l’on peut donner à un système d’apprentissage automatisé en le « gavant » avec un ensemble de données choisies pour influencer sa phase d’entraînement. On peut alors parler de détournement du système comme cela a été le cas pour Tay, l’intelligence artificielle conversationnelle développée par Microsoft (8). Tay n’aura fait que deux courtes apparitions sur Twitter durant huit heures le 23 mars 2016 puis, le 30 mars, pour un retour d’une heure, très vite interrompu également. Ces deux périodes d’activation ont été suffisantes pour que Tay fasse la connaissance des utilisateurs du sulfureux forum 4Chan/8Chan et pour qu’elle finisse par tenir des propos nazis, pro-­Hitler, au bout de huit heures d’apprentissage seulement… Constatant la dérive raciste et négationniste de Tay, Microsoft s’est empressé de couper court à l’expérience en désactivant son robot conversationnel. Cette affaire, la première du genre, a mis en lumière la vulnérabilité de systèmes d’apprentissage statistique construits sur des réseaux de neurones qui n’intègrent pas de procédure de contrôle sur la phase d’entraînement. On imagine alors facilement les risques associés à un détournement de l’apprentissage d’un système expert d’aide à la décision utilisé dans un contexte militaire ou stratégique.

Pour conclure…

Ces quelques exemples montrent que la course à l’IA et à l’automatisation de la cybersécurité-­cyberdéfense est désormais lancée et qu’elle engendre une compétition mondiale. Les grands acteurs du numérique (GAFAMI, Google, Amazon, Facebook, Apple, Microsoft, IBM) y participent de manière assez directe en fournissant des plates-­formes open source (comme TensorFlow pour Google) de développement de solutions d’apprentissage artificiel. Ces solutions se diffusent de plus en plus rapidement entre les sphères civiles et militaires qui disposent ainsi de la même « puissance algorithmique ». Une telle évolution vers l’automatisation de la cybersécurité doit amener le responsable de la sécurité à repenser l’art de la « guerre numérique », selon de nouvelles temporalités, sous l’angle de l’intelligence artificielle.

Notes
(1https://​www​.whitehouse​.gov/​b​l​o​g​/​2​0​1​6​/​0​5​/​0​3​/​p​r​e​p​a​r​i​n​g​-​f​u​t​u​r​e​-​a​r​t​i​f​i​c​i​a​l​-​i​n​t​e​l​l​i​g​e​nce.
(2) Elaine Rich et Kevin Knight, Artificial Intelligence, 2e édition., McGraw-Hill Publishing Co., New York, 1991.
(3) John. R. Searle, « Minds, brains, and programs », Behavioral and Brain Sciences, vol. 3, n° 41, 1980.
(4) Alpha : http://​magazine​.uc​.edu/​e​d​i​t​o​r​s​_​p​i​c​k​s​/​r​e​c​e​n​t​_​f​e​a​t​u​r​e​s​/​a​l​p​h​a​.​h​tml
(5) CGC DARPA : https://​cgc​.darpa​.mil/
(6) Google Brain : « Learning to protect communications with adversarial neural cryptography » (https://​arxiv​.org/​p​d​f​/​1​6​1​0​.​0​6​9​1​8​v​1​.​pdf).
(7) The Coq Proof Assistant – INRIA : https://​coq​.inria​.fr/.
(8) Tay Microsoft : http://​blogs​.microsoft​.com/​b​l​o​g​/​2​0​1​6​/​0​3​/​2​5​/​l​e​a​r​n​i​n​g​-​t​a​y​s​-​i​n​t​r​o​d​u​c​t​i​o​n​/​#​s​m​.​0​0​0​c​u​y​h​k​u​b​7​5​c​n​4​1​0​3​k​2​f​a​d​2​i​2​60e

Légende de la photo en première page : Exercice de décontamination NBC. La combinaison entre robotique et intelligence artificielle est potentiellement puissante. (© Bundeswehr)

Article paru dans la revue DefTech n°01, « Cyber renseignement : le combat des intelligences artificielles », octobre-décembre 2018.

À propos de l'auteur

Thierry Berthier

Maître de conférences en mathématiques, cryptographie, chercheur associé au CREC ESM Saint-Cyr en cyberdéfense et directeur du groupe « Sécurité - Intelligence artificielle - Robotique » du Hub France IA.

0
Votre panier