Les apports de l’intelligence artificielle en cybersécurité et cyberdéfense

Dans le cadre du programme Google Brain (6), une équipe de recherche de Mountain View vient de prouver que deux intelligences artificielles (des réseaux de neurones artificiels) sont capables d’établir un protocole cryptographique puis de l’utiliser pour communiquer de manière sécurisée. L’expérience a été menée avec trois réseaux de neurones : Alice, Bob et Eve. Alice a débuté le processus en envoyant des messages chiffrés de 16 bits à Bob qui devait les déchiffrer (tout comme Eve). Seul Bob possédait la clé de déchiffrement. Plus de 10 000 messages ont été nécessaires pour que Bob puisse reconstruire les messages en clair. Ce délai correspond précisément à la phase d’apprentissage des réseaux de neurones Alice et Bob. Durant cette période, Eve a d’abord commencé à baisser son taux d’erreurs puis a définitivement perdu la partie en devenant incapable de décrypter les messages interceptés à mesure qu’Alice et Bob se comprenaient de mieux en mieux. Au bout de 15 000 messages, Eve n’était plus en mesure de décrypter la conversation établie entre Alice et Bob. Cette expérience marque un progrès considérable en cryptographie et en sécurité de l’information. Elle prouve que l’automatisation d’installation d’un protocole cryptographique entre deux réseaux de neurones est possible et ouvre de nouvelles perspectives dans le domaine des communications sécurisées.

Les assistants de preuve comme Coq (7) sont des logiciels qui permettent de manipuler et de prouver des énoncés mathématiques complexes. Ils utilisent un langage avec lequel il est possible de décrire à l’ordinateur les étapes du raisonnement mathématique établissant la véracité d’une proposition mathématique. Les « prouveurs automatiques de théorèmes » (comme SAT, SMT) établissent la véracité ou la fausseté d’un énoncé mathématique. Ils prennent l’énoncé en entrée et fournissent en sortie « vrai », « faux » ou « je ne sais pas » à partir des règles de logique et d’arithmétique. Les analyseurs de programmes sont une classe d’outils destinés à l’étude des programmes informatiques. Les systèmes de typage statique et d’interprétation abstraite peuvent ainsi garantir l’absence d’une classe d’erreurs (absence de confusion pointeurs/entiers) ou l’absence de division par zéro. L’assistant de preuve Coq, développé depuis trois décennies par des équipes de l’INRIA, s’appuie sur le calcul des constructions. Il permet de manipuler des assertions de calcul, de vérifier mécaniquement les preuves de ces assertions, d’aider à la recherche de preuves formelles ou de synthétiser des programmes certifiés à partir de preuves constructives de leurs spécifications. Ainsi, la démonstration mécanisée du théorème des quatre couleurs a été obtenue à partir de Coq. De même, le compilateur CompCert C optimisant le langage C a été programmé et prouvé en Coq. La bibliothèque CertiCrypt permet de vérifier la sécurité exacte de primitives cryptographiques dans l’assistant de preuve Coq. D’une manière générale, les programmes et compilateurs prouvés en Coq garantissent alors un haut niveau de qualité du code. Ils renforcent ainsi la sécurité numérique.

La cybersécurité de l’IA en question

Si l’IA profite pleinement à la cybersécurité, la question de la cybersécurité de l’IA devient également centrale. Les risques résident aujourd’hui principalement dans le détournement ou l’orientation que l’on peut donner à un système d’apprentissage automatisé en le « gavant » avec un ensemble de données choisies pour influencer sa phase d’entraînement. On peut alors parler de détournement du système comme cela a été le cas pour Tay, l’intelligence artificielle conversationnelle développée par Microsoft (8). Tay n’aura fait que deux courtes apparitions sur Twitter durant huit heures le 23 mars 2016 puis, le 30 mars, pour un retour d’une heure, très vite interrompu également. Ces deux périodes d’activation ont été suffisantes pour que Tay fasse la connaissance des utilisateurs du sulfureux forum 4Chan/8Chan et pour qu’elle finisse par tenir des propos nazis, pro-­Hitler, au bout de huit heures d’apprentissage seulement… Constatant la dérive raciste et négationniste de Tay, Microsoft s’est empressé de couper court à l’expérience en désactivant son robot conversationnel. Cette affaire, la première du genre, a mis en lumière la vulnérabilité de systèmes d’apprentissage statistique construits sur des réseaux de neurones qui n’intègrent pas de procédure de contrôle sur la phase d’entraînement. On imagine alors facilement les risques associés à un détournement de l’apprentissage d’un système expert d’aide à la décision utilisé dans un contexte militaire ou stratégique.

Pour conclure…

Ces quelques exemples montrent que la course à l’IA et à l’automatisation de la cybersécurité-­cyberdéfense est désormais lancée et qu’elle engendre une compétition mondiale. Les grands acteurs du numérique (GAFAMI, Google, Amazon, Facebook, Apple, Microsoft, IBM) y participent de manière assez directe en fournissant des plates-­formes open source (comme TensorFlow pour Google) de développement de solutions d’apprentissage artificiel. Ces solutions se diffusent de plus en plus rapidement entre les sphères civiles et militaires qui disposent ainsi de la même « puissance algorithmique ». Une telle évolution vers l’automatisation de la cybersécurité doit amener le responsable de la sécurité à repenser l’art de la « guerre numérique », selon de nouvelles temporalités, sous l’angle de l’intelligence artificielle.

Notes

(1https://​www​.whitehouse​.gov/​b​l​o​g​/​2​0​1​6​/​0​5​/​0​3​/​p​r​e​p​a​r​i​n​g​-​f​u​t​u​r​e​-​a​r​t​i​f​i​c​i​a​l​-​i​n​t​e​l​l​i​g​e​nce.

(2) Elaine Rich et Kevin Knight, Artificial Intelligence, 2e édition., McGraw-Hill Publishing Co., New York, 1991.

(3) John. R. Searle, « Minds, brains, and programs », Behavioral and Brain Sciences, vol. 3, n° 41, 1980.

(4) Alpha : http://​magazine​.uc​.edu/​e​d​i​t​o​r​s​_​p​i​c​k​s​/​r​e​c​e​n​t​_​f​e​a​t​u​r​e​s​/​a​l​p​h​a​.​h​tml

(5) CGC DARPA : https://​cgc​.darpa​.mil/

(6) Google Brain : « Learning to protect communications with adversarial neural cryptography » (https://​arxiv​.org/​p​d​f​/​1​6​1​0​.​0​6​9​1​8​v​1​.​pdf).

(7) The Coq Proof Assistant – INRIA : https://​coq​.inria​.fr/.

(8) Tay Microsoft : http://​blogs​.microsoft​.com/​b​l​o​g​/​2​0​1​6​/​0​3​/​2​5​/​l​e​a​r​n​i​n​g​-​t​a​y​s​-​i​n​t​r​o​d​u​c​t​i​o​n​/​#​s​m​.​0​0​0​c​u​y​h​k​u​b​7​5​c​n​4​1​0​3​k​2​f​a​d​2​i​2​60e

Légende de la photo en première page : Exercice de décontamination NBC. La combinaison entre robotique et intelligence artificielle est potentiellement puissante. (© Bundeswehr)

Article paru dans la revue DefTech n°01, « Cyber renseignement : le combat des intelligences artificielles », octobre-décembre 2018.

Dans notre boutique

ut Praesent massa ipsum libero. sem, risus. facilisis
Votre panier