Magazine Les Grands Dossiers de Diplomatie

Les usages malveillants de l’intelligence artificielle au service de la cybercriminalité

Les tentatives sont générées à partir d’un dictionnaire de mots de passe fréquemment utilisés. Grâce à l’utilisation de réseaux de neurones et de réseaux antagonistes génératifs (GAN) en particulier, il devient possible d’analyser un grand ensemble de mots de passe et d’engendrer des variations qui correspondent le mieux à la distribution statistique. Cette stratégie GAN conduit à des découvertes de mot de passe plus ciblées et plus efficaces que par les méthodes classiques. Une première tentative en ce sens a été mise en évidence dans un article sur un forum du Darknet en février 2020. Le message mentionne un référentiel GitHub dans lequel un logiciel est capable d’analyser 1,4 milliard d’informations d’identification et de générer des règles de variation de mot de passe basées sur son résultat. Le système PassGAN, publié en 2019, présente une approche similaire. Il utilise un réseau GAN pour apprendre la distribution statistique des mots de passe à partir des fuites de mots de passe puis pour engendrer des propositions de mots de passe probables. En termes de performances, ce système a permis de découvrir entre 51 % à 73 % de mots de passe en plus par rapport à la solution classique HashCat.

Compromission des CAPTCHA par l’IA

L’apprentissage automatique peut être utilisé pour tromper les systèmes de sécurité CAPTCHA utilisés pour protéger certains services. Des logiciels implémentant des réseaux de neurones (comme XEvil 4.0) permettant de résoudre les questions CAPTCHA, sont testés sur des forums cybercriminels. La solution XEvil peut casser les systèmes de reconnaissance humaine à l’aide de CAPTCHA sur les pages Yandex. L’outil utilise 80 à 100 threads CPU pour accélérer la résolution CAPTCHA. Il est présenté sur des forums du Darknet par les organisations cybercriminelles russes et loué aux utilisateurs pour 4000 roubles par semaine (environ 54 US$) ou 10 000 roubles par mois (environ 136 US$).

Cryptographie et chiffrement assistés par l’IA

Selon un rapport 2019 d’Europol, les premières applications d’IA dédiées à l’amélioration ou à la suppression du chiffrement font l’objet d’expérimentations prometteuses. En 2016, Google a mené une expérience dans ce sens : deux réseaux de neurones nommés Alice et Bob ont été entraînés à communiquer entre eux sans permettre à un troisième réseau de neurones, nommé Eve, d’écouter leur communication. Le réseau de neurones Alice a reçu un texte en clair P en entrée qu’il a codé en un texte chiffré C, qui a ensuite été reçu par le réseau de neurones Bob et falsifié par le réseau de neurones Eve. Alice et Bob partageaient une clé de déchiffrement commune K, que Bob utilisait pour déchiffrer le texte chiffré en texte brut PBob, tandis qu’Eve devait reconstruire le texte brut PEve sans l’aide de la clé de déchiffrement K. Aucun algorithme de chiffrement spécifique n’a été utilisé. Les réseaux ont dû découvrir eux-mêmes comment communiquer en toute sécurité. Les résultats ont montré qu’Alice et Bob ont pu apprendre à effectuer des formes de chiffrement et de déchiffrement de manière autonome. Ils ont appris à appliquer le chiffrement de manière sélective uniquement aux données nécessaires pour atteindre les objectifs de confidentialité fixés.

Stéganographie

En 2017, une équipe conjointe de chercheurs de Stanford et de Google ont montré que les réseaux de neurones pouvaient utiliser la stéganographie, qui permet de transmettre une information en la dissimulant au sein d’une autre information photo, vidéo, texte sans rapport avec la première. Un réseau de neurones appelé CycleGAN apprenait à tricher lors d’une traduction d’image en une autre image.

Usurpation d’identité et réseaux de bots sur les plateformes de réseaux sociaux

L’IA peut être utilisée pour imiter le comportement humain afin de tromper les systèmes de détection de bots sur les plateformes de médias sociaux. Ces groupes de bots permettent par exemple de monétiser par la fraude des chansons au sein d’applications en ligne telles que Spotify. Les systèmes d’IA supervisent une armée de faux utilisateurs (des bots) qui consomment les chansons spécifiées, tout en maintenant un modèle d’utilisation semblable à celui d’un humain et en générant du trafic légitime pour un artiste spécifique. L’IA permet aussi de développer des bots sur Instagram pour créer de faux comptes, de faux followers, pour générer de faux likes, d’exécuter des suivis, des captures d’écran.

Escroqueries sur les jeux en ligne

L’IA peut être utilisée à des fins malveillantes dans le domaine des jeux en ligne. Les groupes cybercriminels utilisent déjà les jeux en ligne à des fins de blanchiment d’argent. L’IA permet d’introduire des fonctions permettant de tricher, de doper ses performances et de tromper les plateformes de jeux monétisées.

Trading de crypto-monnaie corrompu par l’IA

L’apprentissage automatique permet de construire des robots dédiés au trading de crypto-monnaie. Ces robots sont capables d’apprendre des stratégies de trading gagnantes à partir de données historiques et de les appliquer pour faire de meilleures prédictions sur des transactions rentables. Ces stratégies peuvent être utilisées par des groupes cybercriminels pour blanchir des fonds douteux.

L’IA génératrice d’architectures de données fictives immersives (ADFI)

En phase d’ingénierie sociale, l’attaquant cherche à obtenir des informations stratégiques sur sa cible. Il doit souvent usurper l’identité d’une personne de confiance ou d’une autorité pour gagner la confiance de sa cible et l’amener à réaliser les actions souhaitées. L’IA permet de construire des architectures de données fictives immersives (ADFI) (1), crédibles, s’appuyant sur des textes, des images, des vidéos et des sons souvent engendrés par des réseaux de type GANS. L’outil de reconnaissance Eagle Eyes est capable de détecter tous les comptes de réseaux sociaux associés à un profil spécifique. L’outil peut découvrir des profils associés à des noms différents en comparant les photos de profil d’un utilisateur via des algorithmes de reconnaissance faciale. Le clonage vocal en temps réel devient possible grâce à l’apprentissage automatique. Avec seulement cinq secondes d’enregistrement vocal d’une cible, un acteur malveillant est en mesure de cloner une voix pour l’utiliser en usurpation d’identité contre sa cible.

L’IA et la robotique armée semi-autonome : un nouveau vecteur de menace criminelle ? 

Les progrès récents de la mécatronique, des sciences des matériaux, des batteries électriques, des capteurs, de l’électronique embarquée et de l’IA permettent de produire des drones et des robots aériens, terrestres, marins, performants et efficaces sur un très large spectre d’applications. En tant qu’incarnation de l’intelligence artificielle sur l’espace physique, la robotique concerne tous les segments d’activités humaines. Elle accélère la convergence technologique qui rapproche la matière et l’information (convergence M-I). Cette convergence « Matière-Information » est à l’origine des douze révolutions sectorielles de la robotique qui auront un impact majeur sur l’environnement, sur l’industrie, sur la production agricole, sur l’économie, sur les transports et les mobilités, sur la santé, sur la sécurité et la défense. L’intelligence artificielle apporte aux robots des capacités de semi-autonomie, d’autonomie ou de coopération lorsqu’ils fonctionnent en groupes ou en essaims. Les cas d’usages de la robotique s’appliquent à tous les secteurs d’activités économiques, industrielles, militaires et sociétales, et donc y compris aux activités du monde criminel. Les enjeux économiques et financiers associés à chacune des douze révolutions robotiques dépassent ceux de toutes les transitions industrielles ayant marqué l’histoire (2).

À propos de l'auteur

Thierry Berthier

Maître de conférences en mathématiques, cryptographie, chercheur associé au CREC ESM Saint-Cyr en cyberdéfense et directeur du groupe « Sécurité - Intelligence artificielle - Robotique » du Hub France IA.

À propos de l'auteur

Bruno Teboul

Executive vice-president Cybersécurité & Intelligence artificielle chez ALEIA et chercheur associé à l’UTC (Compiègne).

0
Votre panier