Magazine Diplomatie

TikTok et ChatGPT : quand l’irruption soudaine des technologies de rupture nous projette dans l’abîme des nouveaux risques

Si l’arrivée de l’application chinoise TikTok a bouleversé le marché mondial des réseaux sociaux, celle de l’américaine ChatGPT est appelée à marquer l’histoire de l’intelligence artificielle (IA) et du cyberespace. Dès lors, quelles sont les conséquences de l’irruption dans nos écosystèmes de ces technologies de rupture sur le plan stratégique ?

TikTok aura très rapidement fait de l’ombre aux plate-formes américaines. Décrit par ses détracteurs comme l’un des chevaux de Troie déployés par la Chine, il est aussi considéré comme une application aux effets particulièrement pernicieux « au service de la crétinisation de la jeunesse » par le truchement d’un soft power intensif usant d’actions délétères sur les perceptions de ses utilisateurs, pour subvertir la psyché des jeunes Occidentaux. Une nouvelle version revisitée, en somme, du « lavage de cerveaux » d’antan. L’autre, ChatGPT, est quant à lui envisagé par un certain nombre de spécialistes en IA comme la nouvelle source génératrice de menaces imminentes, à prendre prioritairement en considération.

Quid des réalités en la matière ? Quels sont les enjeux véritables autour de ces applications ? Quid de l’influence réelle ou supposée de certains États au travers de ces applications ?

L’IA, perçue tout à la fois comme facteur de danger et de progrès ?

La plupart des Français ont déjà entendu parler du chatbot ChatGPT de la société OpenAI. Il susciterait des sentiments plutôt positifs chez nos concitoyens, à en croire le dernier sondage d’Ipsos pour Sopra Steria, de mai 2023 (1). En effet, 67 % des Français auraient déjà entendu parler de ChatGPT — une hausse significative par rapport à février, où ce chiffre ne dépassait pas les 50 %. Concernant l’IA au sens large, la majorité des Français sondés (56 %) perçoivent en elle un risque, estimant qu’elle pourrait poser de nouveaux problèmes émergents. Ce sont 44 % des sondés qui voient cependant ces outils comme un facteur de progrès, pouvant ouvrir de nouvelles perspectives positives. En effet, 59 % des Français estiment que ces outils pourraient améliorer leurs conditions de travail dans les emplois qui consistent essentiellement en des tâches répétitives. En définitive, et face aux risques perçus comme inhérents à l’implémentation de cette technologie, 71 % des personnes interrogées souhaiteraient que les entreprises qui les développent soient davantage régulées. À l’inverse, 29 % considèrent qu’il faudrait limiter la régulation de ces sociétés pour permettre l’émergence de grands groupes français et européens.

Plus récemment, le Future of Life Institute, appuyé en cela par d’autres entités, a lancé une pétition mondiale pour demander un moratoire technologique de six mois sur le développement des IA génératives. Cette pause permettrait, selon le Future of Humanity Institute (FHI), de réfléchir plus sereinement à l’arrivée de l’intelligence générale artificielle (AGI — artificial general intelligence) dans un monde qui n’est pas prêt à la recevoir. Elon Musk et quelques centaines de scientifiques se sont associés à cette demande en raison des risques liés à l’emploi, la désinformation, voire des risques de déstructuration et de perte corrélative de contrôle sur notre destinée. Peine perdue, la course à l’AGI est lancée et personne ne l’arrêtera de sitôt, à l’image des précédents moratoires demandés en 2018 par ce même FHI, à l’encontre de la recherche sur des robots armés et sur des systèmes d’armes autonomes. Une démarche vaine car, « cinq ans plus tard, ces systèmes armés semi-autonomes sont développés partout. Ils transforment l’art de la guerre » comme nous le rappelle fort justement le grand spécialiste des drones, Thierry Berthier. Et de conclure : « Les doctrines militaires évoluent en fonction de ces nouvelles armes, sans pause ni moratoire. »

Près de la moitié des tâches administratives seront indubitablement impactées

Dans ce contexte, la banque Goldman Sachs a dernièrement publié un document qui estime d’ores et déjà à 300 millions le nombre de postes que les IA pourraient très rapidement remplacer. Des prévisions à mettre en quinconce avec les très récentes annonces faites par les firmes américaines de la tech, en matière de réduction drastique de leurs effectifs. La banque américaine désigne tout de même la technologie comme « une avancée majeure », puisque de nouveaux emplois pourraient également être créés via l’émergence de ces modèles d’IA générative. Selon cette étude, ces IA pourraient même donner un coup de fouet à la productivité, en augmentant de 7 % le PIB mondial. Parmi les catégories de postes susceptibles d’être les plus touchées, 45 % des tâches administratives et des fonctions support pourraient être opérées par des outils avancés tels que ChatGPT, Midjourney ou Dall·E (2), comme le relatait Les Echos en mars dernier. Les domaines de l’agriculture, de la forêt et de la pêche ainsi que celui des forces armées pourraient être les secteurs les plus sensibles à des automatisations rapides des processus.

Gageons qu’ils ne seront pas les seuls impactés comme le redoute lui-même Sam Altman, l’emblématique patron d’OpenAI, à l’origine de ChatGPT. L’IA peut générer des textes et des images plus vrais que nature, et continue de s’améliorer à une vitesse phénoménale au point de produire des séquences filmées complètes, entièrement « photoréalistes ». Et il faut immédiatement s’en alerter selon le jeune dirigeant : « Nous en avons un peu peur », a-t-il notamment souligné auprès des médias américains — un jeune entrepreneur particulièrement inquiet que ces modèles puissent être utilisés à des fins malveillantes, sur une très grande échelle. Les IA comme ChatGPT pourraient notamment être employés pour générer de faux articles de presse très crédibles. Des dangers notables qu’OpenAI a d’ailleurs déjà soulevés dans un rapport publié en janvier 2023 (3), estimant que « les modèles de langage seront utiles aux propagandistes et vont probablement transformer les opérations d’influence en ligne ». « Une chose qui m’inquiète, c’est que nous ne serons pas les seuls créateurs de cette technologie », lance Altman, « il y en aura d’autres qui ne mettront pas les mêmes limites de sécurité que nous ». On imagine immédiatement que des régimes autoritaires pourront ainsi développer leur propre version de ces modèles génératifs, à l’image du chinois Baidu qui a dévoilé son modèle de langage, inspiré de ChatGPT. Gardons à l’esprit les propos prêtés à Vladimir Poutine, qui aurait déclaré en 2017 (4) que celui qui parviendrait à dominer le secteur de l’IA « deviendrait le maître du monde ». Funeste prévision.

À propos de l'auteur

Franck DeCloquement

Expert en intelligence économique et stratégique, enseignant à l’Institut des hautes études de défense nationale et à l’Institut de relations internationales et stratégiques, membre d’honneur du CEPS (Centre d’étude et de prospective stratégique), membre du conseil scientifique de l’Institut d’études de géopolitique appliquée et de la CyberTaskForce.

0
Votre panier