Campagnes de désinformation : menace exagérée ou réel péril stratégique ?

Pour ne rien arranger, le facteur de temporalité vient également compliquer l’évaluation des retombées de la désinformation. Un exemple parmi d’autres : à l’origine disséminée (puis désavouée) par l’URSS dans les années 1980, l’idée selon laquelle le sida serait une arme biologique créée par les États-Unis persiste près de quarante ans plus tard dans différents cercles complotistes. On a d’ailleurs vu l’idée être réexploitée par la Russie et l’Iran dans le contexte de la pandémie du coronavirus, illustrant comment un narratif fallacieux peut survivre à ses propagateurs originels et connaître une deuxième vie. Les campagnes de désinformation ne sont donc pas (ou à tout le moins pas toujours) de simples frappes ciblées dont on peut espérer recenser définitivement les dégâts.

Un autre défi méthodologique important, enfin, réside dans la délimitation et la pondération des effets de la désinformation d’ordre stratégique. Entre des théories du complot se propageant de manière « organique », des junk news produites en masse à des fins lucratives, des narratifs fallacieux disséminés par des acteurs internes à des fins idéologiques, et les campagnes de désinformation coordonnées par des États, ce ne sont pas des vases clos, mais bien un vaste écosystème de la mauvaise information que l’on observe aujourd’hui sur le web (13). Si cartographier celui-ci est déjà un travail de Sisyphe, y circonscrire la portée exacte des campagnes de désinformation internationales apparaît encore plus laborieux.

Ne pas tomber dans le piège

Pour ces raisons et bien d’autres, de plus en plus d’observateurs appellent maintenant à adopter un changement d’approche radical face à l’enjeu de la désinformation. Les démocraties occidentales accorderaient trop d’importance aux campagnes de désinformation étrangères (particulièrement celles venues de Russie, qui réveillent évidemment de vieux fantômes), négligeant au passage des problèmes internes plus profonds. Aux États-Unis particulièrement, les affronts chroniques du président Trump contre la réalité factuelle ont forcé le constat que la désinformation la plus dommageable ne provenait pas toujours, voire pas majoritairement de l’étranger… Il importe ainsi, suggèrent ces voix, de comprendre les ressorts domestiques, sociaux et identitaires derrière l’essor de la désinformation (14).

Alors que les campagnes orchestrées exploitent bien souvent des fractures sociopolitiques préexistantes dans les sociétés ciblées, on souligne notamment le risque de minimiser (et ainsi renforcer) les mécontentements authentiques et légitimes de certaines franges des opinions publiques : la campagne du Brexit au Royaume-Uni, le mouvement des gilets jaunes en France, le militantisme de Black Lives Matter aux États-Unis, pour ne citer que ceux-là. En juin 2020, au plus fort des protestations contre la violence policière aux États-Unis, l’ancienne conseillère à la Sécurité nationale Susan Rice déclarait en direct sur CNN que certaines activités suspectes semblaient « tout droit sorties du mode d’emploi russe ». Le propos — bien que fondé sur de sérieux antécédents d’instrumentalisation de Black Lives Matter par la Russie en 2016 — n’avait alors pas particulièrement contribué à apaiser une crise d’ampleur nationale.

Ainsi, pour la chercheure Nina Jankowicz, nombre des contre-mesures actuellement consacrées par les grandes démocraties occidentales se révèlent extraordinairement inefficaces. Le fact-checking, par exemple, « n’échoue pas seulement à corriger les mensonges, il pousse souvent les individus à s’attacher deux fois plus aux informations incorrectes ». Les strategic communications, d’autre part, postulent qu’« une bonne communication ou l’établissement d’un meilleur narratif par l’Occident est la clé de la guerre de l’information », alors que « les gens ne cherchent pas un meilleur narratif, mais un meilleur mode de gouvernance » (15).

En conséquence, les sceptiques appellent désormais les démocraties occidentales à se regarder sérieusement dans le miroir plutôt qu’à « sécuritiser » désespérément le problème de la désinformation : répondre de bonne foi à la méfiance des opinions publiques plutôt que « tout mettre sur le dos » de puissances hostiles, revigorer les institutions démocratiques plutôt que chercher à resserrer le contrôle des flux d’information. Faute de quoi, ces réflexes sécuritaires ne feront que jouer en faveur des puissances adverses, qui auront beau jeu de dénoncer une censure du prétendu « monde libre ». Semblables à une maladie auto-immune, la désinformation et les réponses qu’elle vient mécaniquement générer contribueraient ainsi à affaiblir encore davantage les organismes démocratiques attaqués.

Un « caméléon »

La désinformation est-elle un problème avant tout domestique et social, mais présentant des ramifications internationales et stratégiques ? Ou l’inverse ? Si la réponse peut sembler si difficile à produire, c’est sans doute parce que les campagnes de désinformation s’apparentent à un caméléon, dont le degré d’importance stratégique change selon le contexte. Ainsi, mesurer la menace posée ou non par les campagnes de désinformation implique de comprendre en premier lieu leurs objectifs distincts et les contextes spécifiques dans lesquels celles-ci se déploient.

En contexte d’ingérence politique, elles peuvent relever avant tout de la subversion, en tentant de miner la cohésion sociale ou de décrédibiliser le processus démocratique. En contexte de crise diplomatique, elles peuvent relever plutôt de la manipulation, en cherchant à duper des États adverses sur le déroulement d’un incident, tel le cas du vol MH17 abattu au-dessus de l’Ukraine en 2014. En contexte de conflit armé, elles peuvent carrément participer d’une agression, comme en Crimée. De manière plus diffuse, elles peuvent aussi relever d’un lent effort d’« évangélisation », en cherchant à imposer de nouveaux méta-narratifs sur la scène internationale : c’est ce que fait notamment la Chine, en tentant de se forger l’image d’une « puissance responsable » et en cherchant à promouvoir un « modèle civilisationnel » chinois (16).

Il apparaît donc que les campagnes de désinformation ne sont pas nécessairement une menace omniprésente, mais posent plutôt des menaces plus ou moins aigües selon les contextes (et selon la manière dont les États conçoivent leur intérêt national). Il ne faut donc sans doute pas être surpris que nombre de contre-mesures actuellement déployées par les États visés semblent inefficaces : à péril mal compris, réponse mal pensée. Répondre à une subversion de longue durée pose par exemple des défis bien différents que gérer une tentative de manipulation circonscrite dans le temps.

Heureusement pour les pays ciblés, il semble que les États s’adonnant à des campagnes de désinformation ne soient pas tous également efficaces non plus : si la Russie, forte d’une longue tradition de « mesures actives » durant la guerre froide, manie la désinformation avec maestria, la Chine demeurerait pour l’heure plutôt en phase d’apprentissage (17). Toutefois, les progrès réalisés en quelques années par des États a priori novices en la matière, comme l’Iran, l’Arabie saoudite ou les Émirats arabes unis, suggèrent que le temps ne joue pas en faveur des défenseurs. La question fatidique désormais sera donc de savoir qui, des États assaillants ou des pays ciblés, apprendra le plus vite de ses erreurs.

En partenariat avec l’Observatoire des conflits multidimensionnels de la Chaire Raoul-Dandurand.

Notes

(1) Samantha Bradshaw et Philipp Howard, « The Global Disinformation Order 2019 Global Inventory of Organised Social Media Manipulation », University of Oxford, 2019 (https://​bit​.ly/​3​5​i​N​SCM).

(2) Rongbin Han, « Manufacturing Consent in Cyberspace : China’s “Fifty-Cent Army” », Journal of Current Chinese Affairs, 44/2, 2015, p. 105 – 134 (http://​bit​.ly/​3​5​g​O​hpc).

(3) Shubham Attal, « Disinformation Propaganda : Pakistan’s Newest Weapon On Kashmir », Indian Defence Review, juin 2020 (https://​bit​.ly/​3​8​k​j​6ey).

(4) Thomas Rid, Active Measures : The Secret History of Disinformation and Political Warfare, Farrar, Straus and Giroux, 2020, p. 249-250.

(5) Ben Buchanan, The Hacker and the State : Cyber Attacks and the New Normal of Geopolitics, Harvard University Press, 2020.

(6) Norberg et al., « The Crimea Operation : Implications for Future Russian Military Interventions », Swedish Defence Research Agency, 2014.

(7) Thomas Rid, op. cit., p. 253-263.

(8) Voir par exemple : Mark Galeotti, Putin’s Hydra : Inside Russia’s Intelligence Services, European Council on Foreign Relations, 2016 (https://​bit​.ly/​3​5​j​U​p02).

(9) Voir par exemple : David Sumpter, Outnumbered : from Facebook and Google to Fake News and Filter-Bubbles — the Algorithms That Control Our Lives (Chapitre 5), Bloomsbury, 2018.

(10) Upasana Dutta et al., « Analyzing Twitter Users’ Behavior Before and After Contact by the Internet Research Agency », Proc.ACM Hum.-Comput. Interact, août 2020 (https://​arxiv​.org/​a​b​s​/​2​0​0​8​.​0​1​2​7​3v1).

(11) Bail et al., Assessing the Russian Internet Research Agency’s impact on the political attitudes and behaviors of American Twitter users in late 2017, PNAS, Janvier 2020 (https://​www​.pnas​.org/​c​o​n​t​e​n​t​/​1​1​7​/​1​/​243).

(12) Thomas Rid, op. cit., p. 433.

(13) Voir par exemple : Peter Pomerantsev, This Is Not Propaganda : Adventures In The War Against Reality, Public Affairs, 2019.

(14) Voir par exemple : Joshua Yaffa, « Is Russian Meddling as Dangerous as we Think ? », The New Yorker, septembre 2020 (http://​bit​.ly/​3​5​l​l​wHZ).

(15) Nina Jankowicz, How to Lose the Information War : Russia, Fake News, and the Future of Conflict (chapitre 7), Bloomsbury, 2020.

(16) Jean-Baptiste Jeangène Vilmer et Paul Charon, « Russia as a Hurricane, China as Climate Change : Different Ways of Information Warfare », War on the Rocks, 21 janvier 2020 (http://​bit​.ly/​3​o​n​L​J07).

(17) Echo Huang, « Why China isn’t as skillful at disinformation as Russia », Quartz, 19 septembre 2019.

Légende de la photo en première page : Réalisée par des chercheurs de l’université américaine Cornell, la première étude d’ampleur sur la propagation d’informations erronées sur la COVID-19 par les médias a conclu que le président américain Donald Trump était la principale source de désinformation. En effet, après avoir analysé 38 millions d’articles anglophones dans le monde, il s’est avéré que le président américain était à l’origine de 37,9 % de tous les articles véhiculant (à dessein ou involontairement) des rumeurs infondées. (© Xinhua)

Article paru dans la revue Les Grands Dossiers de Diplomatie n°60, « L’État des conflits dans le monde », Février – Mars 2021 .
.
Votre panier