La nature hybride d’entreprises à la fois privées, d’entités idéologiques à part entière et d’acteurs géopolitiques des Big Tech pose deux questions politiques désormais centrales : celle de leur intention et celle de leur gouvernance.
Manipulations et ingérences sur Facebook des élections américaines de 2016 révélées par le scandale Cambridge Analytica, faux comptes franco-russes au Sahel détectés puis révélés par Meta (Facebook) en 2020, déplateformisation de Trump sur Twitter en 2020 suite à l’invasion du Capitole, permissivité de X (Twitter) lors des élections au Brésil puis en Turquie en 2023, guerre informationnelle russo-ukrainienne à partir de 2022 qui fait rage sur Facebook, Twitter, Instagram ou TikTok… ; cette liste non exhaustive démontre un fait saillant, nouveau, inédit : les Big Tech, qu’elles soient américaines, mais aussi chinoises (1), tiennent désormais un rôle géopolitique de premier plan.
Des acteurs géopolitiques hybrides
Les « luttes informationnelles » qui font rage ont mis en lumière la militarisation des réseaux sociaux devenus le théâtre d’opérations de cyber-déstabilisation. La guerre en Ukraine ou la confrontation franco-russe au Sahel pointent là encore le changement d’échelle, donc de nature, de ces nouveaux espaces de confrontation entre nations.
Les guerres de l’information qui s’y jouent sont désormais industrialisées, s’épanouissent à bas coût et à bas bruit sur des réseaux sociaux devenus partie intégrante de l’arsenal des guerres hybrides dont les trois matières premières et intangibles sont : les modèles artificiels de viralité, l’information (et son corollaire, la désinformation), nos schémas cognitifs et perceptifs. L’usage (para)étatique des réseaux aggrave la question de la modération pour l’emmener sur le champ sensible des stratégies militaires d’influence.
À l’instar de ChatGPT développée par OpenAI, les intelligences artificielles génératives de voix, d’images et de textes vont rapidement avoir la capacité à construire des univers de « faux » informationnel de bout en bout de la chaine. Les métavers de demain démultiplieront la capacité de manipulations cognitives et rendront pratiquement impossible la modération telle que nous l’entendons aujourd’hui. L’injection de narratifs à des fins de déstabilisation se fera demain par la parole, entre avatars. Comment contrôler alors ce qui se dit, et non ce qui s’écrit, sans tomber dans la paranoïa, la censure et, in fine, dans des pratiques techno-autoritaires que l’on rejette ? Vaste question que la seule modération ne permettra pas de résoudre.
Plus fondamentalement, les Big Tech ne sont pas simplement des « réseaux sociaux », des « outils d’IA » ou des plates-formes de streaming… Elles sont des infrastructures informationnelles en tant que telles et, de ce fait, ont rapidement muté d’espaces civils ludiques en acteurs (géo)politiques systémiques, des espaces d’influence et de puissance au cœur des dispositifs de pouvoir, incontournables dans le champ « cyber-hybride » mais aussi pour la redéfinition des contours de nos modèles démocratiques. Partant, quel rôle jouent-ils dans la lutte contre la désinformation ou, à l’inverse, son amplification ? La question, ainsi posée, est forcément complexe car elle suppose d’une part un traitement différencié de chacun de ces acteurs systémiques et, d’autre part, de dénouer ensuite leurs ambiguïtés idéologiques, économiques.
Comprendre l’ambigüité hybride des géants technologiques par le « triptyque des Big Tech » (2)
Pour saisir la question complexe de leur intentionnalité, il est nécessaire de comprendre les sous-jacents technopolitiques posés par les Big Tech. Nous avons formalisé pour cela le triptyque des Big Tech, fort aisé à comprendre. Chaque angle du triptyque est symbiotiquement imbriqué avec les deux autres pour que le système Big Tech fonctionne. Appliqué au cas particulier des réseaux sociaux, cela donne :
• un modèle économique, celui de la concentration capitalistique, de la gratuité et de la captation massive de données monétisables (en attendant de glisser vers des modèles payants actuellement en test) ;
• un modèle technologique, celui des algorithmes de modération et de recommandation, qui permet la viralité en temps réel des contenus et donc la captation cognitive des utilisateurs ;
• un modèle idéologique ou un agenda politique, permis par les deux premiers angles, qui se matérialise par la politique de modération choisie et qui renvoie souvent à « l’arbitraire » des décisions prises à la tête des réseaux.