La question n’est donc pas de savoir quelles sont les technologies soulevant le plus d’interrogations éthiques, mais bien de déterminer qui sont les acteurs définissant les problématiques et leurs potentielles solutions, pour ensuite s’intéresser à leurs motivations et replacer leurs actions dans un contexte spécifique.
À ce titre, il est essentiel de s’extraire d’une vision par trop homogénéisante du sujet. Les inégalités sont nombreuses et pèsent de tout leur poids dans l’évaluation de l’acceptabilité éthique des technologies. La tendance, malsaine, à chercher à tout prix un bouc émissaire contribue à la sclérose du débat. Pointer du doigt les « big tech », américaines ou chinoises, certains États, ou certains individus, ne sert qu’à nous dédouaner de nos propres responsabilités et à nous éviter de questionner nos contradictions. Même si cela peut paraître un truisme, condamner ceux qui utilisent nos données alors même que nous les offrons sans même nous en soucier sur les réseaux sociaux n’a pas grand intérêt. Critiquer tel acteur qui utilise des caméras de surveillance pour contrôler sa population et lui attribuer un score social alors que nous passons notre temps à noter les autres sur Internet, n’est pas plus utile.
De la même manière, s’imaginer que nos problématiques sont universelles et que, par conséquent, les solutions ne peuvent que l’être elles-mêmes, procède d’une paresse intellectuelle qui trop souvent confine au mépris de la diversité du monde. Qu’on le veuille ou non, il est des questionnements qui paraissent essentiels en Occident mais qui ne le sont pas du tout dans d’autres environnements culturels. Il est même des environnements où les questions éthiques liées aux technologies sont totalement absentes en dehors de celles imposées par le monde occidental.
Toute réflexion sur l’éthique appliquée aux technologies digne de ce nom devrait donc intégrer une analyse du contexte dans lequel elle est menée. À ce titre, la prise en compte de la diversité culturelle sur laquelle reposent les perspectives éthiques, lorsqu’elles existent, est essentielle à une analyse honnête des enjeux liés aux technologies (10).
Quelles perspectives ?
Les débats actuels sur l’éthique appliquée aux technologies souffrent indubitablement d’une sclérose intellectuelle qui enferme la réflexion dans un cadre prédéterminé et interdit toute pensée divergente. Au motif d’être efficace et d’éviter de sombrer dans le relativisme, le discours dominant fixe les limites de l’acceptable et de l’inacceptable non pas au sujet des technologies, mais de la pensée éthique elle-même. Constitué essentiellement de résumés de résumés eux-mêmes résumant d’autres résumés, le discours sur l’éthique de l’IA s’enferme dans un cadre étroit et écarte de facto toute possibilité de questionnements profonds sur le sujet.
Dans ce contexte où la doxa écrase la réflexion, les enjeux sont grands mais ne sont pas ceux que l’on croit. Si les technologies restent un objet de choix pour l’application de la réflexion éthique, la réflexion elle-même doit être questionnée. Avant même de nous intéresser aux enjeux éthiques liés aux technologies, il serait de bon ton de nous interroger sur nos propres modalités de réflexions. Avant l’intelligence artificielle, questionnons l’intelligence naturelle, si tant est qu’elle existe. Sans nous détourner des technologies et de leur potentialités positives et négatives, posons un diagnostic honnête, à défaut d’être objectif, sur notre propension à simplifier les données d’un monde dont la complexité nous échappe trop souvent. En lieu et place de réflexions sommaires fondées sur des questions banales, il serait souhaitable de regarder le monde tel qu’il est, dans toute sa diversité et son relativisme, au lieu de le limiter à ce que certains voudraient qu’il soit. Écraser la diversité au nom d’une supériorité culturelle ou idéelle ne peut que conduire à une tyrannie intellectuelle dont les technologies ne seraient que le vecteur.
Le monde est fait d’inégalités. Qu’elles soient acceptables ou non est une question de point de vue. Le relativisme contextuel n’est pas plus à craindre que l’universalisme absolu au nom duquel nous continuons par exemple d’exporter la démocratie par la force. À quel prix ? Pour quels résultats ? Les questions d’éthiques appliquées aux technologies doivent intégrer ces inégalités. Nous ne sommes pas tous égaux face à l’accès aux technologies. Nous ne le sommes pas non plus face aux risques ou aux bénéfices qu’elles peuvent engendrer. Nous le sommes encore moins face aux considérations éthiques.
Notes
(1) Aristote, Physique, II, 8.
(2) Lignes directrices en matière d’éthique pour une IA digne de confiance, Groupe d’experts de haut niveau sur l’intelligence artificielle, Commission européenne, 2018.
(3) Thomas Metzinger, « EU guidelines : Ethics washing made in Europe », Der Tagesspiegel, 8 avril 2019. Professeur de philosophie théorique, Thomas Metzinger a été membre du groupe d’experts de haut niveau sur l’IA ayant rédigé les lignes directrices sur l’IA de confiance.
(4) Geert Hofstede, Culture’s Consequences : Comparing Values, Behaviors, Institutions, and Organizations Across Nations, Sage Publications, 2001.
(5) Arrien, Manuel d’Epictète, V.
(6) Emmanuel R. Goffi, « Escaping the Western Cosm-Ethical Hegemony : The Importance of Cultural Diversity in the Ethical Assessment of Artificial Intelligence », AI Ethics Journal 2(2)-1, 2021.
(7) Anna Jobin, Marcello Ienca, and Effy Vayena, « The global landscape of AI ethics guidelines », Nature Machine Intelligence 1(9), septembre 2019, p. 389-399.
(8) Cass R. Sunstein, « Social norms and social roles », Columbia Law Review 96(14) vol. 96, 1996, p. 903-968.
(9) Howard S. Becker, Outsiders : Studies in the Sociology of Deviance, New York, The Free Press, 1963.
(10) Emmanuel R. Goffi, Louis Colin et Saida Belouali, « Ethical Assessment of AI Cannot Ignore Cultural Pluralism : A Call for Broader Perspective on AI Ethics », Arribat – International Journal of Human 1(2), p. 151-175, 2021.
Légende de la photo en première page : En octobre 2021, le Parlement européen votait une résolution afin de rendre obligatoire la supervision humaine aux systèmes de contrôle des personnes reposant sur l’intelligence artificielle. Dans l’optique de garantir le droit à la vie privée, les députés européens plaidaient en faveur de l’instauration de garanties lorsque les services répressifs utilisent l’intelligence artificielle. La résolution, adoptée à 377 voix contre 248, ajoute que le contrôle humain est plus que nécessaire pour réduire les risques de discrimination par l’IA. (© Shutterstock)