Magazine Les Grands Dossiers de Diplomatie

Éthiques et technologies : pistes de réflexion pour s’extraire du discours dominant

C’est d’ailleurs cette volonté de contrôler notre environnement qui fait de la technique un objet de questionnement éthique. C’est ici un premier point qui mérite attention : contrairement au discours dominant, ce n’est pas la technique elle-même qui est questionnable sur le plan éthique, mais son utilisation. En d’autres termes, la question éthique doit porter sur les actes posés par des êtres humains et non sur les objets techniques eux-mêmes. Loin d’être anodine, cette réorientation du débat est essentielle pour replacer la question de la responsabilité au centre du débat et éviter une perte de temps et d’énergie considérable à débattre d’éthique appliquée à des objets qui sont éthiquement neutres. Le concept d’« IA de confiance », développé par l’Union européenne (2), est une illustration inquiétante de l’utilisation du langage pour abaisser la vigilance des consommateurs et dynamiser un marché prometteur, grâce à une histoire qu’on leur raconte avant d’aller se coucher comme l’écrit Thomas Metzinger (3). En laissant à penser que c’est en l’IA qu’il faut avoir confiance, le législateur européen induit le consommateur en erreur en détournant son attention des véritables objets de la responsabilité que sont les acteurs humains derrière les systèmes d’IA.

Noyé dans un discours calibré et dans la complexité des nouvelles technologies, notre premier défi est donc épistémologique et porte sur notre connaissance des enjeux liés au développement et à l’utilisation des nouvelles technologies, mais également, et peut-être surtout, sur notre capacité à évaluer honnêtement notre connaissance avant de nous prononcer. C’est là un défi éminemment éthique, puisqu’il conditionne notre agir et donc notre impact sur nos environnements. Ce défi exige également une réflexion sur notre connaissance de l’éthique ou plus exactement des éthiques, de leurs fondements, de leurs modalités d’applications, de leurs diversités, ainsi que sur la légitimité de nos présupposés éthiques souvent biaisés car décontextualisés. Ainsi l’affirmation de l’existence de valeurs universelles sur lesquelles se fonderait un code d’éthique universel démontre-t-elle notre incapacité à penser hors de sentiers battus de nos « programmations mentales » (4). À vouloir appliquer les mêmes normes à tous, on aboutit inévitablement à des compromis a minima, à la création de zones grises, à de l’incompréhension, si ce n’est à du ressentiment de la part de celles et ceux qui n’adhèrent pas à nos principes et qui finiront par ne pas respecter les règles établies.

De fait, l’identification et la compréhension des enjeux éthiques liés aux technologies nécessitent un travail de fond, complexe et rigoureux, en d’autres termes un effort que nos sociétés modernes happées par le temps et une certaine forme d’hédonisme ne semblent pas prêtes à consentir. Au bout du compte, bien plus que des technologies elles-mêmes, nos problèmes viennent le plus souvent de nous. Pour reprendre la formule d’Epictète, « ce ne sont pas les choses qui troublent les hommes, mais les évaluations prononcées sur les choses » (5). Peut-être serait-il utile de s’interroger sur la pertinence et sur la légitimité de nos évaluations éthiques portant sur les technologies.

Ce travail doit se doubler d’une capacité à penser hors des cadres établis, notamment en se libérant du discours performatif et trompeur ambiant, un discours « cosm-éthique » ayant pour objectif de masquer les impuretés de nos actions derrière un fard de vocabulaire éthique (6). Notre responsabilité, tant individuelle que collective, ne pourra s’exercer sans une prise de conscience qui elle-même repose sur notre capacité à faire preuve d’esprit critique.

L’enjeu pour nos sociétés n’est donc pas tant de réguler le développement et l’utilisation des technologies que de se fixer un objectif sociétal. Pris dans la dynamique de développement des technologies, que nous associons de manière discutable au progrès, la question de savoir quel est le modèle de société vers lequel nous désirons nous orienter, n’est pas posée. Nous courons après cette technologie et le pouvoir exorbitant qu’elle nous confère, en tentant gauchement d’en limiter les effets négatifs, sans jamais prendre le temps de savoir si ces objets techniques que nous produisons frénétiquement sont nécessaires et s’inscrivent dans un dessein sociétal. Faute de nous fixer un objectif, nous poursuivons une quête sans fin, celle d’un progrès que nous sommes incapables de définir. Comment, dès lors, déterminer une stratégie efficace visant le bien de l’humanité ?

Cette course sans but dans laquelle nous sommes engagés ne peut que conduire à une anarchie technologique dont les conséquences négatives seront sans doute très lourdes. En voulant contrôler notre environnement par les technologies pour le rendre plus agréable, nous créons le besoin de contrôler les technologies elles-mêmes et établissons les conditions de nos futurs problèmes.

Quelles technologies posent le plus de questions d’éthique ?

En l’absence de réflexion de fond, il faut donc se contenter de circonscrire l’incendie technologique que nous avons allumé et que nous entretenons inconsciemment. Vaste et complexe tâche qui requiert de notre part une identification des technologies présentant les risques les plus importants qualitativement et quantitativement. 

L’exercice est d’autant plus difficile, qu’il est nécessaire préalablement de définir ce que nous entendons par risques. 

Tout est affaire de contexte. Les technologies militaires sont ainsi louées par celles et ceux qui ressentent un besoin pressant de se défendre efficacement ou encore qui se considèrent en situation de faiblesse par rapport à un acteur menaçant plus puissant. Elles sont, dans le même temps, condamnées par celles et ceux dont les outils de défense existants ou la situation géopolitique permettent de limiter les menaces. Les outils technologiques médicaux peuvent être vus comme une menace s’ils venaient à remplacer l’humain dans les sociétés bénéficiant de médecins qualifiés et en nombre suffisant. Ils seront au contraire loués et désirés par les communautés isolées pour pallier le défaut d’accès à des services médicaux de qualité. 

On le comprend bien, le contexte est un élément essentiel dans l’évaluation éthique des technologies. Pourtant, au motif d’éviter de sombrer dans un relativisme absolu, cette dimension est souvent écartée au profit d’une approche si ce n’est universelle, au moins cosmopolite. Si l’intention est louable, son application se heurte à des limites indépassables. 

La question culturelle est l’une d’entre elles. L’essentiel de nos préoccupations éthiques liées aux technologies et à leur encadrement normatif est le produit de réflexions menées dans ce qu’il est désormais convenu d’appeler « le Nord global » ou plus simplement « le monde occidental ». Bien que ces deux aires soient strictement impossibles à définir, elles demeurent suffisamment évocatrices pour que chacun puisse en comprendre le sens. Ainsi une étude conduite par l’École polytechnique fédérale de Zurich a-t-elle permis de souligner que 67,9 % des codes d’éthiques, ou documents assimilés, relatifs à l’intelligence artificielle étaient produits par l’Occident (7). Étude confirmée par les travaux conduits par le Dynamics of AI Principles Toolbox du AI Ethics Lab ou par le Conseil européen dans le cadre de son Digital Policies Framework.

Ainsi, une infime partie de la population mondiale fixe le cap éthique en matière de technologies en convoquant des perspectives biaisées fondées sur une perception du monde étroite, limitée tant dans l’espace que dans le temps. Non contente de se poser en précepteur de moralité, cette minorité veut imposer à la majorité sa vision du monde et de la place des technologies, quitte, pour ce faire, à consentir à quelques entorses aux principes dont elle se veut par ailleurs le héraut. De fait, la focalisation sur les technologies et les problématiques éthiques qu’elles soulèvent obère toute réflexion sur l’éthique des acteurs, laissant le champ libre aux « entrepreneurs de normes » (8) et autres champions de la « croisade morale » (9).

À propos de l'auteur

Emmanuel R. Goffi

Co-directeur du Global AI Ethics Institute et co-fondateur et associé sénior du cabinet Éthiciens du numérique. Il est enseignant et consultant en éthiques appliquées à l’intelligence artificielle.

0
Votre panier