L’éthique de l’intelligence artificielle:
la faire au quotidien

« Il ne faut pas confondre la notion d’ambiguïté et celle d’absurdité. Déclarer l’existence absurde, c’est nier qu’elle puisse se donner un sens ; dire qu’elle est ambiguë, c’est poser que le sens n’en est jamais fixé, qu’il doit sans cesse se conquérir. »1(186)

L’intelligence artificielle (IA) connaît un développement fulgurant de ses techniques2 comme de ses applications démultipliées dans tous les secteurs (santé, urbanisme, justice, éducation, logistique, etc.). L’urgence est alors lancée aux échelles municipales, nationales et internationales d’en proposer un encadrement tant politique, qu’économique, social et éthique. Cet encadrement peut prendre la forme de rapports3 informant des stratégies, ou bien celle de comités siégeant dans des organisations pour conseiller et orienter des prises de décisions. L’objectif est de discuter, négocier et faire respecter les balises à poser pour que ce développement technologique profite au plus grand nombre. Car l’IA promet des bénéfices comme l’accélération et l’amélioration de prise de décisions, la réduction des risques dans des situations complexes (conduite automobile, production industrielle, etc.), le soutien de personnes vulnérables (assistance aux personnes âgées). Mais les impacts sociaux sont encore peu connus. On peut par exemple craindre de voir se développer de nouveaux outils de domination par l’intrusion dans la vie privée, d’accroissement des inégalités sociales par la concentration de capitaux parmi un nombre restreint d’acteurs, ou encore de voir des discriminations se renforcer ou se créer4.

Une priorité semble être ainsi donnée au sens de ce développement : il s’agit de fournir une direction, d’exprimer une signification, donner des explications5(11). C’est la question du sens de l’IA qui se pose, dans toute la polysémie du terme, pour réduire en partie l’ambiguïté dans laquelle se développe cet ensemble de technologies. En tant que branche de la philosophie de la technologie6,7,8 l’éthique de l’IA émerge dans ces questions de sens et s’alimente de ces tensions entre espoirs et craintes. Elle étudie l’espace « entre ce qu’on peut faire et ce qu’on doit faire en tentant de distinguer le bien du mal, l’idéal vers lequel tendre et les chemins qui nous en éloignent »5(13), tout en interrogeant ce que sont entre autres la liberté, l’autonomie, la responsabilité, quels sont les êtres qui en jouissent, au nom de quels droits.

La multiplication des initiatives stratégiques d’encadrement de l’IA peut se présenter comme des tentatives de conquête politique de sens. Les discours politiques et philosophiques sur ces questions d’éthique à circonscrire et à encadrer sont essentiels pour trouver à penser les mutations sociotechniques en cours et établir des stratégies de gouvernance posant les balises d’un monde souhaitable. Mais la réalisation de ce monde se fait en même temps au quotidien, au fil des gestes et décisions des architectes de l’IA, qu’ils soient ingénieurs informatique, développeurs, analystes de données, designers, gestionnaires ou éthiciens. Ils peuvent travailler dans tout secteur – sur de nouvelles formes de mobilité urbaine avec les véhicules autonomes (Ivéo, Institut du véhicule innovant), sur des dispositifs de surveillance pour assurer la sécurité dans les espaces publics (Genetec), ou bien des outils d’aide au diagnostic médical (Imagia), ou encore des logiciels de personnalisation de l’enseignement pour faciliter l’apprentissage (Domoscio). S’intéresser à la façon dont l’éthique de l’IA se fait au quotidien demande alors d’enquêter sur les pratiques de ce type d’acteurs, publics et privés, tandis qu’ils naviguent dans l’ambiguïté caractérisant le développement de l’IA et les implications sociales que cela pose. La production du sens de l’IA se réalise ainsi non seulement dans les rapports et recommandations à des fins stratégiques d’encadrement mais aussi dans les pratiques elles-mêmes de ces architectes de l’IA qui façonnent au quotidien des outils artificiellement intelligents.

Dès lors, dans cette ambiguïté ambiante où les initiatives d’encadrement de l’IA se multiplient, où les promesses de bénéfices sont grandissantes tandis que les impacts sociaux sont mal connus, où la direction, la signification et la compréhension de l’IA sont encore en pleine négociation, comment se fait l’éthique de l’IA au quotidien ?

Le développement actuel de l’IA tend à se concentrer sur des compétences spécifiques : identifier des formes dans des images, reconnaître des visages, bouger, générer des textes à partir de corpus de documents, prédire des tendances par le calcul statistique, etc. Ces compétences spécifiques sont celles que l’on retrouve dans des objets connectés et « algorithmes du quotidien »5(13) où l’IA se présente comme un ensemble de techniques par lesquelles les modes de vie contemporains s’organisent. Ces compétences et algorithmes sont façonnés par les gestes humains qui les informent – que ces gestes soient ceux de leurs concepteurs, ou bien ceux contenus dans les données générées au préalable par des individus, données à partir desquelles les algorithmes sont entraînés.

Se pose alors la question des variables choisies pour sélectionner et analyser ces données qui vont servir de base d’entraînement aux algorithmes. Car malgré des croyances en leur neutralité9, des biais – intentionnels ou non – se révèlent au fil de l’utilisation de ces algorithmes. Cela a par exemple été le cas pour Amazon Prime et son service de livraison dans la journée dont les effets discriminatoires ont été mis en lumière par une étude de Bloomberg en 2016 : sans pour autant prendre en compte de critères ethniques dans les paramètres de livraison le jour-même, Amazon Prime desservait de façon inégale les quartiers de plusieurs grandes villes américaines où la population noire était plus nombreuse10. Pour corriger ce type d’effet discriminatoire, il est alors important d’étudier les pratiques des concepteurs d’IA et que ceux-ci fassent preuve de réflexivité afin de veiller à ne pas en perpétuer des discriminations structurelles ni en créer de nouvelles11.

Ces enjeux et impacts se révèlent à tâtons, dans l’ambiguïté des écarts entre promesses technologiques et incertitudes quant à leurs effets. L’éthique se fait ainsi au fil d’un ensemble de pratiques qui interrogent le sens de l’IA, lui donnent une direction en même temps qu’elles travaillent la compréhension de cet ensemble de techniques amenées à redéfinir certaines catégories telles que la vie privée, l’autonomie, la responsabilité. L’écriture de rapports informant des stratégies est une pratique courante, mais n’est pas la seule à façonner ce que sera l’IA : les pratiques des acteurs en IA eux-mêmes, ceux qui font, gèrent et implémentent ces techniques dans des outils et objets présents dans nos quotidiens personnels et professionnels sont également primordiales. Si l’horizon habité d’IA est encore flou, il ne faudrait pas prendre pour absurde ce contexte où les interrogations et incertitudes sont bien plus nombreuses que les réponses et solutions à mettre en œuvre. L’éthique tâche de proposer les lignes d’un monde souhaitable et habitable. Elle navigue ainsi dans une certaine ambiguïté pour discuter d’un sens à construire et soulever les enjeux sociaux qui accompagnent le développement de l’IA.

Par une approche pragmatique où l’éthique travaille dès la conception des produits, l’éthicienne peut se glisser dans la peau d’une designer12 : elle mène l’enquête sur les enjeux éthiques et impacts sociaux que soulève le produit technologique en développement en même temps qu’elle impose la rigueur pragmatique d’identifier des points d’appui sur lesquels agir par des solutions de design. Dans sa dimension pragmatique, l’éthique prend ainsi la forme d’une construction de sens à même le produit en développement, un travail du concret au fil de son déroulement quotidien.

Camille Vezy

Section 1 : Actualités

1

de Beauvoir, S. Pour une morale de l'ambiguïté. Paris: Gallimard ; 1944/2013.

2

Qu’il s’agisse des techniques informatiques (puissance de calcul) ou de techniques algorithmiques comme l’apprentissage automatique (machine learning) et l’apprentissage profond (deep learning).

3

Par exemple celui d’AI Now de l’institut éponyme à NYU, l’original « Malicious AI », « Comment garder la main ? » de la Commission Nationale française de l’Informatique et des Libertés, ou encore celui plus spécifique sur l’impact de l’IA et la robotique sur le travail de l’IBA Employment Institute.

4

Déclaration de Montréal pour un développement responsable de l’intelligence artificielle, 2017 : https://www.declarationmontreal-iaresponsable.com/la-declaration

5

Villani, C. Donner un sens à l’intelligence artificielle, Pour une stratégie nationale et européenne. Paris: Mission parlementaire ; 2018.

6

Borgmann, A. Technology and the character of contemporary life: a philosophical inquiry Chicago: Univ. of Chicago Pr.; 1988.

7

Feenberg, A. Questioning technology. London, New York: Routledge ; 1999.

8

Muller, V. Fundamental issues of artificial intelligence. New York: Springer Berlin Heidelberg ; 2016.

5

Villani, C. Donner un sens à l’intelligence artificielle, Pour une stratégie nationale et européenne. Paris: Mission parlementaire ; 2018.

5

Villani, C. Donner un sens à l’intelligence artificielle, Pour une stratégie nationale et européenne. Paris: Mission parlementaire ; 2018.

9

A ce sujet, voir par exemple Crawford, K. Artificial Intelligence’s White Guy Problem. The New York Times ; 2016, juin 25 : https://www.nytimes.com/2016/06/26/opinion/sunday/artificial-intelligences-white-guy-problem.html, ou encore Eubanks, V. Automating inequality: how high-tech tools profile, police, and punish the poor. New York : St. Martin’s Press ; 2017 et O’Neil, C. Weapons of math destruction: how big data increases inequality and threatens democracy. New York: Crown ; 2016.

10

https://www.bloomberg.com/graphics/2016-amazon-same-day/ Amazon a rapidement réagi dans les semaines qui ont suivi la publication de l’article et étendu les zones de livraison dans la journée à tous les quartiers de Boston, New-York et Chicago.

11

Plusieurs initiatives existent pour faire en sorte que l’IA encourage la justice sociale. Par exemple la conférence « Fairness, Accountability, and Transparency in Machine Learning (FATML) » ou encore FATE de Microsoft

12

Dans la lignée de van Wynsberghe, A., & Robbins, S. Ethicist as Designer: A Pragmatic Approach to Ethics in the Lab. Science and Engineering Ethics. 2014 ; 20(4) : 947-961.