Avec l’arrivée, entre autres, de Google BERT en 2018, de DALL-E ou LaMDA en 2021, de Midjourney, mais surtout de ChatPGT en 2022, en quelques années les systèmes d’intelligences artificielles génératives (SIA Géné) se sont imposés comme un sujet incontournable.
L’avènement des SIA Géné s’est évidemment accompagné de questionnements éthiques relatifs aux impacts potentiels de cette nouvelle famille d’IA. Pour autant, malgré la masse d’information et de réflexions disponibles, force est de constater que la qualité n’est pas toujours au rendez-vous et que les discussions entourant les SIA Géné relèvent plus d’un « bruit » éthique que d’un débat rigoureux et constructif.
Or, les questionnements éthiques ont pour vocation d’éclairer la décision, de proposer une médiation entre l’Humain et la technique pour s’assurer que cette dernière est développée, déployée et utilisée dans un cadre d’acceptabilité et de désirabilité morales.
Les productions de diverses natures sur les impacts des SIA Géné sur l’emploi en sont une illustration, comme celles sur les SIA présentés tant comme une menace existentielle, qu’une panacée. Cette hyperproduction sur l’éthique appliquée aux SIA (EA@SIA) est d’ailleurs à mettre au regard d’une polarisation contre-productive opposant artificiellement technophobie et technophilie, et reposant sur une compréhension somme toute superficielle des enjeux éthiques liés aux SIA.
De fait, il semble que le discours sur l’EA@SIA, en général, et aux SIA Géné en particulier, est particulièrement contraint et limité dans sa qualité, pour se réduire, trop souvent, à des redites ou des banalités.
Le manque de profondeur et de prise de hauteur des discussions sur l’EA@SIA, favorise par ailleurs des débats éthérés et conduits à un niveau d’abstraction inadapté.
Ce constat, que nous faisons, n’est pas neutre. Il impacte lourdement le développement, le déploiement et l’utilisation des SIA dans leur ensemble et des SIA Géné en particulier, notamment en interdisant les questionnements de fond et en limitant le champ des possibles à des perspectives (pré)formatées.
C’est, selon nous, ce manque de profondeur réflexive dans l’application de l’éthique aux SIA qui explique, au moins en partie, ce que le Forum Économique Mondial a identifié sous le nom de différentiel intention/action (intention/action gap), c’est-à-dire l’écart existant entre l’adoption par les organisations des exigences établies dans les Lignes directrices en matière d’éthique pour une IA digne de confiance, publiée en 2019 par la Commission européenne, et leur opérationnalisation. Or, l’opérationnalisation de l’éthique est la clé vers des SIA Géné bénéfiques, aux impacts contrôlés.
L’écart entre le haut niveau d’abstraction auquel sont établis les exigences et autres principes visant à encadrer les SIA, et l’ancrage dans le concret des entreprises, rend l'opérationnalisation de l’éthique quasi impossible au-delà de la compliance.
Des concepts tels que la transparence ou la confiance, sont par trop polysémiques, complexes et vagues pour être opérationnalisables. Tout au plus peuvent-ils être des idéaux qu’il est essentiel de confronter au réel avant même d’envisager de s’essayer à les actionner.
Le seul terme transparence peut être entendu de diverses manières. Il peut renvoyer à l’accès au contenu des programmes pour comprendre le fonctionnement des algorithmes et donc expliquer les résultats produits. Il renvoie également au besoin d’informer les utilisateurs interagissant avec un SIA qu’ils sont en présence d’un objet technique et non d’un être humain. Au-delà, il existe des dizaines de définitions du terme transparence. Ce qui est vrai pour la transparence est vrai pour l'ensemble des termes utilisés dans la sphère de l’EA@SIA.
De fait, lorsqu’il s'agit d’appliquer une recommandation ou une exigence, les entreprises doivent d’abord lutter contre un manque de clarté définitionnelle, avant de s’évertuer à rendre la notion applicable à un cas d’usage concret.
A cela s’ajoute la question de la pertinence à la fois des concepts tels que la confiance ou la responsabilité appliqués aux SIA, et de leur pertinence en termes d’applications à certains secteurs.
Si, comme l’affirmait Thomas Metzinger, l’IA de confiance est “un non-sens conceptuel”, elle est également contestable dans son effet, puisque l’établissement d’une relation de confiance peut avoir pour résultat un abaissement de la vigilance de l’utilisateur de ces systèmes. Ainsi la confiance dans les SIA appliquée aux secteurs médical ou militaire est susceptible d’avoir des conséquences fâcheuses dans certains cas. L'établissement d’une “IA de confiance”, présentée comme une règle principielle, peut donc devenir un réel problème au lieu d’être un avantage. Il en va de même de la transparence qui peut parfois être contre-productive, voire dangereuse.
On le comprend bien, le vocabulaire et le narratif qui entourent l’EA@SIA pose un problème de fond: comment s’extraire du discours dominant pour effectuer une analyse rigoureuse et la plus objective possible des impacts des SIA et, par suite, mettre en place des stratégies efficaces permettant tant de limiter les risques que de capitaliser sur les bénéfices.
Les questions actuelles autour de la productivité, de l’impact environnemental ou de l’impact sur l’emploi, illustrent parfaitement l’importance de questionner le narratif pour aboutir à des décisions éclairées et pertinentes pour les organisations.
Anticiper un potentiel gain de productivité généré par les SIA est chose hasardeuse. D’autant que la notion de productivité est très souvent associée de manière restrictive au gain de temps que permettent certains SIA dans certains cas spécifiques. Or la productivité est une notion complexe qui ne peut être réduite à une économie de temps. Par ailleurs, si toutes les hypothèses sont possibles, leur effectivité n’est pas assurée. La mesure du gain de productivité d’une nouvelle technologie ne peut se prévoir absolument et nécessite du recul pour en mesurer efficacement la valeur. Enfin, il est à noter que les éléments disponibles sont aujourd’hui trop disparates et hétérogènes pour permettre de conclure avec certitude à un gain de temps lié à l’utilisation de SIA.
Constat également valable pour l’impact environnemental. Indépendamment des études nombreuses tendant à souligner un impact négatif des SIA sur l’environnement, il s’avère que la question reste traitée de manière absolue en mobilisant des éléments dont la cohérence n’est pas toujours assurée. Le manque de transparence de certaines organisations, ne permet par exemple pas d’aboutir à des résultats définitifs. D’autre part, le traitement de cet impact de manière absolu doit se doubler d’un traitement relatif pour savoir quel est le poids des SIA dans les questions environnementales comparativement à d’autres technologies, ou même à d’autres activités humaines. Faute d’étude plus rigoureuse, les organisations risquent de passer à côté des vrais impacts et de les surestimer ou de les mésestimer, avec pour conséquence des prises de décisions fondées sur des considérations erronées ou superficielles.
L’impact sur l’emploi s’inscrit dans la même logique, avec un débat polarisé autour de deux discours. L’un, alarmiste, affirme que les SIA sont appelés à remplacer les humains dans quasiment tous les secteurs d’activité. L’autre, optimiste, considère au contraire que les emplois perdus seront contrebalancés par de nouvelles créations d’emplois et que les SIA permettront aux humains d'accroître leurs capacités, voire de les libérer de tâches ingrates. La réalité se trouve certainement quelque part entre ces deux positionnements. Affirmer péremptoirement que les SIA ne remplaceront jamais les humains ou au contraire qu’ils les remplaceront ne permet pas de comprendre la complexité des enjeux que cache la question des impacts directs et indirects des SIA sur l’emploi.
En maintenant ces sujets à un très haut niveau d'abstraction et en les abordant sous un angle absolu, les organisations se privent d’une compréhension fine des enjeux qu’ils revêtent. Elles prennent ainsi le risque d’orienter leurs stratégies dans la mauvaise direction.
Le Groupe de Travail sur les SIA Générative (GT SIA Géné) établis en janvier 2024 par la Human Technology Foundation, a clairement pris la mesure des ces enjeux de l’importance de basculer d’une approche à niveau d’abstraction vers une approche granulaire fondées sur l’étude des cas d’usages des organisations et l’évaluation de leurs impacts positifs et négatifs.
Au travers de l’identification des cas d’usage dans une cartographie large, d’une taxonomie des impacts et de leur hiérarchisation, le GT SIA Géné a permis de souligner les écueils liés à la non prise en compte du poids du narratif dans les perceptions sur le sujet.
À compter du 24 juin 2024, d’un Groupe de Travail Ciblé (GTC) sur l’impact environnemental des SIA géné, démontre à la fois l’importance d’une analyse plus fine du sujet de l’intérêt bien compris des membres du GT SIA Géné, de bénéficier de cette analyse pour orienter pertinemment leur stratégies.
Human Technology Foundation, 25 juin 2024
Pour aller plus loin
Anne Skeet and Jim Guszcza. How businesses can create an ethical culture in the age of tech. World Economic Forum, January 7, 2020. https://www.weforum.org/agenda/2020/01/how-businesses-can-create-an-ethical-culture-in-the-age-of-tech/
Groupe d’experts de haut niveau sur l’IA. Lignes directrices en matière d’éthique pour une IA digne de confiance. Commission Européenne, 2019. https://digital-strategy.ec.europa.eu/fr/library/ethics-guidelines-trustworthy-ai
Noman Bashir, Priya Donti, James Cuff, Sydney Sroka, Marija Ilic, Vivienne Sze, Christina Delimitrou, and Elsa Olivetti. The Climate and Sustainability Implications of Generative AI. An MIT Exploration of Generative AI, March 30, 2024. The Climate and Sustainability Implications of Generative AI
Nicolas van Zeebroeck. IA : promesses de productivité, apocalypse pour l’emploi ? The Conversation, 3 juin 2024. https://theconversation.com/ia-promesses-de-productivite-apocalypse-pour-lemploi-230480
Fabien Toux. Groupe de travail sur les impacts des systèmes d’IA génératives. Human Technology Foundation, 22 mai 2024. https://www.human-technology-foundation.org/fr-news/groupe-de-travail-sur-les-impacts-des-systemes-dia-generatives
Emmanuel R. Goffi, Victor de Salin, Aymeric Thiollet, Hugo Mottard et Fabien Toux. Systèmes d’IA Génératives. Identification, classification et gestion des impacts positifs et négatif - Rapport intermédiaire. Human Technology Foundation, mai 2024. https://www.human-technology-foundation.org/fr-news/rapport---systemes-dia-generatives