Depuis un an, au travers d’outils tels que ChatGPT, Bard, Llama2 ou Midjourney, les IA génératives se sont invitées dans l’économie et la société. Leur vitesse d’adoption dit l’appétence de nos contemporains pour une technologie en cours de démocratisation et porteuse d’un fort potentiel de création de valeur, mais aussi d’effets négatifs.
Avec l’arrivée, entre autres, de Google BERT en 2018, de DALL-E ou LaMDA en 2021, de Midjourney, et surtout de ChatPGT en 2022, en quelques années, sous le vocable réducteur d’IA générative, les systèmes d’intelligences artificielles génératives (SIAGéné) se sont imposés comme un sujet incontournable tant pour les experts de l’intelligence artificielle, que pour les entreprises et le grand public. Les entreprises ne s’y trompent d’ailleurs pas et s’engagent désormais dans l’adoption de ces systèmes très largement considérés comme de potentiels leviers de productivité.
Avec une croissance de 1 310 % du nombre d’entreprises utilisant des SaaS API LLM (pour Software as a Service Application Programming Interface Large Language Models - Interface de programmation d'applications pour logiciel en tant que service) entre fin novembre 2022 et début mai 2023 [1], et un désir croissant « d'adopter des LLMs et l'IA générative » [2], les SIAGéné sont au centre des préoccupations.
Associé à la dynamique de l'utilisation des IA, cet accroissement de l’intégration des SIAGéné, notamment dans les fonctions essentielles de l'entreprise, ne manquera donc pas à la fois d’amplifier les inquiétudes existantes et d’en générer de nouvelles.
Pour autant, la réflexion sur les impacts de ces systèmes marque le pas et l’identification des véritables enjeux reste insatisfaisante faisant planer le spectre de l’inefficacité sur les processus de gouvernance.
Plusieurs éléments peuvent en partie expliquer cette impasse.
Tout comme pour les systèmes d’intelligences artificielles (SIA) en général, l’avènement des systèmes d’IA génératives s’accompagne donc de questionnements normatifs (juridiques et éthiques) relatifs aux impacts potentiels de cette nouvelle famille d’IA.
Si l’éthique est largement considérée comme un élément essentiel à l’encadrement de ces technologies, pour autant et malgré la masse d’informations et de réflexions disponibles sur les questions d’éthique appliquée à l’IA, force est de constater :
1. Une grande quantité d’informations et d’analyses, parfois contradictoires ;
2. Leur qualité très inégale ;
3. La tendance au recyclage de réflexions existantes sans apport d’éclairage nouveau ;
4. Et la présence de nombreux acteurs non-experts les relayant
Les discussions entourant les IA génératives s’apparentent souvent plus à un bruit éthique qu’à un nécessaire débat rigoureux et constructif.
Or, pour parvenir à des solutions efficientes et pérennes, il est essentiel que les questionnements éthiques s’extraient de ce bruit afin de gagner en rigueur et de contribuer utilement à éclairer la décision, et à proposer une médiation entre l’Humain et la technique pour s’assurer que cette dernière est développée, déployée et utilisée dans un cadre d’acceptabilité morale.
Ce bruit éthique repose notamment sur une hypersimplification du débat entourant l’éthique appliquée à l’intelligence artificielle (EA@IA) qui se manifeste par une polarisation des discussions opposant technophiles, promoteurs d’utopies technologiques parfois porteuses d’espoirs excessifs, et technophobes qui voient dans les IA la sources de menaces existentielles.
Le discours sur la menace existentielle est d’ailleurs extrêmement présent dans le débat, d’autant qu’il est véhiculé par des figures de l’IA.
Cette polarisation artificielle empêche le débat plus qu’elle n’y contribue. En opposant discours technophobes et technophiles, les différents acteurs fixent arbitrairement et artificiellement les termes du débat et les limites dans lesquelles il doit être conduit.
Or, afin de favoriser la prise en considération de perspectives intermédiaires et/ou divergentes, afin de redynamiser le débat, enrichir et approfondir l’analyse, pour enfin traiter les inquiétudes de manières efficaces, le débat doit être dépolarisé.
La polarisation du discours sur l’EA@IA est facilitée par un fait souligné par le Forum économique mondial [3], à savoir qu’il existe un différentiel entre les bonnes intentions des organisations en matière d’adoption de principes éthiques et la mise en œuvre de ces principes par ces organisations. Ce différentiel intention-action (intention-action gap) s’explique notamment par un manque de profondeur réflexive dans l’application de l’éthique aux IA.
C’est en comparant le niveau d’adoption des exigences du Groupe d’experts indépendants de haut niveau sur l’IA (GEHN IA) [4] et leur opérationnalisation qu’IBM en partenariat avec Oxford Economics a conduit une étude qui a permis de formaliser ce différentiel [5]. Selon l’étude, entre 50 et 59% des entreprises sondés avaient adopté les 7 exigences européenne, mais seulement 13 à 26% d’entre-elles les avaient opérationnalisées.
La problématique fondamentale est ici moins le manque de volonté des organisations, que la difficulté à transformer des exigences très abstraites en solution concrètes.
Or cette inconsistance de niveau d’abstraction va à l’encontre de l’objectif des recommandations du GEHN IA qui vise à créer de la confiance, puisque le différentiel entre intention et action conduit à une défiance à l’égard d’entreprises qui semblent prétendre adopter les principes sans les appliquer.
En tout état de cause, l’opérationnalisation des principes ou des exigences éthiques passe inévitablement par un ajustement au bon niveau d’abstraction. Cet ajustement favorise la réduction du différentiel intention-action et donc l’établissement de la confiance dans les systèmes d’IA.
Le questionnement éthique est la première victime à la fois du bruit éthique, de la polarisation du débat et de l’inconsistance de niveau d’abstraction.
En présentant les IA comme des menaces existentielles, certains acteurs influent sur les perceptions des consommateurs de plus en plus inquiets face aux dangers que représentent ces technologies.
Un discours tempéré, porté par l’éthique utilisée comme médiateur à la fois entre l’Humain et son environnement et comme méthode d’analyse permettant de modérer les excès, ouvrirait la voie à un équilibre facilitant le débat constructif. Un retour à une rationalité pratique supportant la décision est aujourd’hui nécessaire pour s’extraire du bruit éthique généré et renforcé par cette la polarisation du débat autour de concept trop généraux.
Dans sa dimension de médiation, l’éthique permet de s’extraire de la polarisation du débat sur l’EA@IA et d’affiner notre compréhension des enjeux éthiques liés à l’IA.
La réflexion éthique permet également de ramener les IA à ce qu’elles sont : des objets et des processus. Bien souvent le discours sur la menace existentielle tend à anthropomorphiser les IA au point qu’elles sont perçues comme des agents doués de raison et porteurs d’une intentionnalité de nuire à l’humanité.
Cette rechosification doit s’accompagner d’un recentrage sur l’humain qui permet à la fois de nuancer la polarisation technophobes/technophiles et de repositionner la question de la responsabilité individuelle et collective. Comme le souligne Eric Salobir, « la responsabilité est donc entre nos mains » [6] et il nous revient de choisir individuellement et collectivement si nous voulons ériger les IA en démiurges dont nous serions de simples vassaux ou si nous souhaitons les maintenir au rang d’outils au service de l’humain.
L’apport essentiel de l’éthique réside dans le fait qu’elle est une méthode de médiation de nos relations à nos environnements, reposant sur un processus de délibération. L’éthique permet d’accompagner la décision pour faire en sorte que l’humain s’inscrive en harmonie dans son environnement.
C’est au travers de cet exercice de délibération que l’éthique joue à plein son rôle de boussole et permet d’éclairer la décision en la ramenant à des considérations pratico pratiques au plus près des besoins des organisations. Cette médiation favorise également la réflexion sur notre rapport à la technologie et par voie de conséquence sur nos responsabilités et leur distribution.
Sources
[1] Databricks. 2023 State of Data + AI. Powered by the Databricks Lakehouse, 2023
[2] AIIA. Enterprise Generative AI Adoption. AI Infrastructure Alliance, 2023.
[3] Skeet, A. & Guszcza, J. How businesses can create an ethical culture in the age of tech. World Econopic Forum, January 7, 2020.
[4] Groupe d’experts indépendants de haut niveau sur l’IA. Lignes directrices en matière d’éthique pour une IA digne de confiance. Commission Européenne, 2019.
[5] Rossi, F., Rudden, B., & Goehring B. L'éthique de l'IA en pratique : Un guide d'entreprise pour progresser vers une IA digne de confiance. IBM Institute for Business Value | Research Insights, 2022.
[6] Salobir, E. L’humain et la machine qui parle. L’Opinion, 10 août 2023.