Saïda BELOUALI, est professeure d’éthique appliquée à l’Université Mohammed Premier Oujda au Maroc. Spécialisée dans l’éthique appliquée à l’intelligence artificielle, elle est co-directrice de la Maison de l’intelligence artificielle à Oujda, elle est aujourd’hui experte auprès de l’UNESCO pour l’application de la recommandation sur l’éthique de l’IA au Maroc.
Attachée à la dimension culturelle de l’éthique appliquée à l’IA elle contribue régulièrement aux réflexions du Global AI Ethics Institute et de plusieurs autres organismes de réflexions et de recherche à l’international, et s’investit dans de nombreuses initiatives pour promouvoir ce sujet sur le continent africain.
1. L’éthique de l’IA semble au centre des préoccupations. Selon-vous quelle est la raison de cet intérêt ? Est-ce que ce concept n’est pas surutilisé ?
A l’aube des changements civilisationnels majeurs et des avancées disruptives qui rompent avec les modèles habituels, nous avons besoin de revoir notre copie morale, vérifier si nos remparts éthiques ont été dé-fixés ou endommagés. Le progrès transformationnel nous pousse à nous poser des questions fondamentales pour vérifier si nos filets moraux fonctionnent toujours ou si nous avons besoin de réajuster et imaginer d’autres mesures d’encadrement et de régulation éthiques. Les avancées dites « intelligentes » et surtout leur rythme effréné créent de nouvelles réalités et ramènent des problématiques inédites qui en appellent à notre responsabilité. Tout en ramenant de réelles opportunités dans beaucoup de domaines, ces technologies peuvent présenter des risques élevés durant tout le cycle de leur conception allant des conditions parfois déplorables imposées aux travailleurs du clic jusqu’à la collecte et traitement des données et l’atteinte à la vie privée et droits fondamentaux des individus.
L’éthique de l’IA répond à notre capacité en tant qu’humain à garder le contrôle et à répondre de nos actes. Nous demeurons des agents moraux et les choix que nous opérons nous impactent et impactent les autres, la société, l’environnement etc. Quand nous concevons, utilisons, déployant des systèmes intelligents, nous sommes en engagement, et l’agir que nous allons opérer face à une situation présentant des défis moraux nous rend redevable et responsable. L’éthique est un terme sans doute largement surutilisé aujourd’hui, mais il s’agit toujours de cette science du comportement qui contrôle nos agirs face à des situations précises quand il faut prendre les décisions conformément à un référentiel de valeurs et de principes spécifique.
2. Quels sont selon-vous les dispositifs pertinents pour encadrer les impacts de ces technologies ? A quel niveau faut-il les envisager : local ou international ?
L’IA élargit l’horizon des possibilités économiques et sociétales mais elle peut également être à l’origine de pratiques intrusives et discriminatoires qui devrait nécessiter des restrictions. Les pays ne disposent pas tous d’une loi dédiée spécifiquement à l’encadrement de l’IA, les obligations à ce sujet relèvent de réglementations diverses. Des législations peuvent s’appliquer à l’IA spécifiquement celles qui couvrent le spectre des droits humains. Les cyberlois en l’occurrence et tout particulièrement, les lois relatives à la protection des données à caractère personnel sont utiles et peuvent répondre à des situations en lien avec l’IA en attendant de disposer d’un cadre global dédié à l’IA si les pays le souhaitent. L’encadrement est pratiqué dans la majorité des cas aujourd’hui en mobilisant des lois qui existent déjà et ne sont pas forcément spécifiques aux systèmes de l’IA.
Pour que l’innovation enIA demeure « responsale », il est important que soit respecté un ensemble de principes tout le long du cycle de vie du système intelligent comme le recommande plusieurs entités et organisations. Il est également important de comprendre que l’IA est un phénomène dont les impacts ne reconnaissent absolument pas les frontières. Les efforts à l’échelle internationales sont cruciaux. Dans ce sens, la vigilance éthique et de régulation devraient être locale et internationale à la fois. Pour en garantir la pertinence, il semble important de veiller à s’accorder sur un référentiel commun en admettant que la construction d’une nomenclature de principes devrait être évolutive, adaptative et contextuelle.
Certains usages peuvent être interdits quelque part sans être considérés comme non responsable dans d’autres contrées. Les concepts sont des agrégations sémantiques et des constructions. Que considère-t-on comme innovation responsable ou non-responsable dans telle ou telle communauté ? Une analyse lexicale et une forme de « particularisation du sens » sont nécessaires pour s’accorder sur les différentes représentations qu’on manipule. Pour préserver l’universel que nous partageons, notamment en lien avec des technologies aussi perturbantes, il est fondamental qu’il y ait un travail de contextualisation et d’adaptation.
D’où la nécessité, nous semble-t-il, d’une collaboration internationale en la matière pour éviter notamment, les grandes disparités de régulation qui pourraient créer des « paradis législatifs» devenant des destinations prisées parce que moins exigeantes en matière d’encadrement de ces technologies.
3. Vous êtes experte principale pour la Readiness Assessment Methodology au Maroc qui consiste à opérationnaliser la Recommandation de l’UNESCO sur l’éthique de l’intelligence artificielle. Est-ce que vous pouvez nous expliquer ce dont il s’agit ?
En novembre 2021, 193 pays de l'UNESCO ont adopté la Recommandation sur l'éthique de l'intelligence artificielle. Il s’agit d’une initiative mondiale qui vise à offrir aux États un cadre normatif pour l’encadrement del'IA tout en tirant parti de ses opportunités potentielles. Plus d’une cinquantaine de pays sont actuellement en phase de traduction de cette Recommandation dans des cadres institutionnels et réglementaires.
Pour permettre l’opérationnalisation de la Recommandation et pour que les principes édictés deviennent effectifs, l’UNESCO a développé des outils spécifiques dont la Méthodologie d’évaluation de l’état de préparation à l’IA(Readiness Assessment Methodology : RAM). L’exercice d’évaluation permet au travers de plusieurs indicateurs qualitatifs et quantitatifs de cartographier l’écosystème national concerné pour évaluer le niveau de préparation du pays à l’IA. Le diagnostic permet de recenser, les potentialités et les points forts tout en mettant en exergue également les lieux nécessitant des améliorations et des développements. La Méthodologie d'évaluation de l’état de préparation de l’UNESCO utilisée se compose en l’occurrence, de plusieurs indicateurs regroupés en cinq axes différents : juridique, social et culturel, scientifique et éducatif, économique, technique et infrastructurel.
Dans le cadre d’un projet d’accompagnement, ce diagnostic 360° est mené par l’UNESCO sur quatre pays pilotes : Brésil, Chili, Maroc et Sénégal afin de déterminer leurs différents états de préparation, notamment institutionnel et réglementaire, et d’apprécier le potentiel de développement de l'IA dans chacun de ces pays. Les résultats de ces diagnostics permettront aux pays concernés d’imaginer de nouvelles politiques sur la gouvernance éthique de l’IA et à l’UNESCO d’imaginer des dispositifs d’accompagnement approprié en matière de renforcement de capacités en harmonie avec l’esprit de la Recommandation.
Les expériences de l’exercice RAM des pays pilotes ont été en l’occurrence présentées récemment à l’occasion du Forum mondial sur l'éthique de l'IA organisé par le gouvernement de Slovénie et l'UNESCO, les 5 et 6 février 2024.
4. Quel est l’enseignement majeur tiré de cet exercice ?
L’IA contrôlée et encadrée pourrait permettre à différentes communautés de réaliser des progrès certains en matière d’éducation, les parcours adaptatifs et personnalisés pourraient permettre une meilleure inclusion des populations; la santé et l’agriculture seront également des domaines qui seront transformés par les technologies intelligentes. Les différents pays notamment du Grand Sud, doivent être proactifs pour éviter de subir les impacts de l’IA sans bénéficier de ses opportunités.
Par ailleurs, les grandes avancées en IA doivent être contextuelles et situationnelles. Elles doivent répondre à des problématiques locales. Les mutations qu’elles introduiront doivent constituer une vraie opportunité pour les populations. Il ne faut surtout pas que l’IA soit synonyme de « travail du clic » pour certains et d’opportunités inouïes pour d’autres.
L’expérience de la RAM conforte dans l’idée que toutes les nations peuvent bénéficier de cet essor inédit à condition d’être créatif et d’oser imaginer des réponses inédites aux situations inédites.
Human Technology Foundation, 28 février 2024
Pour aller plus loin
Recommandation sur l’éthique de l’intelligence artificielle. UNESCO, 2021. https://fr.unesco.org/about-us/legal-affairs/recommandation-lethique-lintelligence-artificielle
Readiness assessment methodology: a tool of the Recommendation on the Ethics of Artificial Intelligence. UNESCO,2023. https://unesdoc.unesco.org/ark:/48223/pf0000385198
Intelligence artificielle : l’UNESCO appelle les gouvernements à mettre en œuvre sans délai le cadre éthique mondial. Maroc Diplomatique, mars 2023. https://maroc-diplomatique.net/intelligence-artificielle-lunesco-appelle-les-gouvernements/