Twitter, Human Technology FoundationLinkedIn, Human Technology Foundation
Nouvelles perspectives sur les modèles d'IA générative

 

Daniel Gillblad est le directeur du Chalmers AI Research Center (CHAIR) ainsi que le codirecteur d'AI Sweden, le centre national suédois pour l'intelligence artificielle appliquée. Il a une longue expérience dans la collaboration entre les universités et l'industrie et s'efforce de transformer les avancées de la recherche en applications utiles aux citoyens suédois.

 

AI Sweden a publié début 2023 GPT-SW3, le premier grand modèle de langage à grande échelle pour la langue suédoise. Ce modèle utilise les mêmes principes techniques que le très populaire modèle GPT-3 que le grand public a découvert avec ChatGPT, et son objectif est d'aider les organisations suédoises à créer des applications linguistiques qui n'ont jamais été possibles auparavant. En effet, le processus de développement s'est efforcé de construire ce modèle “de la façon la plus ouverte, la plus transparente et la plus collaborative possible, dans le but de mettre le modèle à la disposition de tous les secteurs en Suède susceptibles d'avoir besoin de solutions NLP” (Natural Language Processing, traitement automatique de la langue naturelle)

 

En quoi les modèles d'IA générative sont-ils révolutionnaires ?

Nous sommes à un stade où les modèles génératifs peuvent véritablement aider, et dans certains cas remplacer, le travail et la créativité humaine. Les modèles d'images peuvent générer des représentations visuelles qui peuvent facilement être considérées comme naturelles ou créées par l'homme, et les grands modèles de langage peuvent générer des textes sur des sujets relativement complexes dans plusieurs styles différents. Au fur et à mesure que ces modèles deviennent plus performants et couvrent davantage de modalités telles que la vidéo, la musique, la programmation et l'ingénierie, nous devrons tenir compte d'une nouvelle façon de travailler avec les disciplines créatives et d'une nouvelle réalité dans laquelle les textes et les représentations qui, auparavant, ne pouvaient être attribués qu'à l'effort humain, pourraient avoir été générés par une machine avec ses limites spécifiques et sa représentation du monde.

 

 

Quels sont les risques liés à ces technologies ?

Si ces techniques vont en fin de compte accroître considérablement la productivité humaine et la création de connaissances, elles comportent, comme toutes les technologies puissantes, des risques. Parmi les plus directs, on peut citer :

-        La confiance excessive des utilisateurs dans les résultats produits

-        Des résultats qui pourraient inclure des erreurs factuelles et des représentations erronées du monde

-        La modification des rôles et des tâches de la main-d'œuvre créant un besoin d'éducation et de changement organisationnel

-        La génération plus facile de désinformation et de matériel à faible niveau d'information.

 

Comme nous connaissons et comprenons dans une certaine mesure ces risques, nous pouvons nous efforcer de les réduire, mais il existe des risques moins bien compris qui pourraient s'avérer plus lourds de conséquences, et les principaux problèmes posés par ces modèles ne sont peut-être pas les erreurs factuelles ou les fausses représentations qu'ils pourraient produire, mais plutôt l'influence grandissante qu’ils pourraient avoir par exemple sur le comportement des utilisateurs humains à la recherche de conseils et d'orientations.

 

Y a-t-il une place pour les acteurs européens ?

Bien sûr, il y a clairement une place pour les acteurs européens dans cet espace et il est important, à des fins de représentation et d'inclusion, que non seulement l'Europe mais aussi toutes les parties du monde participent à ces développements. Sous l'impulsion d'acteurs privés, le développement de ces types de modèles se fait actuellement essentiellement aux États-Unis. Compte tenu de l'importance de ce type de technologie, l'Europe doit s'engager, mais en l'absence d'acteurs privés similaires, le modèle devra probablement être différent. Les efforts de collaboration pour développer de grands modèles de langage ouverts ont prouvé qu'il existe d'autres voies de développement, mais des efforts concertés de la part des acteurs européens sont nécessaires.

 

Les modèles d'IA générative doivent-ils être rendus publics ? Si oui, comment doivent-ils être mis à disposition des utilisateurs ?

Compte tenu de leurs capacités, si ces modèles sont disponibles, ils doivent être largement accessibles et ne pas être réservés à une poignée de personnes. La question de savoir comment procéder de manière responsable reste ouverte, mais nous partons du principe que la transparence, l'ouverture et l'accessibilité sont essentielles pour une société ouverte et démocratique..

 

Voyez-vous des garde-fous obligatoires à mettre en place pour que les modèles d'IA générative soient bénéfiques à leurs utilisateurs ?

Étant donné que parmi ces modèles, de nombreux ont des applications assez générales, avoir des garde-fous globaux et gérer, par exemple, la question des préjugés est assez compliqué. Un service gouvernemental largement utilisé par les citoyens et qui serait basé sur un grand modèle de langage peut avoir des besoins de protection très différents de ceux d'un service spécialisé accessible uniquement aux professionnels de santé. Les fournisseurs d'applications spécifiques devront assumer la responsabilité de l'impact et de la qualité, mais il va de soi que les systèmes doivent respecter ce qui est légal en général et, pour les applications plus sensibles, être éventuellement accompagnés de tests et de vérifications documentés.

 

Pourquoi avoir créé GPT-SW3 ? Quelles sont les prochaines étapes de vos projets ?

Le projet GPT-SW3 est important à plusieurs égards. Tout d'abord, nous avons besoin de la capacité, des connaissances et de l'infrastructure nécessaires pour développer ces types de modèles en Suède. Ensuite, le fait que ces modèles soient entièrement disponibles à des fins de test et de spécialisation, par exemple pour le système de santé suédois, est important pour développer de nouvelles applications de pointe en matière d'IA en Suède. Cela nous permet également de recueillir les retours d'information nécessaire pour développer ces modèles en vue d'une utilisation responsable dans tous les secteurs. Enfin, des modèles entièrement ouverts basés sur des sources de données documentées sont essentiels pour la recherche et l'expérimentation afin de comprendre pleinement le potentiel et les limites de ces modèles.

Articles associés