IA générative : comment la vision du Cigref s’affine

Cigref IA générative 2024

En juillet 2023, le Cigref émettait une note sur l’IA générative. Il vient d’en publier une deuxième. Dans cet intervalle, comment a évolué sa vision ?

Comment forger, au sein des entreprises et des administrations publiques, une « culture commune de l’IA générative » ? Le Cigref a prévu de présenter l’état des réflexions en la matière. Mais pas tout de suite.

Il faudra effectivement attendre l’été 2024 pour une note à ce sujet. C’est en tout cas l’échéance que l’association de DSI donne dans… une autre note, tout juste publiée.

Son groupe de travail sur l’IA générative avait produit un premier livrable en juillet 2023. Il y était déjà question de l’aspect « acculturation ». Avec, entre autres exemples, ceux d’entreprises qui avaient respectivement mis en place une alerte proxy en cas de connexion à des outils GenAI et un comité pluridisciplinaire pour valider les cas d’usage.

Cette première note esquissait la possibilité d’adapter des modèles avec des données internes. La deuxième est plus exhaustive à ce propos, entre RAG et fine-tuning.

D’autres éléments de terminologie évoluent. Alors que le Cigref employait le terme « PoC » à l’été 2023, il lui préfère désormais celui de « prototypage ». Ou tout du moins, il l’en différencie. Motif : pour les entreprises et les administrations publiques, l’enjeu est de mettre en place les conditions d’utilisation plutôt que d’industrialiser. Par « conditions d’utilisation », on entend aussi bien la validation du modèle économique que l’identification des briques nécessaires au bon fonctionnement et la stabilisation des résultats (diminution des hallucinations, vérification de leur acceptabilité).

« Comme les IA génératives utilisent des outils mathématiques probabilistes, on doit les valider avec le prototypage [,] qui permet d’aller plus loin que les PoC pour résoudre des points de friction », résume le Cigref.

Des doléances sur l’AI Act

Pas mentionné dans la note de 2023, l’AI Act l’est cette fois-ci. Et le Cigref a son avis. En voici un aperçu en quelques citations :

« Quelques réserves sur une définition trop extensive des systèmes d’intelligence artificielle. […] Cette définition peut s’avérer très englobante et concerner un nombre significatif de systèmes d’optimisation existants [sic] depuis de nombreuses années dans nos entreprises. »

« Nous partageons la position française […] : il faut réguler des produits, non des technologies. […] Il nous paraît […] plus qu’ambitieux de vouloir apporter ‘ex ante’ une régulation complète sur un domaine que nous commençons tout juste à explorer […] »

« Il est sain que [les systèmes dits à haut risque] soient accompagnés d’obligations d’audit et de transparence, mais cela n’épuise pas la question des responsabilités ni celle de la manière dont ils pourront être utilisés. »

« Nous sommes réservés sur le fait que certaines obligations ne soient [sic] pas imposées aux systèmes d’IA en open source, au motif que le code est accessible. […] L’objet d’un LLM […] qui est formé du code de l’algorithme et de l’apprentissage ne permet pas de donner de la transparence sur l’exécutable qui en résulte. […] Renvoyer toute la responsabilité sur les utilisateurs des systèmes open source […] impliquerait que ces derniers se dotent des mêmes compétences que les concepteurs de ces systèmes, ce qui est inatteignable. »

Davantage de recul sur les fournisseurs et les usages

La première note du Cigref invitait à favoriser plusieurs « petits cas d’usage » plutôt qu’un « grand modèle à tout faire ». La deuxième note y fait écho : « D’un point de vue opérationnel, il est important de ‘commencer petit’ avant de ‘penser grand’ ».

Sur quoi s’appuyer pour commencer ? « Les fournisseurs communiquent beaucoup sur le potentiel de leurs produits, mais peu sur les retours d’expérience. Les cas d’usage vraiment nouveaux et disruptifs d’IA génératives mis en production restent encore rares », regrette l’association. Et d’inviter à bien comprendre les roadmaps des progiciels, afin de « ne pas perdre du temps à réinventer ce qui va arriver dans les fonctionnalités standards ».

Il n’y a pas que les cas d’usage disruptifs qui sont rares aux yeux du Cigref. Les démarches d’ajustement (fine-tuning) de modèles le sont aussi. Les membres du groupe de travail qui ont choisi cette voie « se concentrent sur des petits modèles, pour répondre à des besoins spécifiques avec des enjeux particuliers de sécurité ou de temps de réponse ». Voire, pour les plus matures, à remplacer un LLM payant sur un cas spécifique. « L’écrasante majorité » des cas d’usage en production ou en cours de développement s’appuient toutefois sur des LLM en API.

L’arrivée des outils d’IA générative « ne modifie pas tant que cela la gouvernance et l’organisation mises en place pour l’innovation et la transformation data », conclut la note. On consultera, dans ce contexte, deux autres publications de la maison. D’une part, « Élaborer et mettre en place la stratégie data » (janvier 2023). De l’autre, « Pilotage de l’entreprise par la donnée » (décembre 2023).

Illustration © maylim – Adobe Stock