OpenAI fixe ses propres règles pour la création de ses LLM

OpenAI GPT-4

OpenAI a défini son « framework » pour cadrer le développement et la sécurité de ses LLM. Son conseil d’administration pourra dorénavant s’opposer aux décisions des managers concernant leur diffusion.

Faire oublier les errances de sa gouvernance et montrer patte blanche sur une forme de régulation de ses modèles de langage et leur distribution, c’est le sens du  » Preparedness Framework  » présenté par OpenAI.

A l’heure où l’Union européenne s’active pour se doter d’un AI Act et qu’une  « AI Alliance »  vient de se lancer sous l’impulsion d’IBM et de Meta, le leader mondial de l’IA générative ne pouvait pas rester sans réponse au sujet de la régulation des LLM.

Le manifesto du projet ( on parle d’une version beta) est édifiant :  » L’étude des risques liés à l’IA  est loin d’avoir atteint ce qui est possible et ce que nous devons être. Pour combler cette lacune et systématiser notre réflexion en matière de sécurité, nous adoptons la version initiale de notre cadre de préparation. Il décrit les processus d’OpenAI pour suivre, évaluer, prévoir et se protéger contre les risques catastrophiques posés par des modèles de plus en plus puissants. »

OpenAI : une gouvernance de ses pratiques en 5 points

Son " Preparedness Framework "  se décline en cinq points  avec l'objectif d'instituer des processus de gestion par les risques, comme c'est la règle dans le domaine de la cybersécurité, en particulier avec la mise en place de système d'évaluation et de "devsecops" pour les phases de développement.

Côté gouvernance, il prévoit la création d'un groupe consultatif chargé d'examiner les rapports de sécurité et de les envoyer aux dirigeants et au conseil d'administration d'OpenAI qui gagnent le droit de s'opposer aux décisions des managers.