OpenAI : réguler l’IA oui, mais…

Sam Altman, CEO d’OpenAI, l’éditeur de ChatGPT, et d’autres personnalités plaident pour une régulation du secteur, devant le Congrès des États-Unis.

Quelle place pour la régulation dans les déploiements de l’intelligence artificielle (IA) ?

Mardi 16 mai, Sam Altman, CEO d’OpenAI, l’éditeur de l’IA générative ChatGPT, était auditionné [vidéo] par les membres de la commission des affaires juridiques du Congrès des États-Unis.

Un exercice relativement convenu outre-Atlantique pour de grands noms des technologies de l’information et d’autres secteurs de l’économie.

Christina Montgomery, vice-présidente et CPTO (Chief Privacy & Trust Officer) d’IBM, et Gary Marcus, professeur émérite à l’Université de New York (NYU | Stern) et ex-CEO de Geometric Intelligence (acquis par Uber), ont également été entendus.

Tous se disent favorables à la régulation du secteur et estiment qu’il y a urgence à en déterminer les contours. Cependant, ils sont divisés sur la dimension que celle-ci devrait prendre.

Sam Altman s’est déclaré favorable à la création d’une nouvelle agence fédérale qui serait en charge de l’attribution de licences et pourrait exiger qu’un audit indépendant soit mené. L’objectif étant de soutenir les déploiements de technologies d’IA durables et conformes aux standards de sécurité.

Christina Montgomery, de son côté, s’est prononcée pour une régulation orientée sur la transparence, le risque et les dessous des modèles d’IA. Le tout serait encadré par une agence existante, afin de soutenir le rythme d’innovation et d’adoption de la technologie.

Gary Marcus, de son côté, a recommandé que la disponibilité générale d’une intelligence artificielle soit précédée d’un examen de sécurité, dont l’application serait encadrée par une agence dédiée.

IA : réguler oui, mais sans freiner l’innovation

L’IA générative connaît une accélération des investissements et de sa popularité depuis le lancement public en novembre 2022 de ChatGPT d’OpenAI.

Les auditions de Sam Altman, Christina Montgomery et  Gary Marcus interviennent  après l’ouverture en avril d’une consultation publique, initiée par le gouvernement américain, sur un potentiel régime de responsabilité pour l’intelligence artificielle.

Cette demande de commentaires (request for comment ou RFC)  fait elle-même suite au lancement d’un appel invoquant « des risques pour l’humanité » associés à l’IA.  Dans leur lettre ouverte, les signataires, dont Steve Wozniak et Elon Musk, invitaient à suspendre la formation de systèmes d’IA plus puissants que GPT-4, le modèle de traitement du langage lancé mi-mars par OpenAI.

D’autres spécialistes, dont Yann LeCun (Meta) et Andrew Ng (DeepLearning.ai), ont estimé qu’interrompre 6 mois durant la formation de systèmes d’IA est à la fois inopportun et illusoire.

(crédit photo : TechCrunch on VisualHunt | CC BY 2.0)