Pour gérer vos consentements :
Categories: Projets

OpenAI : réguler l’IA oui, mais…

Quelle place pour la régulation dans les déploiements de l’intelligence artificielle (IA) ?

Mardi 16 mai, Sam Altman, CEO d’OpenAI, l’éditeur de l’IA générative ChatGPT, était auditionné [vidéo] par les membres de la commission des affaires juridiques du Congrès des États-Unis.

Un exercice relativement convenu outre-Atlantique pour de grands noms des technologies de l’information et d’autres secteurs de l’économie.

Christina Montgomery, vice-présidente et CPTO (Chief Privacy & Trust Officer) d’IBM, et Gary Marcus, professeur émérite à l’Université de New York (NYU | Stern) et ex-CEO de Geometric Intelligence (acquis par Uber), ont également été entendus.

Tous se disent favorables à la régulation du secteur et estiment qu’il y a urgence à en déterminer les contours. Cependant, ils sont divisés sur la dimension que celle-ci devrait prendre.

Sam Altman s’est déclaré favorable à la création d’une nouvelle agence fédérale qui serait en charge de l’attribution de licences et pourrait exiger qu’un audit indépendant soit mené. L’objectif étant de soutenir les déploiements de technologies d’IA durables et conformes aux standards de sécurité.

Christina Montgomery, de son côté, s’est prononcée pour une régulation orientée sur la transparence, le risque et les dessous des modèles d’IA. Le tout serait encadré par une agence existante, afin de soutenir le rythme d’innovation et d’adoption de la technologie.

Gary Marcus, de son côté, a recommandé que la disponibilité générale d’une intelligence artificielle soit précédée d’un examen de sécurité, dont l’application serait encadrée par une agence dédiée.

IA : réguler oui, mais sans freiner l’innovation

L’IA générative connaît une accélération des investissements et de sa popularité depuis le lancement public en novembre 2022 de ChatGPT d’OpenAI.

Les auditions de Sam Altman, Christina Montgomery et  Gary Marcus interviennent  après l’ouverture en avril d’une consultation publique, initiée par le gouvernement américain, sur un potentiel régime de responsabilité pour l’intelligence artificielle.

Cette demande de commentaires (request for comment ou RFC)  fait elle-même suite au lancement d’un appel invoquant « des risques pour l’humanité » associés à l’IA.  Dans leur lettre ouverte, les signataires, dont Steve Wozniak et Elon Musk, invitaient à suspendre la formation de systèmes d’IA plus puissants que GPT-4, le modèle de traitement du langage lancé mi-mars par OpenAI.

D’autres spécialistes, dont Yann LeCun (Meta) et Andrew Ng (DeepLearning.ai), ont estimé qu’interrompre 6 mois durant la formation de systèmes d’IA est à la fois inopportun et illusoire.

(crédit photo : TechCrunch on VisualHunt | CC BY 2.0)

Recent Posts

GenAI : le Royaume-Uni poursuit ses investigations sur les partenariats de Microsoft et Amazon

L'Autorité de la concurrence et des marchés (CMA) a lancé la phase de recherche de…

11 heures ago

Clients de VMware : les raisons de la colère

Broadcom remplace pas moins de 168 logiciels VMware par deux grandes licences de location correspondant…

12 heures ago

Laurent Carlier – BNP Paribas Global Market : « L’IA permet de modéliser des relations plus complexes, mais il faut rester prudent »

La banque d’investissement de BNP Paribas utilise l'IA pour proposer des stratégies d’investissement individualisées, en…

13 heures ago

Open Compute Project : les datacenters partagent des bonnes pratiques pour l’environnement

OVHCloud partage ses efforts environnementaux au sommet de l’Open Compute Project qui se tient à…

1 jour ago

Phi-3-mini : Microsoft lance son premier SLM

Avec Phi-3-mini, Microsoft lance un SLM conçu pour attirer une clientèle disposant de ressources financières…

1 jour ago

Apple : l’UE serait prête à approuver son plan pour ouvrir l’accès NFC

La Commission européenne serait sur le point d'approuver la proposition d'Apple visant à fournir à…

1 jour ago