Pour gérer vos consentements :

OpenAI passe à la phase commerciale

OpenAI a désormais une offre commerciale.

Initialement sans but lucratif, l’organisation cofondée par Elon Musk et Sam Altman avait changé de cap l’an dernier. Au nom du financement de ses travaux*, elle avait créé une entité « à but lucratif limité » : OpenAI LP.

Pour tirer des revenus de ses modèles IA, elle a décidé d’y ouvrir l’accès à travers une API. L’accès est gratuit pour deux mois dans le cadre d’une bêta privée. Le temps notamment de fixer les prix.

L’API permet d’effectuer un large éventail de tâches de traitement du langage : recherche sémantique, résumé, analyse de sentiment, traduction, génération de dialogue… Le tout avec de meilleures performances en anglais.

OpenAI justifie ainsi son choix du modèle API :

  • Approprié pour dégager des revenus
  • Économique par rapport aux coûts d’implémentation des modèles IA sous-jacents
  • Mieux adapté pour répondre aux usages abusifs

OpenAI : une approche généraliste

L’usage responsable des algorithmes est l’un des axes du programme académique lancé en parallèle de l’offre commerciale. Autres lignes directrices :

  • Équité et représentation
  • Robustesse face aux « perturbations » du langage (capacité à traiter une même idée formulée de plusieurs manières, à gérer différents usages de l’orthotypographie…)
  • Exploration d’usages « en puissance » (sens commun, raisonnement pragmatique…)
  • Croisements avec d’autres disciplines (philosophie, sciences cognitives, sociolinguistique…)

Sur la question des coûts d’implémentation, le modèle GPT-3 (générateur de texte) donne un ordre de grandeur.
Reflet de la stratégie d’OpenAI, il entre dans la catégorie des modèles « généralistes ». On l’entraîne en l’occurrence avec de grands volumes de données non étiquetées, puis on l’adapte à la résolution de problèmes spécifiques.
Il utilise 175 milliards de paramètres, contre 1,6 milliard pour son prédécesseur GPT-2.

Parmi ses utilisateurs référents, OpenAI liste MessageBird, Quizlet et reddit.
Le premier a fait le pont avec des chatbots pour le service client. Le deuxième a recours à l’IA pour proposer des exemples de phrases à partir de mots de vocabulaire. Le troisième en explore les capacités dans la modération de contenus.

* Et notamment les ressources de calcul, que Microsoft fournit sur l’infrastructure Azure.

Illustration principale : Chris P – Shutterstock

Recent Posts

Arm-NVIDIA : de la Chine aux USA, les barrières se dressent

Aux États-Unis, un nouvel obstacle se dresse face au projet de fusion Arm-NVIDIA. Quelles autres…

2 jours ago

Géolocalisation en entreprise : un suivi proportionné ?

Utilisés dans le cadre professionnel, smartphones et véhicules peuvent être géolocalisés par l'employeur. Qu'en pensent…

2 jours ago

Salesforce : avec Bret Taylor, Marc Benioff prépare sa succession

Promu co-CEO, Bret Taylor pilote avec Marc Benioff le prochain chapitre de Salesforce. Leurs mots…

2 jours ago

Data et cybersécurité : les métiers les plus mouvants du SI ?

Les métiers de la data et de la cybersécurité concentrent une part importante des évolutions…

2 jours ago

Teams Essentials : une réponse à la Commission européenne ?

Microsoft dégaine une offre qui permet d'accéder à Teams indépendamment de sa suite bureautique cloud.…

3 jours ago

« Convergences numériques 2022 » : le Cigref, Numeum et d’autres interpellent les présidentiables

Cigref, Numeum, Cinov, Afnum... L'industrie numérique française sert les rangs pour peser sur les programmes…

3 jours ago