Pour gérer vos consentements :
Categories: ChatGPT

StableLM : les choses à savoir sur ce concurrent de ChatGPT

Stability AI, ce n’est pas que Stable Diffusion. Cette famille de modèles générateurs d’images lancée en 2022 reste l’emblème de l’entreprise britannique. Mais elle voisine désormais avec StableLM.

Qu’est-ce que StableLM ?

Sous cette bannière, Stability AI entend proposer des modèles générateurs de texte et de code. Il vient d’en publier une première série, au stade expérimental (alpha). Elle se compose de quatre modèles : deux « de base »… et leurs déclinaisons affinées sur davantage de données.

Les modèles StableLM de base

Fondés sur l’architecture GPT-NeoX (transformeurs autorégressifs), ils comptent respectivement 3 et 7 milliards de paramètres.
L’un et l’autre ont été entraînés en FP16 sur 800 milliards de tokens issus d’un jeu de données basé sur The Pile, qu’on doit au collectif EleutherAI.

Les modèles « affinés »

Stability AI a renforcé les modèles de base en exploitant la bibliothèque Hugging Face Transformers et une combinaison de cinq datasets :

Alpaca (made in Stanford ; 52 000 instructions et démonstrations générées par le modèle text-davinci-003 d’OpenAI)
GPT4All (origine Nomic AI ; 400 000 instructions et réponses générées par GPT-4)
ShareGPT52K (sous-ensemble de conversations récupérées sur le service communautaire ShareGPT)
Dolly (produit par Databricks ; 15 000 instructions et réponses générées par des humains sur des domaines d’aptitude d’InstructGPT)
HH (signé Antrhropics ; données destinées à guider le comportement des assistants IA)

L’un et l’autre modèle sont, comme ceux sur lesquels ils se fondent, hébergés sur le hub Hugging Face.

Quelles licences ?

L’ensemble du code publié sur le dépôt GitHub StableLM est sous licence Apache 2.0.

Les modèles de base sont en Creative Commons (CC BY-SA-4.0). Licence qui, dans les grandes lignes, impose de créditer Stability AI et de signaler les modifications qu’on a éventuellement effectuées.

Les modèles « affinés » sont aussi en Creative Commons, mais limités à un usage non commercial (CC BY-NC-SA-4.0).

Comment expérimenter les modèles StableLM ?

Un notebook Python est disponible pour expérimenter les quatre modèles. Officiellement, pour générer du texte (on ne nous parle pas de code).

Par défaut, quatre instances s’exécutent en parallèle pour les modèles de base (deux pour les modèles « affinés »). Chacune pèse environ 10 Go.

Il existe aussi une démo web pour le plus puissant des modèles. Officiellement, qu’en anglais. Dans la pratique, des langues comme l’allemand et l’espagnol ne lui sont pas (tout à fait) inconnues. C’est plus difficile en français…

Bonne réponse sur une question fermée en espagnol.
Le modèle s’emmêle un peu les pinceaux sur une question ouverte en allemand.

Quelle roadmap ?

Stability AI promet des modèles StableLM à 15, 30, 65 et 175 milliards de paramètres. Il vise aussi une intégration avec OpenAssistant pour renforcer sa boucle de feed-back. Et la mise en place d’une passerelle avec le portage C/C++ de LLaMA.

D’où vient la « mascotte » de StableLM ?

Elle a été générée avec Stable Diffusion XL. Instruction : « A Stochastic Parrot, flat design, vector art ».

Illustration principale générée par IA

Recent Posts

IA générative : les lignes directrices de l’ANSSI

Formats de paramètres, méthodes d'apprentissage, mutualisation GPU... Voici quelques-unes des recommandations de l'ANSSI sur l'IA…

9 heures ago

De la marque blanche à l’« exemption souveraine », Broadcom fait des concessions aux fournisseurs cloud

À la grogne des partenaires VMware, Broadcom répond par diverses concessions.

13 heures ago

iPadOS finalement soumis au DMA

iPadOS a une position suffisamment influente pour être soumis au DMA, estime la Commission européenne.

14 heures ago

ChatGPT : le Financial Times signe avec OpenAI

FT Group, éditeur du Financal Times, a signé un accord avec OpenAI afin d'utiliser ses…

3 jours ago

Les hyperscalers renforcent leurs recherches et datacenters pour l’IA

Au premier trimestre, Microsoft, Meta/Facebook et Alphabet/Google ont déjà investi plus de 32 milliards $…

3 jours ago

Cybersécurité : Darktrace dans l’escarcelle de Thoma Bravo

La société britannique de cybersécurité Darktrace a accepté une offre de rachat de 5,32 milliards…

3 jours ago