Pour gérer vos consentements :
Categories: Solutions HPC

HPE tente d’adapter son offre GreenLake aux IA génératives

Renvoi d’ascenseur entre Aleph Alpha et HPE ? Jusqu’ici, le premier était client du second. Il est désormais aussi son fournisseur, dans le cadre de l’offre GreenLake for Large Language Models.

Cette dernière repose sur des supercalculateurs Cray XD, pour le moment hébergés au Canada, chez QScale. De type cloud privé (IaaS + PaaS), elle doit permettre d’entraîner et d’exécuter des LLM. À commencer, donc, par ceux que l’entreprise allemande Aleph Alpha a regroupés sous la marque Luminous.

Ces modèles – propriétaires – sont au nombre de trois. Avec, pour chacun, une déclinaison affinée pour suivre des instructions. Leur particularité : deux d’entre eux sont multimodaux, au sens où ils peuvent traiter à la fois du texte – en cinq langues dont le français – et des images. Ils sont par ailleurs capables d’expliquer les résultats qu’ils produisent.

Du Cray « spécial IA » en cloud privé

Le portefeuille GreenLake comprend déjà du HPC axé sur l’IA générative, mais dans le cadre d’une offre managée sur site.

Le marché nord-américain a la primauté de l’offre GreenLake for Large Language Models. En l’état, HPE prévoit une extension à l’Europe début 2024. Entretemps, il aura augmenté la capacité disponible. À défaut de tarification officielle, il y a celle de l’API Luminous :

Des multiplicateurs s’appliquent en fonction des tâches (le résumé coûte plus cher que le Q&A, lui-même plus onéreux que la complétion).

Cette API, Software AG en fait officiellement usage depuis peu. En l’occurrence, dans son iPaaS webMethods.io, également doté d’un connecteur ChatGPT.

La relation entre HPE et Aleph Alpha est établie de longue date. La start-up avait déjà participé à l’édition 2022 de la conférence Discover. Elle avait notamment témoigné de son adoption de la plate-forme HPE Machine Learning Development System. Le système qui en résulte figure dans le dernier TOP500, au 88e rang. Baptisé alpha ONE, il repose sur la plate-forme Apollo 6500, avec des serveurs ProLiant en AMD et des GPU NVIDIA A100.

Plus récemment, les deux entreprises ont communiqué sur un cas d’usage des LLM Luminous pour la maintenance prédictive au sein des usines. Ils ont, en particulier, effectué une démonstration de cobot.

À consulter en complément :

RISC-V : la stratégie de l’UE passera par EuroHPC
Supercalculateurs : les 10 systèmes les plus puissants  en 2023
Leonardo fait ses débuts : ce qu’il faut savoir sur ce supercalculateur
HPE Ezmeral veut rester dans la course à l’IA

Photo d’illustration © IM Imagery – Adobe Stock

Recent Posts

Legapass : comment protéger ses données privées jusque dans l’au-delà

Comment gérer les données numériques après la mort de son détenteur ? La jeune pousse…

2 jours ago

Iris, un assistant d’IA conversationnelle en langue des signes

Ivès, expert en accessibilité de la surdité, s’est associé à Sopra Steria et à IBM…

3 jours ago

GenAI : le Royaume-Uni poursuit ses investigations sur les partenariats de Microsoft et Amazon

L'Autorité de la concurrence et des marchés (CMA) a lancé la phase de recherche de…

3 jours ago

Clients de VMware : les raisons de la colère

Broadcom remplace pas moins de 168 logiciels VMware par deux grandes licences de location correspondant…

3 jours ago

Laurent Carlier – BNP Paribas Global Market : « L’IA permet de modéliser des relations plus complexes, mais il faut rester prudent »

La banque d’investissement utilise l'IA pour proposer des stratégies individualisées, en termes de rendement et…

4 jours ago

Open Compute Project : les datacenters partagent des bonnes pratiques pour l’environnement

OVHCloud partage ses efforts environnementaux au sommet de l’Open Compute Project qui se tient à…

4 jours ago