Pour gérer vos consentements :
Categories: CloudDatacenters

Intel Datacenter Day : Diane Bryant veut réarchitecturer le datacenter

En direct de San Francisco : « Re-imagining the datacenter ». C’est en ces termes que Diane Bryant, Senior Vice President & General Manager Datacenter & Connected Systems Group d’Intel, a ouvert la conférence Intel Datacenter Day destinée à présenter la nouvelle stratégie d’Intel dans le datacenter, le big data et le HPC (calcul).

Intel doit faire face à la forte transformation des IT imposée par la vague du cloud computing, l’adoption massive des devices connectés et la multiplication des applications qui accompagnent les nouveaux usages. « La datacenter doit se transformer en machine à distribuer des services », déclare celle qui préside en particulier au devenir des processeurs Xeon et Atom pour serveurs.

Accompagner la transformation des IT

Pour Intel, le mouvement est en marche et ne pourra plus s’arrêter. Ainsi 9% des workloads seraient aujourd’hui résidents dans le cloud, 6% des grandes entreprises auraient commencé à déployer des solutions de Big data, et 12% de l’industrie américaine aurait déployé des solutions de HPC.

Derrière ces chiffres se cachent cependant d’autres, moins glorieux, qui alimentent la problématique IT : il faut encore 2 à 3 semaines pour déployer un nouveau service réseau et le trafic de données mobiles augmente annuellement de 66% ; le volume de stockage progresse annuellement de 40%, dont 90% en données non structurées ; et les serveurs restent encore à moins de 50% d’utilisation, malgré la virtualisation.

Pour accélérer le mouvement tout en répondant aux attentes – transformation des IT, réduction des coûts, apport de productivité et changement de nos façons de communiquer – les acteurs des IT ont « besoin de technologies faciles à déployer, à gérer, scalables et toujours disponibles. Nous pouvons résoudre ce problème en réarchitecturant le datacenter et l’infrastructure », affirme Diane Bryant.

Réarchitecturer le datacenter

Dans les faits, la vision d’Intel sur l’évolution du datacenter se traduit par « passer du statique au dynamique, du manuel à l’automatique, du fixé au flexible et du hardware au software-defined. Il faut standardiser, virtualiser et automatiser. Et pour cela nous avons besoin d’une plateforme de référence, avec du processeur Xeon et du logiciel, afin d’accompagner les entreprises vers le Software-Defined Data Center. »

Par ailleurs, Intel maintient son credo, la loi de Moore. Pour accompagner les attentes des entreprises, il faut toujours plus de performances, et c’est ce que fait Intel sur ses processeurs. A l’exemple du HPC, où en 15 ans les processeurs Intel sont passés de 3% à 80% de part de marché sur le Top 500 du supercomputing. Comment ? La performance a été multipliée par 1500, la puissance par 4 et le coût au flop réduit d’un facteur 1000.

Le choix du HPC dans la démonstration de Diane Bryant n’est pas anodin, en plus de faire l’objet d’une forte demande, ces plateformes de calcul ont une place à se faire dans l’analytique du big data. Nous y reviendrons dans un prochain article.

Software-Defined Data Center

L’émergence attendue du SDDC (Software-Defined Data Center) va changer les règles du jeu. Intel s’y prépare. Pour preuve ses travaux sur de nouveaux designs destinés à réarchitecturer le réseau. Ils devraient permettre de provisionner de nouveaux services réseaux en quelques minutes seulement.

Sur le stockage également, où l’on oublie trop souvent que derrière une solution il y a des serveurs, qui par exemple vont tirer parti des fonctionnalités d’accélérateurs intégrées dans le Xeon, ou de la nouvelle génération des NVM avec le processeur Atom. Intel affiche également ses SoCs dédiés au stockage, cartes PCIe ou SSD. Ainsi que ses solutions logicielles, d’accélération du cache ou encore sa propre édition de Lustre.

Diane Bryant termine la description du futur d’Intel dans le datacenter en décrivant rapidement le concept de Composable Resources. Derrière ce vocable se cache une nouvelle forme d’allocation des ressources – organisées en pools de compute, de mémoire et d’I/O (entrées/sorties) – pilotée par le logiciel. Et le tout communiquant en interne dans la baie sur du câblage silicium photonics.

Focus sur le Low Power

Et de terminer sur la roadmap de proximité d’Intel sur ses produits Low Power, la réduction de la consommation énergétique. Un rappel de l’implication du fondeur dans ce domaine, qui se traduit généralement par plus de cœurs et plus de performances dans une enveloppe énergétique stable ou qui tend baisser.

L’année 2013 marquera la fin du cycle des 22nm (nanomètre, la taille des composants qui intègrent le processeur), avec le Xeon E3 Haswell (13W) et les Atom Avoton et Rangeley (version pour les réseaux). 2014 marquera l’arrivée du cycle des 14nm, avec le Xeon Broadwell et son SoC, et le dernier né des Atom Denverton.

Notre analyse

Intel affiche une double ambition : « n’avoir qu’une seule architecture, Intel, dans le datacenter », dixit Diane Briant, et accompagner le Software-defined Data Center. Une fois que l’on a compris cela, tout en découle, les futures générations de processeurs Xeon et Atom, les nouveaux designs, les développements logiciels, le réseau, le big data…

Ici, le fondeur entend diffuser un message plus stratégique que technologique, même s’il continue bien évidemment de s’appuyer sur la technologie pour aboutir à ses fins. Nous n’avons pas fini d’entendre parler de la loi de Moore ! Et c’est tant mieux, car elle accompagne l’évolution des outils IT qui sont mis à notre disposition, toujours plus gourmands en ressources et donc en puissance de processeur… mais sans rien céder sur l’enveloppe énergétique.

Et proposant de réarchitecturer le datacenter, Intel ne fait donc que suivre le mouvement et cherche à maintenir son avance. Désormais considérée comme le standard du serveur, la technologie Intel, dans le prolongement de sa plateforme x86, doit pouvoir continuer de s’imposer, et les développeurs doivent pouvoir la supporter afin d’adapter leurs applications pour qu’elles profitent des fonctionnalités et performances nouvelles.

Intel doit donc continuer d’investir dans ce qui n’a rien d’accessoire, mais peu s’en souciaient, le logiciel. Le fondeur est certes encore loin de devenir une société de logiciels, mais il devient un incontournable et c’est justement ce qu’il entend maintenir afin de jouer son rôle dans la vague du Software-defined Data Center qui ne manquera pas de nous submerger.


Voir aussi

Silicon.fr étend son site dédié à l’emploi IT
Silicon.fr en direct sur les smartphones et tablettes

Recent Posts

Quels impacts de l’IA générative sur le monde de la cybersécurité ? : regards croisés entre Onepoint, Wavestone et Fortinet

Quels sont les impacts immédiats de l'IA générative sur la cybersécurité ? Comment le contexte…

60 minutes ago

Des serveurs IA cyberattaqués : le vecteur s’appelle Ray

Un éditeur attire l'attention sur des attaques exploitant l'absence d'autorisation dans une API du framework…

4 heures ago

Amazon débloque la deuxième tranche de son investissement dans Anthropic

Après un premier financement en septembre 2023, Amazon a débloquer le reste de l'enveloppe qu'il…

7 heures ago

Les logiciels libres entrés au SILL au premier trimestre 2024

D'Alpine Linux à XPipe, voic les dernières entrées au SILL (Socle interministériel de logiciels libres).

24 heures ago

Quelques chiffres pour contextualiser le premier livrable du comité de l’IA générative

Le comité de l'IA générative établi en septembre 2023 par le Gouvernement a formulé ses…

1 jour ago

Le DMA, cette entreprise de microgestion des Big Tech

L'UE multiplie les enquêtes et les procédures de non-conformité contre des entreprises soumises au DMA.

1 jour ago