Pour gérer vos consentements :
Categories: CloudDatacenters

Datacentres 2013 : une question d’argent, de logiciels et de rack désagrégé

En direct de Nice – Où en sont les technologies de datacenter aujourd’hui ? Derrière l’enthousiasme qui domine la nouvelle édition de Datacentres Europe 2013 se cachent des équipements, des outils, des solutions, et des budgets importants.

La désagrégation du rack

Il y en tout les cas un point auquel tous les acteurs du datacenter adhèrent : la désagrégation du rack. Cette approche sépare le processeur, la mémoire, les I/O (entrées/sorties) en sous systèmes modulaires qui communiquent en réseau optique sur les siliciums photonics.

Cette approche s’appuie également sur l’émergence du Software-defined Data Center (SDDC), à ne pas confondre avec le DCIM (Data Center Infrastructure Management), la gestion du datacenter qui a pris son envol en 2012 et qui continue d’attirer l’attention. Le SDDC est un accélérateur de l’adoption des technologies, comme les serveurs ARM, qui complexifient l’infrastructure mais auxquelles la virtualisation par un hyperviseur de la couche matérielle tend finalement à simplifier.

L’élasticité et la verticalité

L’élasticité apportée au datacenter par ces solutions logicielles est donc indispensable pour le futur. Elle prend déjà en compte la variabilité de la fourniture énergétique et du refroidissement, ainsi que le compute (ressources processeurs) à la demande et l’allocation dynamique des ressources. Sans oublier qu’elle participe à l’élasticité du cloud.

Concrètement, cela se traduit par exemple chez HP sur la conception de serveurs qui désormais sont construits à partir des attentes des métiers pour supporter des solutions, et non plus de construire des serveurs génériques auxquels s’adaptent les éditeurs. Ajoutons à cela les architectures unifiées, et les constructeurs vont nous proposer des stacks matérielles, logicielles et services complètes… L’équipementier du datacenter devient adepte de la verticalité !

L’argent, le nerf de la guerre !

Peter Gross : «Tout est à ramener à l’argent.»

Petit bémol dans cette ambiance optimiste, « tout est à ramener à l’argent », concède Peter Gross, vice-président Mission Critical Systems de Bloom Energy. L’évolution des besoins, la concentration des attentes, la densité des équipements, les règles et usages, tout milite à faire sérieusement progresser le prix du datacenter. A minima 45 à 50 millions d’euros avons-nous entendu plusieurs fois !

« Nous devons ré-évaluer nos objectifs ». Avant cela, deux tendances émergent : la consolidation des serveurs et des datacenters, qui pourrait s’engager sérieusement dès 2014, en tout cas pour les grands acteurs. Et la progression de la co-location, réponse économique à la question du coût initial versus le TCO.

Un outil pour le DSI

Avec le cloud, quelque soit sa forme – privé, public ou hybride – le DSI s’impose désormais comme un ‘broker’ de services IT. Afin de s’adapter à cette nouvelle réalité, il doit définir de nouvelles priorité pour son/ses datacenter(s) : flexibilité, scalabilité et rapidité. A l’opérateur du datacenter de trouver un équilibre entre les moyens dont il dispose pour tenter de suivre l’avancée des technologies, et les attentes des DSI qui cependant demeurent prudents, ce qui ne semble pas si simple. « Adopter l’innovation mais sans les risques, commente Peter Gross, optimiser le ratio entre fiabilité et coût. »

Il est deux points très liés, en tout cas, vers lesquels tous les regards convergent : l’efficacité énergétique et le refroidissement, le power et le cooling. Deux domaines qui n’ont pas fini de nous surprendre par la vitalité des projets innovants qui s’annoncent, même si le secret s’impose. Deux exemples : la fabrication locale d’énergie (on site generation) par le gaz et le recyclage des batteries pour stocker l’électricité…

Retrouvez la couverture de l’événement Datacentres Europe 2013 depuis cette page.


Découvrez les datacenters de Google, en images

Découvrez les datacenters de Google, en images

Image 10 of 10

Découvrez les datacenters de Google, en images
Comté de Mayes, Oklahoma : Une vue inhabituelle de l'arrière de la rangée de serveurs. Ici, des centaines de ventilateurs dirigent l'air chaud provenant des racks de serveurs vers un refroidisseur. Crédit photo © Google / Connie Zhou.

Recent Posts

Ce qui change avec la version 2024 du référentiel d’écoconception de services numériques

Un an et demi après sa publication initiale, le RGESN est mis à jour. Tour…

8 heures ago

Microsoft x Mistral AI : l’Autorité britannique de la concurrence renonce à enquêter

Le régulateur britannique de la concurrence renonce à une enquête approfondie sur le partenariat de…

10 heures ago

MFA obligatoire sur Azure : ce que prépare Microsoft

À partir de juillet 2024, Microsoft imposera progressivement le MFA pour certains utilisateurs d'Azure. Aperçu…

14 heures ago

Informatique quantique : Pasqal vend un premier ordinateur en Arabie Saoudite

La pépite française de l'informatique quantique Pasqal va installer un ordinateur quantique de 200 qubits…

15 heures ago

Incident « sans précédent » chez Google Cloud : que s’est-il passé ?

Le fonds de pension australien UniSuper a vu son abonnement Google Cloud supprimé - et…

16 heures ago

GPT-4o : où, quand et pour qui ?

OpenAI orchestre un déploiement très progressif de GPT-4o, y compris de ses capacités multimodales.

3 jours ago