Pour gérer vos consentements :
Categories: CloudDatacenters

Datacentres 2013 : une question d’argent, de logiciels et de rack désagrégé

En direct de Nice – Où en sont les technologies de datacenter aujourd’hui ? Derrière l’enthousiasme qui domine la nouvelle édition de Datacentres Europe 2013 se cachent des équipements, des outils, des solutions, et des budgets importants.

La désagrégation du rack

Il y en tout les cas un point auquel tous les acteurs du datacenter adhèrent : la désagrégation du rack. Cette approche sépare le processeur, la mémoire, les I/O (entrées/sorties) en sous systèmes modulaires qui communiquent en réseau optique sur les siliciums photonics.

Cette approche s’appuie également sur l’émergence du Software-defined Data Center (SDDC), à ne pas confondre avec le DCIM (Data Center Infrastructure Management), la gestion du datacenter qui a pris son envol en 2012 et qui continue d’attirer l’attention. Le SDDC est un accélérateur de l’adoption des technologies, comme les serveurs ARM, qui complexifient l’infrastructure mais auxquelles la virtualisation par un hyperviseur de la couche matérielle tend finalement à simplifier.

L’élasticité et la verticalité

L’élasticité apportée au datacenter par ces solutions logicielles est donc indispensable pour le futur. Elle prend déjà en compte la variabilité de la fourniture énergétique et du refroidissement, ainsi que le compute (ressources processeurs) à la demande et l’allocation dynamique des ressources. Sans oublier qu’elle participe à l’élasticité du cloud.

Concrètement, cela se traduit par exemple chez HP sur la conception de serveurs qui désormais sont construits à partir des attentes des métiers pour supporter des solutions, et non plus de construire des serveurs génériques auxquels s’adaptent les éditeurs. Ajoutons à cela les architectures unifiées, et les constructeurs vont nous proposer des stacks matérielles, logicielles et services complètes… L’équipementier du datacenter devient adepte de la verticalité !

L’argent, le nerf de la guerre !

Peter Gross : «Tout est à ramener à l’argent.»

Petit bémol dans cette ambiance optimiste, « tout est à ramener à l’argent », concède Peter Gross, vice-président Mission Critical Systems de Bloom Energy. L’évolution des besoins, la concentration des attentes, la densité des équipements, les règles et usages, tout milite à faire sérieusement progresser le prix du datacenter. A minima 45 à 50 millions d’euros avons-nous entendu plusieurs fois !

« Nous devons ré-évaluer nos objectifs ». Avant cela, deux tendances émergent : la consolidation des serveurs et des datacenters, qui pourrait s’engager sérieusement dès 2014, en tout cas pour les grands acteurs. Et la progression de la co-location, réponse économique à la question du coût initial versus le TCO.

Un outil pour le DSI

Avec le cloud, quelque soit sa forme – privé, public ou hybride – le DSI s’impose désormais comme un ‘broker’ de services IT. Afin de s’adapter à cette nouvelle réalité, il doit définir de nouvelles priorité pour son/ses datacenter(s) : flexibilité, scalabilité et rapidité. A l’opérateur du datacenter de trouver un équilibre entre les moyens dont il dispose pour tenter de suivre l’avancée des technologies, et les attentes des DSI qui cependant demeurent prudents, ce qui ne semble pas si simple. « Adopter l’innovation mais sans les risques, commente Peter Gross, optimiser le ratio entre fiabilité et coût. »

Il est deux points très liés, en tout cas, vers lesquels tous les regards convergent : l’efficacité énergétique et le refroidissement, le power et le cooling. Deux domaines qui n’ont pas fini de nous surprendre par la vitalité des projets innovants qui s’annoncent, même si le secret s’impose. Deux exemples : la fabrication locale d’énergie (on site generation) par le gaz et le recyclage des batteries pour stocker l’électricité…

Retrouvez la couverture de l’événement Datacentres Europe 2013 depuis cette page.


Découvrez les datacenters de Google, en images

Découvrez les datacenters de Google, en images

Image 7 of 10

Découvrez les datacenters de Google, en images
Hamina, Finlande : Vue aérienne de l'une des stations de refroidissement de Google, où l'eau de mer du golfe de Finlande refroidit entièrement le centre de données. Crédit photo © Google / Connie Zhou

Recent Posts

GPT-4o : où, quand et pour qui ?

OpenAI orchestre un déploiement très progressif de GPT-4o, y compris de ses capacités multimodales.

23 heures ago

Nom de domaine : Twitter définitivement remplacé par X

Elon Musk avait racheté le nom de domaine X.com à PayPal en 2017. Depuis juillet 2023,…

1 jour ago

Microsoft propose une délocalisation hors de Chine à ses ingénieurs IA et Cloud

Des centaines d'ingénieurs en IA et cloud travaillant pour Microsoft se voient proposer de quitter…

1 jour ago

Du « Monde » à Reddit, le point sur les partenariats data d’OpenAI

Reddit s'ajoute à la liste des « partenaires data » d'OpenAI. Qui rejoint-il ?

1 jour ago

Comment Younited a appliqué la GenAI au crédit conso

Younited a utilisé PaLM 2 puis Gemini pour catégoriser des transactions bancaires en vue de…

1 jour ago

Processeurs : les États-Unis fabriqueront 30 % des puces avancées d’ici 2032

Les États-Unis vont tripler leur capacité nationale de fabrication de puces et contrôler 30 %…

2 jours ago