Microsoft et le calcul HPC, une affaire qui marche

Microsoft annonçait voici un an sa solution de calcul HPC avec Windows CCS
2003. Depuis, l’éditeur a rencontré un succès qui a largement dépassé ses
espérances

Eric Nataf est l’heureux responsable des produits HPC (High Performance Computing) de Microsoft en France. Heureux, car sa division, tant en France que dans le monde, « a vu l’adoption[de Windows HPC]dans des endroits dans lesquels on ne pensait pas que cela se produirait ! »

– Comment expliquez-vous ce succès ?

Windows Compute Cluster Server (CCS) 2003 est disponible depuis septembre 2006. Il nous a fallu deux à trois ans de développements chez Microsoft.

Notre solution est basée sur Windows Server 2003, ce qui favorise l’intégration avec les infrastructures existantes, dont une majorité a adopté notre OS pour serveurs. C’est également un plus pour l’intégration de composants spécifiques, comme un ordonnanceur de tâches.

Nous avons également bénéficié de l’engagement dès le lancement d’une dizaine d’éditeurs clé, avec des plans de disponibilités, ce qui est important sur un marché de niche.

Depuis, nous avons largement fait évoluer le momentum de notre écosystème, en multipliant par trois le nombre d’éditeurs qui nous accompagnent. Sans oublier le support des constructeurs, comme l’ont annoncé plus récemment IBM et HP.

Et nous avons débuté par le bas du marché, ce qui nous rend proches des PME/PMI qui sont aujourd’hui le c?ur du marché.

– Le calcul restait réservé à des infrastructures plutôt lourdes. L’arrivée de solutions plus légères, comme l’exploitation des GPU (composants graphiques) pour la parallélisassions doit vous aider ?

Le calcul s’exécute en grande partie sur les stations de travail, et évolue sur les clusters et les serveurs, qui touchent plutôt les grandes organisations. Ce mouvement vers le calcul partagé permet d’optimiser les infrastructures en faisant évoluer la puissance de calcul sans renouveler les parcs.

Le problème avec les nouveaux matériels, c’est qu’il faut faire passer les applications dans la moulinette des compilateurs. C’est pourquoi ils restent surtout intéressants pour le multimédia.

Il faut plutôt regarder les modes d’usage. La simulation et le calcul s’exécutent en priorité sur des stations de travail. Evidemment l’évolution du GPU et le multiprocessing représentent des évolutions de premier plan, mais on reste bloqués par la puissance.

Il est donc plus facile d’adopter un ‘blade’ (serveur lames) pour ses capacités d’évolution, d’où également le mouvement des stations de travail vers les clusters de calcul. Sans oublier la question de l’optimisation des licences.

– Comment voyez-vous le marché du calcul ?

Le marché des serveurs tend à ralentir, avec une progression annuelle de l’ordre de 3 % à 4 %. Pour un chiffre d’affaires de 42 milliards de dollars. Le HPC progresse actuellement de 10 %, avec un chiffre d’affaires de 10 milliards de dollars.

Selon IDC, le HPC devrait dans 3 ou 4 ans représenter un tiers du marché hardware des serveurs.

Le marché est encore plutôt concentré sur le ‘cluster workgroup’, avec des investissements de l’ordre de 50.000 dollars, et les départementaux, à 250.000 dollars. En revanche, le marché du haut de gamme, même s’il reste très médiatisé, est devenu un marché marginal.

Par contre, il n’y a pas vraiment de secteur qui soit plus porteur qu’un autre. Les domaines principaux sont la finance, l’industrie et le multimédia. La santé et la pharmacie sont également une cible, ainsi que l’exploration pétrolière, avec un gros marché en Russie.

– Et comment vous voyez-vous sur ce marché ?

Une des surprises rencontrées par Microsoft a porté sur le dynamisme de certains segments de marchés. Les verticaux, avec l’ingénierie et les grands comptes. L’éducation, où l’accueil qui nous est réservé est plus important qu’attendu, sauf en France où l’on résonne en priorité Linux ; et la finance, l’attente la plus forte en France où les banques affichent du retard.

Et dans beaucoup d’entreprises, le système d’exploitation des grids passe de Linux à Windows.

– Comment expliquez-vous cela ?

C’est d’abord une question de motivation. Windows a été adopté par beaucoup d’entreprises pour la gestion de plate-forme, la sécurité et le management. Elles ne sont pas pressées d’investir sur Linux.

C’est également lié à une réflexion sur la notion de productivité dans le temps. Jusqu’à aujourd’hui, le calcul était lié à la recherche de puissance absolue, il n’était pas question de prix. La simulation était un processus décorélé du reste avec des environnements détachés.

Aujourd’hui, la recherche de productivité entraîne une réflexion sur l’intégration, le partage et la collaboration autour de la plate-forme Windows.

Et puis, l’offre de Microsoft est modulaire, face à des concurrents qui ne proposent qu’une version de leur produit, mais par système d’exploitation.

Nous avons atteint notre objectif initial, proposer une solution intégrée, qui réponde à 80 % à 90 % des attentes du marché, et qui peut être proposée packagée. Et face à des solutions plus complexes, la solution de Microsoft est peut-être plus limitée, mais elle est en revanche plus accessible.