Microsoft et le calcul HPC, une affaire qui marche

Eric Nataf est l’heureux responsable des produits HPC (High Performance Computing) de Microsoft en France. Heureux, car sa division, tant en France que dans le monde, « a vu l’adoption[de Windows HPC]dans des endroits dans lesquels on ne pensait pas que cela se produirait ! »

– Comment expliquez-vous ce succès ?

Windows Compute Cluster Server (CCS) 2003 est disponible depuis septembre 2006. Il nous a fallu deux à trois ans de développements chez Microsoft.

Notre solution est basée sur Windows Server 2003, ce qui favorise l’intégration avec les infrastructures existantes, dont une majorité a adopté notre OS pour serveurs. C’est également un plus pour l’intégration de composants spécifiques, comme un ordonnanceur de tâches.

Nous avons également bénéficié de l’engagement dès le lancement d’une dizaine d’éditeurs clé, avec des plans de disponibilités, ce qui est important sur un marché de niche.

Depuis, nous avons largement fait évoluer le momentum de notre écosystème, en multipliant par trois le nombre d’éditeurs qui nous accompagnent. Sans oublier le support des constructeurs, comme l’ont annoncé plus récemment IBM et HP.

Et nous avons débuté par le bas du marché, ce qui nous rend proches des PME/PMI qui sont aujourd’hui le c?ur du marché.

– Le calcul restait réservé à des infrastructures plutôt lourdes. L’arrivée de solutions plus légères, comme l’exploitation des GPU (composants graphiques) pour la parallélisassions doit vous aider ?

Le calcul s’exécute en grande partie sur les stations de travail, et évolue sur les clusters et les serveurs, qui touchent plutôt les grandes organisations. Ce mouvement vers le calcul partagé permet d’optimiser les infrastructures en faisant évoluer la puissance de calcul sans renouveler les parcs.

Le problème avec les nouveaux matériels, c’est qu’il faut faire passer les applications dans la moulinette des compilateurs. C’est pourquoi ils restent surtout intéressants pour le multimédia.

Il faut plutôt regarder les modes d’usage. La simulation et le calcul s’exécutent en priorité sur des stations de travail. Evidemment l’évolution du GPU et le multiprocessing représentent des évolutions de premier plan, mais on reste bloqués par la puissance.

Il est donc plus facile d’adopter un ‘blade’ (serveur lames) pour ses capacités d’évolution, d’où également le mouvement des stations de travail vers les clusters de calcul. Sans oublier la question de l’optimisation des licences.

– Comment voyez-vous le marché du calcul ?

Le marché des serveurs tend à ralentir, avec une progression annuelle de l’ordre de 3 % à 4 %. Pour un chiffre d’affaires de 42 milliards de dollars. Le HPC progresse actuellement de 10 %, avec un chiffre d’affaires de 10 milliards de dollars.

Selon IDC, le HPC devrait dans 3 ou 4 ans représenter un tiers du marché hardware des serveurs.

Le marché est encore plutôt concentré sur le ‘cluster workgroup’, avec des investissements de l’ordre de 50.000 dollars, et les départementaux, à 250.000 dollars. En revanche, le marché du haut de gamme, même s’il reste très médiatisé, est devenu un marché marginal.

Par contre, il n’y a pas vraiment de secteur qui soit plus porteur qu’un autre. Les domaines principaux sont la finance, l’industrie et le multimédia. La santé et la pharmacie sont également une cible, ainsi que l’exploration pétrolière, avec un gros marché en Russie.

– Et comment vous voyez-vous sur ce marché ?

Une des surprises rencontrées par Microsoft a porté sur le dynamisme de certains segments de marchés. Les verticaux, avec l’ingénierie et les grands comptes. L’éducation, où l’accueil qui nous est réservé est plus important qu’attendu, sauf en France où l’on résonne en priorité Linux ; et la finance, l’attente la plus forte en France où les banques affichent du retard.

Et dans beaucoup d’entreprises, le système d’exploitation des grids passe de Linux à Windows.

– Comment expliquez-vous cela ?

C’est d’abord une question de motivation. Windows a été adopté par beaucoup d’entreprises pour la gestion de plate-forme, la sécurité et le management. Elles ne sont pas pressées d’investir sur Linux.

C’est également lié à une réflexion sur la notion de productivité dans le temps. Jusqu’à aujourd’hui, le calcul était lié à la recherche de puissance absolue, il n’était pas question de prix. La simulation était un processus décorélé du reste avec des environnements détachés.

Aujourd’hui, la recherche de productivité entraîne une réflexion sur l’intégration, le partage et la collaboration autour de la plate-forme Windows.

Et puis, l’offre de Microsoft est modulaire, face à des concurrents qui ne proposent qu’une version de leur produit, mais par système d’exploitation.

Nous avons atteint notre objectif initial, proposer une solution intégrée, qui réponde à 80 % à 90 % des attentes du marché, et qui peut être proposée packagée. Et face à des solutions plus complexes, la solution de Microsoft est peut-être plus limitée, mais elle est en revanche plus accessible.

– Comment voyez-vous l’avenir ?

Nous allons apporter de nouvelles réponses avec la v2 qui sera proposée dans un an. Elle sera basée sur Longhorn Windows Server 2008, sera optimisée sur les entrées sorties (I/O), sur les accès réseaux et sur la scalabilité.

Nous conserverons une approche packagée, mais nous serons plus modulaires. Notre valeur, c’est Windows Server, notre écosystème applicatif et nos partenaires. Et nous laissons aux utilisateurs la possibilité d’utiliser d’autres MPI et ordonnanceurs, comme ceux d’IBM ou d’HP, ce qui étend notre potentiel et apporte plus d’attractivité avec les composants.

Nous participons à démocratiser le HPC chez les clients en leur offrant le choix de Windows plutôt que Linux. Avec nos partenaires, les constructeurs ont la culture Windows Server. Et nous allons prendre l’initiative sur les PME/PMI.

Sur cette cible, la prochaine étape sera composée de ‘bundles’ qui seront plus ‘plug-and-play’. Les éditeurs pourront adresser plus largement et facilement le marché des PME. Quant aux intégrateurs, les principaux ont commencé à travailler avec Microsoft, ce qui leur permet d’étendre l’accès au marché.

C’est la même dynamique dans tous les pays. Notre écosystème s’étend vers des partenaires non HPC, d’où l’intérêt pour les solutions packagées. D’ici 12 à 18 mois, nous allons assister à l’arrivée de partenaires non spécialistes. Idem pour les éditeurs et les entreprises qui veulent paralléliser leurs applications pour augmenter leur performance et la scalabilité. C’est une évolution naturelle des applications vers le HPC.

L’arrivée des stations de travail octo-c?urs devrait également élargir le marché, mais le multi c?urs est encore mal exploité, alors que le multithreading devient un enjeu de premier plan. Une fois les applications parallélisées, il devient plus simple de basculer sur le HPC.

– Quelles sont vos relations avec les grands éditeurs de solutions de CAO ?

Ils sont déjà des partenaires stratégiques de Microsoft. L’avantage des clusters est de rendre le calcul transparent aux yeux des utilisateurs. Le multimédia annonce également un essor important. Par exemple, Windows Media est parallélisé sur un cluster de calcul.

– Et avec les développeurs ?

C’est un autre phénomène. Dans la finance, les environnements de développement sont surtout Windows et .NET. Sur le HPC classique, 70 % des applications sont packagées, mais 20 % à 30 % sont l’objet de développements internes. Beaucoup de développements sont réalisés sur une plate-forme Windows, puis portés sous Linux. Nous offrons l’opportunité de reprendre le même environnement, Windows, pour l’exploitation.

Avec Visual Studio, nous proposons des librairies HPC pour paralléliser et débugger en temps réel sur le cluster. Nous offrons un environnement de développement pour faciliter la migration vers des mondes parallèles.

De plus, Microsoft affiche une stratégie sur le long terme. Pour démocratiser la partie basse du marché, puis la partie haute. Il faut rappeler que Microsoft est l’un des premiers investisseurs sur le monde du HPC, ce qui apporte une dynamique importante au marché.

– Votre actualité proche ?

La bêta de la version 2 sera présentée avant la fin de l’année, très certainement au SuperComputingen novembre. La V2 sera disponible à l’été 2008.

Avec l’intégration, les développements, la richesse fonctionnelle et la performance, nos clients profitent dès aujourd’hui des avantages de la plate-forme Windows.