Supercalculateurs: la Formule 1 de l’informatique

Nous faisons le point sur le marché stratégique et hautement technologique du calcul, avec Philippe Devins, Sales Manager HPC – ISS and Linux, et en particulier sur le Centre d’Utility Computing HPC1

La guerre fait rage pour occuper la tête du célèbre Top 500 des supercalculateurs. Une guerre stratégique, car le calcul est une vitrine technologique, en quelque sorte la F1 de l’informatique.

Sur le terrain et dans les entreprises, HP est le leader avec 34 % de part du marché, selon IDC, et devant IBM. Une place acquise par des choix industriels, en particulier de miser sur les standards, comme les processeurs Intel Itanium ou AMD Opteron, l’accessibilité en Gigabit ou Infiniband, ainsi que Linux et l’open source. Cependant, comme nous le rappelle Philippe Devins, « 50 % des softs de calcul sont encore propriétaires« . En revanche, si le calcul scientifique reste largement la première application de ces prestations très haut de gamme, le marché évolue vers la gestion. C’est pourquoi, évoquer le top 500, c’est comme évoquer la Formule 1 en oubliant que derrière cette vitrine existe une industrie, celle de l’automobile ! Ainsi, « si le top 500 reste dominé par les universités et les centres de recherche, en deux ans 30 % des places ont conquises par les entreprises industrielles, qu’il s’agisse du pétrole, de l’automobile, de l’Aérospatiale, de la biologie et de la pharmacie. Elles étaient inférieures à 1% en 2003 ! » Modélisation, numérisation, avant la gestion Le marché le plus dynamique aujourd’hui porte sur la modélisation et la numérisation. À l’exemple d’Airbus où la prochaine génération d’avions aura été développée à 100 % en simulation numérique. « Prenons l’exemple des tests en soufflerie. Ceux-ci ne peuvent pas être parfaits, car l’environnement et le support physique exercent une influence. À l’inverse, la soufflerie numérique est plus fine, donc plus fiable« . Sur le pétrole, le calcul le permet d’évaluer les réservoirs. Dans l’automobile, le cycle de production d’un nouveau véhicule est raccourci de huit ans à trois ans. « Pour les ‘crash test’, qui réclament plusieurs semaines de préparation, avec le calcul un jour suffit. Et il n’est pas besoin de balayer derrière ! » Mais le calcul ne peut pas non plus répondre à tout ! « La complexité s’accroît à un rythme exponentiel. Le calcul permet essentiellement de gagner du temps sur les compétences. Cependant en théorie, il n’y a pas de limite dans le calcul, ce qui permet d’affiner les éléments« . Et pourtant, la demande des clients s’accroît plus vite que la technologie. « Sur ce secteur, les besoins de puissance de calcul sont multipliés par deux tous les 12 mois, soit une pente de 50 %, supérieure à la loi de Moore« . Les acteurs du calcul sont donc amenés à réviser leurs modèles pour l’avenir, sur un marché qui présente heureusement l’intérêt de rester visible et d’être très dynamique. Les PME veulent accéder à la puissance Aujourd’hui, les petites entreprises disposent d’une capacité d’innovation aussi grande que les grands groupes. D’ailleurs, ces derniers font de plus en plus appel à des petites structures pour faire évoluer leurs produits ou acquérir des technologies. Mais les PME ne disposent pas des moyens pour s’offrir des outils de production numérique ! C’est en particulier ici qu’apparaît le modèle de l’utility computing, qui consiste à accéder à la technologie mais sans l’acquérir. L’externalisation du calcul s’impose, ce que la technologie permet aujourd’hui mais qui n’était pas le cas hier. « En divisant par 1000 le temps de traitement, les dernières technologies du calcul répondent aux besoins de puissance sur des périodes courtes, donc aux besoins technologiques de ces entreprises qui ne souhaitent ou ne peuvent acquérir la technologie, mais uniquement être utilisateur grâce à la location de puissance« . L’évolution des technologies Le calcul vient de franchir une étape stratégique dans son évolution, étape caractérisée à la fois par la capacité de ces tuyaux, mais aussi par l’adoption du modèle parallèle. « Jusqu’à présent, les calculateurs étaient basés sur le modèle symétrique multiprocesseur, très complexe, cher, et dont la maîtrise dépassait rarement les 64 processeurs en ligne. Avec le modèle parallèle, les calculateurs à 10.000 processeurs sont aujourd’hui envisageables à des prix plus abordables, pour des puissances qui peuvent atteindre les 50 à 60 teraflops. De plus, la proximité des processeurs, sur des clusters par exemple, permet d’accélérer les échanges« . Le modèle distribué une GRID devient alors une réalité. Il permet d’interconnecter les grands calculateurs, mais ne pourra cependant jamais répondre à toutes les attentes, car la technologie rencontre une vraie difficulté, « les limites de la vitesse de la lumière qui engendre des problèmes de latence« . Cette limite est aujourd’hui simple à exprimer : « toutes les applications ne pourront pas fonctionner avec nos connaissances actuelles. Nous nous trouvons donc dans l’obligation d’évoluer vers d’autres modèles« . À ce titre, les centres de calcul, les seuls capables de réunir un maximum de puissance pour un coût partagé, s’imposent. Encore faut-il l’industrie du logiciel suive ! « Elle a horreur du changement ! Ses craintes portent sur les ventes de logiciels, l’open source, et leur capacité à développer des outils adaptés aux calculateurs de nouvelle génération. Il faudra pourtant qu’elle s’ouvre à la demande du marché« . Dans ces conditions, paradoxalement, les centres de calcul s’imposent une nouvelle fois. D’une part pour tester les applications sans qu’il soit nécessaire d’investir dans la technologie. Mais aussi parce qu’ils font une entrée fracassante dans « le cercle vicieux de la logique industrielle qu’impose la compétitivité« . Et dans ce cadre hautement stratégique, qui se gagne aujourd’hui avant qu’un produit ne soit mis sur le marché, la mutualisation des outils de calcul devient un argument économique de poids, qu’il s’agisse pour les PME de développer leur innovation, ou pour les grands groupes d’écrêter leurs besoins.