Quantcast
PME : mesurez-vous aux plus grands !

PME, osez un supercalculateur !

Disposer d’un supercalculateur est un véritable atout pour se différencier de la concurrence. En répondant plus vite aux demandes des clients. Mais aussi en innovant, via la simulation ou l’analytique.

Les supercalculateurs sont souvent vus comme l’apanage des grands centres de recherche, publics ou privés. Mais avec l’amélioration croissante de la puissance de traitement des serveurs, posséder un cluster HPC (High Performance Computing) est aujourd’hui à la portée de pratiquement toutes les entreprises.

Un ou plusieurs serveurs placés dans une armoire, quelques accélérateurs – par exemple des Xeon Phi –, un commutateur réseau rapide (10 GbE ou plus), une unité de stockage full-Flash et le tour est joué : vous disposez d’un supercalculateur, certes basique, mais tout à fait crédible. Pour quoi faire ?

Des calculs plus rapidement et pour moins cher

Deux raisons principales peuvent justifier la mise en place d’un supercalculateur. Primo, l’avantage concurrentiel qu’il vous procurera. Pour un bureau d’études, être capable de modéliser un produit complexe rapidement est souvent décisif pour remporter un contrat. Et être en mesure d’effectuer des simulations numériques poussées à du sens pour éviter de faire fausse route au moment de passer en production.

Ces tâches sont aujourd’hui prises en charge par des stations de travail. Le supercalculateur permettra de mutualiser cette puissance, au sein d’un unique ensemble, plus efficace et plus économique qu’une foule de stations isolées. Reste bien évidemment qu’il faut disposer de logiciels adaptés. Fort heureusement, les outils de design et de simulation capables de faire appel à un cluster deviennent de plus en plus courants.

Il peut même être opportun de déporter complètement les stations de travail sur des serveurs, via l’utilisation de la VDI (Virtual Desktop Infrastructure : virtualisation du poste de travail). Des outils permettent en effet aujourd’hui de distribuer la capacité de traitement vers les utilisateurs. Y compris la puissance de rendu 3D.

Booster l’innovation au sein de l’entreprise

Des pays comme les États-Unis ou la Chine l’ont bien compris : la recherche moderne, fortement dépendante de la simulation numérique, requiert de disposer de supercalculateurs extrêmes. Il en va de même en entreprise : être capable de simuler des cas complexes est un atout pour balayer diverses options et trouver la mieux à même de se différencier de la concurrence. Un élément clé dans l’industrie.

Pour les entreprises plus classiques, l’analytique lourde est à la portée d’un supercalculateur. Ce n’est d’ailleurs pas un hasard si les infrastructures d’analytique Big Data se révèlent si proches de celles adoptées dans le monde du calcul de hautes performances. Étudier des gènes ou des données clients issues du Big Data suppose l’utilisation d’infrastructures IT très proches.

Les logiciels mis en œuvre dans les deux secteurs seront toutefois différents. Et c’est une chance, car côté IT les solutions sont nombreuses : analytique lourde, machine learning, outils décisionnels, etc. Le tout compatible avec les volumes de données propres au monde du Big Data.

David Feugey, ex-rédacteur en chef de Silicon.fr