Sébastien Monot, AS+ : « Il faut une solution transverse de calcul pour les accélérateurs et processeurs »

Sebastien Monot, ASPlus

Entretien avec Sébastien Monot d’AS+ (groupe Eolen) au sujet de la problématique du calcul parallèle sur les architectures hybrides. Une technique qui pose des problèmes de ‘maintenabilité’ du code.

Sébastien Monot est responsable du pôle d’expertise HPC chez AS+, entité qui fait partie du groupe Eolen (360 employés et 21,5 millions de chiffre d’affaires en 2012).

Eolen est une société de conseil et d’ingénierie française spécialisée dans les domaines suivants : télécoms et multimédia ; finance ; aéronautique, spatial et défense ; énergie et sciences de la vie, etc. Des activités où le calcul haute performance est souvent présent.

Expert (entre autres) des architectures hybrides – il aide ses clients, dont le CEA, à porter leur code sur des machines massivement parallèles –, Sébastien Monot partage avec nous sa vision du marché des accélérateurs et des supercalculateurs.

Silicon.fr – Vous êtes plutôt CPU, GPU, Xeon Phi, Power ou ARM ?

Sébastien Monot – Du point de vue de la performance brute, les accélérateurs, notamment à base de GPU, et notamment de Nvidia, restent globalement l’offre la plus intéressante du fait de la richesse et de la puissance de leur modèle de programmation. La difficulté qui remonte avec CUDA (la solution de programmation proposée par Nvidia, NDLR) reste le développement du code.

Avec le Xeon Phi d’Intel, cette difficulté est partiellement masquée par OpenMP. Toutefois, lorsque vous souhaitez obtenir des performances optimales, le travail d’adaptation du code reste identique.

Dans le secteur du HPC, l’approche IBM (des cœurs Power basse consommation, NDLR) s’avère intéressante. Nous gardons également un œil sur ARM : des supercalculateurs qui mixent des CPU basse consommation et des accélérateurs sont des perspectives intéressantes à terme.

Donc ce sont les GPU qui vont se démarquer…

Il existe encore un flottement dans les secteurs académiques comme industriels. Chacun se demande quel sera le bon choix. Si vous regardez les deux premiers clusters du Top500, le premier est pourvu d’Intel Xeon Phi et le second de Nvidia Tesla K20x.

Il faut donc proposer une solution transverse de calcul pour les accélérateurs et processeurs. C’est cette problématique que nous adressons dans le cadre du projet européen ITEA MACH (lien), aux côtés d’acteurs comme le CEA, l’INRA, Thales ou encore Fraunhofer-Gesellschaft.

Avec le projet MACH (MAssive Calculations on Hybrid systems), nous souhaitons offrir un niveau d’abstraction qui permette aux développeurs de ne pas avoir à choisir entre toutes ces technologies. Cela permettra d’éviter les futures refontes d’un code destiné à vivre longtemps.

MACH sera-t-il aussi utile sur des CPU ?

L’intégration d’unités vectorielles est une importante tendance sur les processeurs classiques. Or, leur utilisation rejoint la même problématique que celle soulevée par les accélérateurs. En tout état de cause, le code optimisé pour du calcul parallèle se comportera encore mieux sur un processeur moderne…

Crédit photo : © AS+ Groupe EOLEN


Voir aussi
Quiz Silicon.fr – Que savez-vous des supercalculateurs ?