Intel et le CERN associent leurs compétences

Intel et le Centre Européen pour la Recherche Nucléaire (CERN) lancent d’un nouveau centre de compétences de plateformes de processeurs

Destiné au plus grand laboratoire de physique de particules au monde, le centre de compétences de plates-formes va tester et valider les technologies issues des dernières générations de processeurs 64 bits, de la virtualisation et de l’architecture multic?ur dans le milieu de la physique des particules.

Intel est le premier partenaire industriel à s’engager dans le projet openlab II, qui démarrera en 2006. Avec le CERN, il renforce son partenariat engagé lors d’une première phase industrielle pour la mise en place de l’openlab du CERN. L’accord prévoit l’accès en primeur aux nouveaux processeurs, plates-formes et équipements réseaux d’Intel, ainsi qu’à un ensemble de technologies intégrées de semi-conducteurs de prochaine génération, qu’Intel a baptisé les ‘Ts’ (prononcer ‘tiz’). En complément, Intel assistera le CERN dans le cadre du lancement d’un centre d’interopérabilité de grille de calcul (Grid Interoperability Centre), afin d’évaluer les bénéfices du calcul distribué appliqué à la recherche dans le milieu de la physique des particules et de valider son intégration dans l’infrastructure existante du CERN. Intel ouvrira prochainement au CERN son programme Advanced Computing Center, prévu pour accélérer le développement de nouveaux systèmes de calculs intensifs (HPC) offrant plus de flexibilité et de puissance de calcul. Ainsi que les calculs distribués (grid computing), le calcul intensif (High Performance Computing) et les technologies d’interconnexion des systèmes informatiques (clustering). Les travaux de l’openlab, version 1

Au cours de la première phase de trois ans de l’openlab, les partenaires industriels associés au projet (Intel, Enterasys, IBM, HP et Oracle) ont testé et validé l’opencluster du CERN, composé de plus de 100 serveurs chacun doté de deux processeurs Intel Itanium 2. Ils ont aussi évalué ses performances dans le cadre de la grille de calcul internationale indispensable pour gérer les grandes quantités de données que devraient produire les expériences menées à l’aide du LHC. Prévu pour une mise en exploitation en 2007, ce collisionneur mesure 27 kilomètres de circonférence et générera plus de 10 millions de gigaoctets de données par an. Ces dix-huit derniers mois, l’opencluster du CERN a joué un rôle vital pour la simulation de l’opération, en conditions réelles, du fonctionnement de la grille de calcul du LHC (LHC Computing Grid). Il s’agissait en particulier de relever le défi que représente une contrainte de service matérialisée par un débit soutenu de 600 mégaoctets par seconde (Mo/s) atteint en avril 2005 entre le CERN et sept grands centres d’informatique scientifique dans le monde. Depuis, ces contraintes se sont accentuées, puisque les transmissions de données se prolongent à présent sur plusieurs semaines et concernent 20 centres informatiques dans le monde. Cet opencluster reposant sur du matériel Intel a également permis aux ingénieurs du CERN d’obtenir, dans des délais record, des résultats critiques pour l’optimisation des écoulements de chaleur autour des immenses détecteurs de particules du LHC. Ce défi relevé a ainsi pleinement démontré l’impressionnante puissance de calcul de cet opencluster dédié au CERN.