Pour gérer vos consentements :
Categories: Cloud

SAP annonce la disponibilité d’une 1ère application HANA

Est-on en train de ré-inventer le ‘mainframe’? Certes, autour d’architectures multicoeurs avec traitement massivement parallèle… Mais où est la révolution dans le concept?
Cette offre, affirme SAP, constitue un tournant dans l’histoire de la gestion de données. HANA (High-performance analytic appliance) serait une petite révolution car, pour les entreprises cible, cette appliance conduirait à « repenser les couches et la structure du système d’information traditionnel« . Pas moins…

Rappel: cette solution sous forme d »appliance’ (logiciel et matériel intégrés) repose sur la technologie de mise en mémoire vive (‘in-memory‘) de toutes les données que l’on veut analyser, plutôt que de procéder à des traitements successifs par sous-ensembles, avec une succession d’accès disques ce qui, aujourd’hui encore, peut prendre plusieurs heures, voire plusieurs jours.
En installant toutes les tables de données et en les chaînant sur une ressource mémoire unique de plusieurs tera-octets adressée par des processeurs multi-coeurs très rapides, on obtient des résultats d’analyse « quasi instantanément ou quasi ‘temps réel‘ ».
Cette technologie « permet de simuler des scénarios en temps réel, d’analyser rapidement des mises en relations complexes de données -et donc de prendre des décisions » (…)

Comme l’a expliqué à la presse, ce 1er décembre, Vishal Sikka, directeur ‘Technology and Innovation Platform‘ lors d’une téléconférence en direct du salon SAP TechEd 2010 à Bengalore (centre de l’Inde), cette solution a été rendue possible grâce à la baisse de prix considérable des chips mémoires mais également des processeurs de nouvelle génération, des ‘CPU’ multi-coeurs avec une capacité d’adressage mémoire quasi illimitée. Une même CPU peut donc charger en mémoire des volumes de données de plusieurs tera-octets et exécuter des traitements en quelques secondes.

A cette conférence, un responsable informatique du fabricant d’outillage Hilti a témoigné: « Des analyses de données qui jusqu’ici nécessitaient 2 à 3 heures de traitement, se font en 2 à 3 secondes« , a-t-il expliqué aux journalistes incrédules. Pourquoi? « Tout simplement, parce que le système charge en mémoire l’intégralité des tables de donnés -ou ‘métadonnées’, ce que nous ne pouvions pas faire jusque là. »

« Nous avons fait le test avec 9 millions d’enregistrements « clients » : en installant la totalité en mémoire, il a été possible de faire des tris et simulations en quelques secondes, et non plus sur des jours d’extraction des données depuis notre ‘data warehouse’ avec SAP Business Suite« , explique Martin Petry, autre responsable (CIO) de Hilti. Nous allons explorer plus avant l’impact de transformation sur notre activité« .

Hilti fait partie d’un petit groupe d’entreprises -dont Coca-Cola Hellenic, Future group- qui ont contribué à un programme de co-développement impliquant d’autres partenaires de l’industrie IT (non cités!).  SAP parle d’un « moteur de calcul innovant permettant de réaliser directement ‘in-memory’ un traitement d’application. »

SAP BO Strategic Workforce Planning

SAP HANA, BO Strategic Workplanning

SAP en a profité pour introduire une nouvelle application: SAP BusinessObjects Strategic Workforce Planning, la première reposant sur HANA.

Dans les mois qui viennent, SAP prévoit d’introduire d’autres applications également co-développées avec des partenaires et des clients, donc pré-paramétrées, vraisemblablement.
Le système, affirme SAP, permet de « lancer des rapports complexes et des requêtes parmi 500 milliards d’enregistrements de points de vente en moins d’une minute« , cela grâce à des algorithmes de traitement sur des processeurs ‘multi-coeurs’. Ceci a été réalisé sur une configuration système comptant 10 serveurs lames (ou blades) de 32 coeurs chacun.

SAP ajoute que la montée en puissance peut être linéaire en fonction des matériels et il sera possible « d’aligner des configurations comptant jusqu’à 1000 coeurs et plus pour réaliser des analyses complexes en temps réel« .

Il s’agit de traitement massivement parallèle. SAP ne précise pas l’origine de ces serveurs ni leur prix. Interrogé sur ce point, Visha s’est contenté de répéter que le coût de chaque configuration pour SAP avait été d’un demi-million de dollars ».
A suivre, donc.

Chez la concurrence, Oracle, a été annoncée en juillet 2010 une offre ‘in-memory’ ou de mémoire ‘cache’:  Oracle TimesTen In-Memory Database 11g et  In-Memory Database Cache 11g. Et son offre hardware/software, en la matière (‘Exadata’), repose désormais sur des systèmes Sun (et non plus HP). Et pour cause -depuis un certain rachat…

Recent Posts

AWS abandonne WorkDocs, son concurrent de Dropbox

Un temps pressenti pour constituer le socle d'une suite bureautique AWS, Amazon WorkDocs arrivera en…

2 jours ago

Eviden structure une marque de « serveurs IA »

Eviden regroupe cinq familles de serveurs sous la marque BullSequana AI. Et affiche le supercalculateur…

2 jours ago

SSE : l’expérience se simplifie plus que les prix

Le dernier Magic Quadrant du SSE (Secure Service Edge) dénote des tarifications et des modèles…

2 jours ago

IA générative : les lignes directrices de l’ANSSI

Formats de paramètres, méthodes d'apprentissage, mutualisation GPU... Voici quelques-unes des recommandations de l'ANSSI sur l'IA…

3 jours ago

De la marque blanche à l’« exemption souveraine », Broadcom fait des concessions aux fournisseurs cloud

À la grogne des partenaires VMware, Broadcom répond par diverses concessions.

3 jours ago

iPadOS finalement soumis au DMA

iPadOS a une position suffisamment influente pour être soumis au DMA, estime la Commission européenne.

3 jours ago