Pour gérer vos consentements :
Categories: Big DataCloud

Teradata marie datawarehouse, in-memory et Big Data

Nous le pressentions tandis que se déroulait Teradata Universe 2013 (lire « Teradata Universe 2013 : l’opportunité Big Data »), le géant des entrepôts de données rongeait son frein avant d’annoncer l’adoption du in-memory.

Les troupes se sont rabattues sur le Big Data et la nouvelle fabric Data Warehouse 6700 (lire « Teradata Universe 2013 : Fabric Based Computing et Data Warehouse 6700 »), mais il flottait dans l’air un parfum de base de données traitées en mémoire. Logiquement, les architectures d’analyses en temps réel s’accommodent particulièrement bien avec le traitement in-memory.

Teradata Intelligent Memory

Il n’aura donc fallu que quelques semaines à Teradata pour annoncer sa première architecture in-memory. Basée sur l’infrastructure Teradata Unified Data Architecture (lire « Teradata Universe 2013 : Unified Data Architecture »), la nouvelle architecture de Teradata qui associe l’intégration des données du datawarehouse Teradata à l’analytique Aster via une plateforme Hadoop, Teradata Intelligent Memory réunit la technologie de datawarehouse, le in-memory, le Big Data, et l’analytique Aster sur Hadoop.

Destinée à traiter de très gros volumes de données – la solution n’est pas signée Teradata pour rien ! -, la technologie in-memory permet de placer en mémoire les données les plus chaudes, donc les plus utilisées (selon Teradata, 90 % des requêtes ne concernent que 20 % des données), afin d’en assurer le traitement, la mise à jour et le synchronisation. Et cela sans passer par le goulot d’étranglement des I/O (entrées/sorties) puisque la mémoire est directement en contact avec le CPU (processeurs). Cette proximité, doublée d’une approche d’indentification prédictive de la donnée chaude, évite les appels aux applications, aux requêtes SQL et aux ressources de stockage.

La température des données

L’approche globale de l’entrepôt de données par Teradata permet d’associer différents niveaux de température à la donnée. Les données chaudes, c’est à dire celles qui sont les plus utilisées, sont placées au plus proche du compute, c’est à dire généralement sur des disques durs rapides. Les données les plus froides, donc les moins utilisées, sont placées sur des disques durs moins coûteux, mais également moins rapidement accessibles.

Cette hiérarchisation de la données est bouleversée par les apports des technologies les plus récentes, qui permettent d’adopter aujourd’hui une stratégie de ‘multi-températures’. Une première étape a été franchie avec l’intégration des disques SSD (solid-state drive) sur lesquels sont stockées les données chaudes. Les données non-structurées et les données annexes (qui généralement ne sont pas prises en comptes par les outils analytiques dédiés aux données structurées accessibles via des requêtes SQL) sont désormais exploitées et prennent place dans l’échelle des température via les technologies de Big Data Hadoop. Et c’est maintenant au in-memory de s’inviter pour élever le premier niveau de température de la donnée.

Teradata propose également une technologie de migration de la donnée d’un niveau de stockage à l’autre et paramétrable avec Teradata Virtual Storage.

Datawarehouse, Big Data et in-memory

Le mariage du datawarehouse, du Big Data analytique et du in-memory s’impose comme une évidence. La partie entrepôt de données assure le support de très gros volumes de données gérés par des algorithmes sophistiqués pour dater, suivre et classer automatiquement la donnée stratégique.

Le Big Data Hadoop est la plateforme de consolidation et d’analyse en temps réel des données moins/non stratégiques stockées sur des ressources hétérogènes. Enfin, le traitement en mémoire des applications et des données chaudes est un accélérateur des performances analytiques, de la requête à la prise de décision.


Voir aussi

Silicon.fr étend son site dédié à l’emploi IT
Silicon.fr en direct sur les smartphones et tablettes

Recent Posts

Legapass : comment protéger ses données privées jusque dans l’au-delà

Comment gérer les données numériques après la mort de son détenteur ? La jeune pousse…

2 jours ago

Iris, un assistant d’IA conversationnelle en langue des signes

Ivès, expert en accessibilité de la surdité, s’est associé à Sopra Steria et à IBM…

2 jours ago

GenAI : le Royaume-Uni poursuit ses investigations sur les partenariats de Microsoft et Amazon

L'Autorité de la concurrence et des marchés (CMA) a lancé la phase de recherche de…

3 jours ago

Clients de VMware : les raisons de la colère

Broadcom remplace pas moins de 168 logiciels VMware par deux grandes licences de location correspondant…

3 jours ago

Laurent Carlier – BNP Paribas Global Market : « L’IA permet de modéliser des relations plus complexes, mais il faut rester prudent »

La banque d’investissement utilise l'IA pour proposer des stratégies individualisées, en termes de rendement et…

3 jours ago

Open Compute Project : les datacenters partagent des bonnes pratiques pour l’environnement

OVHCloud partage ses efforts environnementaux au sommet de l’Open Compute Project qui se tient à…

4 jours ago