Dédié aux utilisateurs du cloud Amazon, le premier événement mondial AWS re: Invent 2012, en plus d’être une vitrine pour Amazon Web Services (AWS), aura été l’occasion de multiplier les annonces et de démontrer son dynamisme.
La conférence s’est ouverte sur la démonstration par les chiffres du succès rencontré par le cloud AWS (Amazon Web Services) : le service de stockage Amazon S3 a dépassé les 1,3 trillion d’objets stockés (1 trillion = 10 puissance 18 = 1 milliard de milliards), sur lesquels 830 000 requêtes sont exécutées chaque seconde. 3,7 millions de clusters Elastic Map Reduce ont également été créés depuis la lancement du service en mai 2010.
Pour supporter l’ensemble des clients de AWS – Amazon n’a pas révélé leur nombre, se contentant d’indiquer que 1500 institutions académiques et 300 agences gouvernementales l’exploitent de par le monde – l’entreprise de Jeff Bezos a indiqué ajouter au quotidien autant de capacité serveurs que l’ensemble des serveurs que le marchand avait acquis pour atteindre les 5 milliards de dollars de chiffre d’affaires en 2003 !
Avant même que s’ouvre la manifestation, Amazon a offert une vue limitée de Redshift, un service d’entrepôt de données (datawarehouse) relationnel SQL dans le cloud pour l’analyse rapide et à faible coût de très gros volumes d’informations.
Redshift est un cluster de taille variable, lancé et piloté à partir de AWS Management Console, et exploitant des composants ParAccel sur deux types de noeuds (node), 2 To ou 16 To, avec la capacité d’évoluer à chaud de plusieurs centaines de Go à plusieurs Po. La solution reprend les fonctionnalités de business intelligence (BI) des bases SQL. Elle offre du stockage en colonnes, la compression des données, et des hautes performances I/O (entrées/sorties) et réseaux. Certifié Jaspersoft et MicroStrategy, le service devrait bénéficier d’outils de BI fournis par ces deux éditeurs. Cognos serait également dans la boucle…
Mais la principale force de AWS Redshift tient certainement dans son prix, qui démarre à 85 cents l’heure, soit moins de 1 000 dollars par an le téraoctet (le coût du To dans un data warehouse est de l’ordre de 20 000 dollars). Il faut ramener ce prix à celui, exorbitant, d’un data warehouse, l’utilisateur ne supportant plus le coût de l’infrastructure que sous un mode locatif et capacitif, ce qui fait la différence. Dans ces conditions, et en dehors du Big Data qui n’en est qu’à ses prémices, l’analyse de très gros volumes de données est rendu accessible via Redshift, en particulier aux PME…
A suivre : AWS Data Pipeline et de nouvelles instances EC2
Page: 1 2
FT Group, éditeur du Financal Times, a signé un accord avec OpenAI afin d'utiliser ses…
Au premier trimestre, Microsoft, Meta/Facebook et Alphabet/Google ont déjà investi plus de 32 milliards $…
La société britannique de cybersécurité Darktrace a accepté une offre de rachat de 5,32 milliards…
Silicon et KPMG lancent la deuxième édition de l'étude Trends of IT. Cette édition 2024…
Le ministère de l'économie a adressé une lettre d'intention à la direction d'Atos pour racheter…
Directeur Technologie de SNCF Connect & Tech, Arnaud Monier lance une campagne de recrutement pour…