Pour gérer vos consentements :
Categories: Cloud

AWS Auto Scaling : le dimensionnement unifié des apps dans le cloud

L’évolution d’AWS Auto Scaling devrait attirer l’attention des équipes de développeurs.

Dorénavant, sur la plateforme cloud, elles peuvent configurer la mise à l’échelle automatique sur un ensemble de fonctionnalités d’Amazon Web Services mises en place pour un bouquet d’apps dans le cloud depuis une seule interface fédératrice.

La mise à l’échelle automatique s’effectue en effet via un navigateur Internet ou la ligne de commande.

Traditionnellement, la fonction Auto Scaling permet de maintenir la disponibilité d’une application et d’augmenter ou diminuer « dynamiquement et automatiquement » la capacité de calcul (Amazon EC2).

AWS AutoScaling se traduit par un ensemble d’options de mise à l’échelle automatique. Il offre un moyen d’équilibrer les coûts et les dimensionnements.

Concrètement, lorsqu’un seuil de mise à l’échelle donné sera programmé, AWS AutoScaling va créer un ensemble de stratégies de mise à l’échelle.

« Vous n’avez plus besoin de configurer des alertes et des actions de mise à l’échelle pour chaque ressource et chaque service », décrit Jeff Barr, Chief Evangelist pour AWS, dans un billet de blog.

« Au lieu de cela, vous pointez simplement AWS Auto Scaling sur votre application et sélectionnez les services et ressources d’intérêt. Ensuite, vous sélectionnez l’option de mise à l’échelle souhaitée pour chacun, et AWS AutoScaling fera le reste, vous aidant à découvrir les ressources évolutives et ensuite à établir un plan de mise à l’échelle en fonction de vos ressources de prédilection. »

Cette nouvelle fonctionnalité est disponible immédiatement dans certaines zones géographiques aux Etats-Unis mais aussi l’Irlande et Singapour (zone Asie-Pacifique).

Ce type de fonction « autoscaling » est pratique pour la gestion des ressources cloud exploitées est mise en place par l’ensemble des grands acteurs du marché.

Microsoft l’avait inséré sur Azure à  partir de juin 2013. Google a suivi en novembre 2014 en l’adaptant à Google Compute Engine en mode bêta public.

Recent Posts

Ce que Llama 3 dit de l’évolution des LLM

Diverses tendances animant l'univers des LLM transparaissent en filigrane du discours de Meta sur Llama…

9 heures ago

APT44, bras armé cyber de la Russie

Mandiant a attribué un APT à Sandworm, considéré comme le principal groupe cybercriminel à la…

1 jour ago

Cybersécurité : HarfangLab et Filigran connectent EDR et CTI

Les deux startup proposent un connecteur entre la platefome OpenCTI de Filigran et l’EDR de…

1 jour ago

Le hacking autonome, capacité émergente de GPT-4 ?

Des chercheurs ont mis des agents LLM à l'épreuve dans la détection et l'exploitation de…

1 jour ago

Les applications de messagerie se mettent au chiffrement post-quantique

Dans la lignée de Signal, iMessage intègre une couche de chiffrement post-quantique.

1 jour ago

Infrastructures LAN : une photo du marché avant la fusion HPE-Juniper

Douze fournisseurs sont classés dans le dernier Magic Quadrant des infrastructures LAN.

2 jours ago