L’Edge Computing, pour rationaliser les flux de données

Big DataCloudData & StockageDatacentersStockage

Dans pratiquement toutes les applications d’entreprise, ce sont les données, et non les applications, qui règnent en maître. L’infrastructure existe pour faciliter l’utilisation des données qui résident au sein du SI.

Des pools quasi illimités de ressources de calcul centralisées et gérées par un tiers, pouvant être consommés selon les besoins réels des entreprises… telle est la principale promesse du cloud.
Et s’il ne s’agissait là que d’une première étape vers une profonde révolution technologique ?
Et dans ce cas, comment les entreprises peuvent-elles anticiper ce qui se révèlerait être un processus évolutif ?

Les applications semblent primer…

L’une des grandes transitions dans le secteur informatique repose sur le fait que ce sont désormais les applications, et non plus l’infrastructure, qui déterminent les architectures. Bien que ce concept ne soit pas particulièrement nouveau, l’idée de la primauté des applications n’est pas prégnante dans la façon dont la plupart des infrastructures ont été conçues ou déployées ces 10 dernières années.

Dans un monde dirigé par les applications, l’infrastructure ne doit pas être figée. À mesure que les performances des applications évoluent, l’infrastructure doit pouvoir s’adapter, en optimisant son fonctionnement pour mieux répondre aux besoins.

Les véritables avantages du cloud sont opérationnels. Le cloud a ouvert une nouvelle voie dans la gestion de l’infrastructure ; une voie qui apporte ce niveau de dynamisme et qui concrétise cette vision centrée sur les applications.

…mais est-ce réellement le cas ?

L’hypothèse que les applications sont au centre de l’écosystème informatique est en fait biaisée dès le départ.

Dans pratiquement toutes les applications d’entreprise, ce sont les données, et non les applications, qui règnent en maître. L’infrastructure existe pour faciliter l’utilisation des données qui résident au sein du SI.

Une grande partie de l’activité informatique est finalement orientée autour des données, qu’il s’agisse de stockage, de mise en réseau ou encore de services OTT comme la récupération après sinistre. Ce constat a d’énormes conséquences sur les mouvements dans le cloud.

Déplacer les données vers les applications

La vision centralisée du cloud nécessite que les données soient déplacées, voire stockées, là où les applications s’exécutent. Le cloud agit alors comme un véritable hub, où tous les utilisateurs doivent pousser leurs données vers un pool de ressources centralisées.

Lorsque les utilisateurs ou les périphériques sont relativement proches du pool de ressources, lorsque les applications ne sont pas trop sensibles aux temps de latence, lorsque les exigences des données sont plutôt modestes ou même lorsque le coût est la priorité, ce modèle peut être très efficace. Comme première approche architecturale du cloud, il semble même tout à fait logique.

Toutefois, dès que les utilisateurs et les données sont distribués, comme dans le cas de succursales ou dans l’IoT, cette vision entièrement centralisée du cloud devient un obstacle à éliminer. Lorsque les données augmentent ou que la latence s’intensifie, acheminer l’ensemble du trafic par une ressource centralisée devient une véritable gageure.

Déplacer les applications vers les données

À terme, le modèle idéal combinera des données centralisées et distribuées, selon les lois économiques ou physiques qui s’appliqueront.

Les cas d’usage du cloud centralisé sont simples à comprendre, car ce sont les premiers cas d’applications historiques du cloud.

Le SaaS s’appuie déjà sur le cloud public, avec des entreprises comme Salesforce aux avant-postes. Les entreprises qui ont transféré leurs applications vers un cloud public fonctionnent également de cette façon. Cependant, tous les cas d’usage ne peuvent pas faire l’objet d’un déplacement vers un cloud centralisé.

Les initiatives de smart cities et de véhicules connectés génèrent tout simplement trop de données et nécessitent des temps de réponse trop rapides pour qu’un système de calcul centralisé soit viable.

La proximité est importante et ce constat entraîne un déferlement d’innovations autour de l’Edge computing, l’informatique en périphérie.

Au lieu de concevoir une infrastructure dans l’optique d’amener les données aux applications, les entreprises construiront leurs environnements pour faire le chemin inverse. Le problème de transport est ainsi résolu.

Les 4 téraoctets de données générés pendant un trajet de 8 heures par exemple, n’ont pas besoin de quitter la voiture si les applications qui utilisent les données peuvent s’exécuter à bord. Egalement, les données de capteurs sur les sites d’exploitation minière ou de construction n’ont pas besoin d’une liaison satellite pour arriver jusqu’au cloud si celui-ci s’exécute directement sur les machines en périphérie.

Les implications de l’informatique en périphérie

Le cloud est principalement une condition opérationnelle pour rendre les processus plus dynamiques, mais il est également une combinaison de ressources centralisées et distribuées. Ce qui a des conséquences importantes sur la manière dont les entreprises doivent planifier et finalement déployer les architectures cloud.

La variété des environnements d’exploitation nécessite une planification opérationnelle méticuleuse. Par exemple, comment les équipes opérationnelles travailleront-elles avec une combinaison de serveurs physiques, de machines virtuelles, de conteneurs et de systèmes sans serveur ? Comment les entreprises peuvent-elles unifier leur politique de sécurité parmi différents environnements, avec chacun ses propres codes et mises en application ? Comment les workflows peuvent-ils être automatisés si les analyses varient par domaine ou par site ? Comment les entreprises peuvent-elles gérer différents environnements sans bâtir d’équipes redondantes, chacune dédiée à un environnement particulier ?

Et après ?

Le pendule va continuer à osciller entre informatique centralisée et informatique distribuée, annonçant une vague d’applications en périphérie. Même s’il peut être tentant de se concentrer sur l’infrastructure sous-jacente (les périphériques, les disques et les commutateurs), les entreprises doivent toutefois considérer que le cloud est un état opérationnel. Cela signifie qu’il faut passer autant de temps à répondre aux questions sur la manière de gérer que sur la manière de traiter.

Les systèmes de gestion de workflows et de charges de travail unifiés capables de fonctionner sur plusieurs clouds (publics et sur site) vont tenir un rôle essentiel. Les entreprises qui se concentrent exclusivement sur un modèle centralisé découvriront bientôt qu’elles subissent déjà une nouvelle transformation, qui commence alors même que la précédente n’est pas terminée.


Auteur
En savoir plus 
Directeur technique
Juniper Networks
En tant que directeur technique opérateurs chez Juniper Networks, Michaël Melloul assure le soutien des stratégies techniques et commerciales de ses clients. Son objectif principal consiste à traduire leurs principaux objectifs commerciaux en architectures cohérentes, en les cartographiant dans des solutions de produits et services pertinents. Avant d’occuper ce poste, Michaël Melloul a été successivement ingénieur, consultant et manager avant-vente, également chez Juniper Networks. Michaël possède 17 ans d’expérience dans le secteur des télécoms auprès de sociétés telles que Cisco, SFR, ECI Telecom, ou encore Ericsson, dans lesquelles il a occupé des postes tels que Network infrastructure manager ou encore IP Solutions Manager. Il est diplômé de l’École nationale des travaux publics, du bâtiment et de l’industrie, ainsi que de l’École nationale supérieure des télécommunications.
En savoir plus 

Livres blancs A la Une