Quelles sont les trois technologies à suivre ?

Cloud Computing, Big Data analytique et Internet des Objets sont les trois thèmes clés à surveiller de près – et à adopter – pour assurer l’avenir de votre entreprise. Explications sur pourquoi ces trois sujets ne devront en aucun cas être négligés.

Quelles sont les trois tendances IT à ne surtout pas rater ? La première est maintenant bien connue : le Cloud Computing. L’informatique dans le nuage s’impose à tous les niveaux et redéfinit très rapidement la sphère IT traditionnelle.

Cloud Computing

Le Cloud public n’est qu’une partie de cet immense marché, qui comprend aussi une branche privée, où le Cloud est directement hébergé dans les locaux de l’entreprise (ou chez un prestataire tiers). Si le Cloud public s’est rapidement fait une place dans les TPE et PME, c’est pour sa facilité d’adoption : une informatique accessible sans investissement en matériel, logiciels ou savoir-faire, et ce avec un paiement à l’usage.

Le Cloud privé devrait intéresser les professionnels pour deux raisons. Tout d’abord, il permet de s’assurer que les données ne sortiront pas des murs de l’entreprise. Mais le Cloud privé permet surtout d’embrasser le modèle de l’informatique dans le nuage dans le cadre de son SI interne. Et de transformer ainsi les serveurs et logiciels en autant de services, proposés sur catalogue et payés à l’usage par les équipes métier. Côté métiers, le Cloud privé, c’est le sacre du « as a Service ». Côté technique, il s’accompagne aussi d’une ruée vers le software-defined, avec à la clé un datacenter organisé entièrement par voie logicielle. Et équipé de matériel banalisé. Des serveurs HPE ProLiant par exemple.

Big Data analytique

La seconde technologie à ne surtout pas négliger, c’est le Big Data, ces sources de données ultra-massives. Deux défis attendent ici les entreprises : savoir stocker les données issues du Big Data, au sein de ce que l’on appelle des Data Lakes ; savoir traiter les données issues du Big Data, qu’elles soient stockées dans un Data Lake ou captées au fil de l’eau. Être capable de traiter des flots de données massifs (Open Data, IoT, données client, etc.) est stratégique afin de s’imposer face à la concurrence.

Le Big Data analytique nécessite – comme le Cloud – des infrastructures massives. Mais là où une solution Cloud OpenStack va faire fonctionner des dizaines des machines virtuelles par serveur, une offre Big Data Hadoop va rassembler des dizaines de serveurs autour d’une seule et même tâche. Une problématique qui rapproche les infrastructures Big Data du secteur du HPC. C’est donc sans surprise que les clients de HPE iront souvent piocher dans les solutions de la gamme Apollo pour leurs infrastructures Big Data. Avec un fort accent mis sur le stockage. Qui peut alors rendre aussi pertinentes les infrastructures composables Synergy.

L’Internet des Objets

L’IoT, pour Internet of Things, est le troisième sujet clé de notre analyse. Il mêle en partie des problématiques communes aux deux premiers thèmes. La collecte des données remontées des objets doit se faire souvent à large échelle : celle d’un pays ou d’un continent. Le Cloud public est parfaitement adapté à ce cas de figure. Et les traitements sont du ressort du Big Data analytique.

Mais l’Internet des Objets ne saurait se résumer à cela. Il faut en effet des passerelles pour capter les données issues des objets. Et de l’intelligence pour traiter au plus vite les alertes, sans attendre que l’analyse soit faite en central. L’Edge Computing est chargé de cette double tâche. Il sera donc un rouage essentiel à la fois du filtrage et traitement des données, et de la détection et prise de décision en cas de problème majeur. HPE adresse l’ensemble de cette problématique – passerelles comme serveurs de traitement – au travers de la gamme Edgeline.

Les objets ne font pas que remonter des données. Beaucoup doivent également être pilotés. C’est ici que le Machine Learning entre en piste. Dans le cas d’une voiture autonome, les données issues du véhicule vont être remontées au sein d’une infrastructure de Big Data analytique, chargée d’entrainer un système de Machine Learning. Système qui sera alors répliqué dans le cœur des voitures autonomes.