Avis d’expert : imaginons le futur des réseaux

Cloud
Yannick Morice © Extreme Network

Cette tribune proposée par Yannick Morice, directeur du réseau de partenaires d’Extreme Networks pour la France et l’Afrique du nord, nous propose de nous projeter dans le futur des réseaux.

Lorsque l’on tente de prévoir le futur d’une technologie, l’erreur la plus courante consiste à analyser de près un développement unique, en omettant les tendances plus larges qui pourraient aisément perturber son cours.

L’univers des réseaux va connaître deux tendances majeures en 2013.

La convergence universelle vers Ethernet

Ceux d’entre nous qui travaillent au quotidien sur les réseaux Ethernet oublient aisément que ce n’est qu’une des technologies disponibles dans un monde très varié d’interconnexions basées sur des architectures différentes.

Le succès du Carrier Ethernet nous a déjà démontré qu’Ethernet n’est pas seulement un LAN d’entreprise et qu’il ouvre la voie à beaucoup d’autres solutions. Les marchés des réseaux métropolitains et du transport mobile 3/4G ont largement adopté Ethernet, à la fois pour sa souplesse d’extension et pour sa simplicité.

Dans les entreprises, de nombreux systèmes de production et de gestion qui fonctionnaient jusqu’alors de façon indépendante, avec leurs propres connexions analogiques, sont à présent passés au numérique et convergent sur le système de l’entreprise.

Cette évolution couvre, entre autres, les systèmes de gestion des bâtiments : détection des incendies, de la fumée et des intrusions, sécurisation des accès, gestion des cartes à puce associées, caméras de sécurité et de vidéosurveillance, réseau téléphonique, systèmes de mesure de l’environnement, et même, systèmes de contrôle et d’instrumentation en atelier.

Il est effectivement possible d’installer une infrastructure Ethernet unique, qui fournira des canaux gérés indépendamment à chacun de ces systèmes et remplacera avantageusement la multitude de câbles par un réseau unique, simple et rapide.

Toutefois, la puissance d’Ethernet ne réside pas uniquement dans sa capacité à assurer une connexion simple. Il apporte aussi un riche héritage de fonctions de gestion et d’automatisation : je propose donc de qualifier ces systèmes que l’on disait « connectés » de « mis en réseau », ce qui ouvre une foule de nouvelles opportunités.

Par exemple, l’intégration de la sécurité et du contrôle des accès peut permettre de limiter les accès à un bâtiment à l’aide de règles de gestion, de manière à interdire l’accès d’une personne qui détiendrait la clé, mais qui ne serait pas autorisée à entrer.

Autre application : une gestion intelligente de l’éclairage pourrait contribuer à réduire la consommation électrique, par exemple avec des spots lumineux qui suivent le visiteur à mesure qu’il avance dans un couloir, sans illuminer tout l’étage. L’association entre des LED plus efficaces énergétiquement et l’utilisation de l’alimentation par Ethernet (PoE) constitue une solution à la fois évidente et bénéfique.

La transformation qu’engendre Carrier Ethernet sur les réseaux de transport mobile est un aspect important. Mais on peut citer aussi un autre exemple plus spécialisé, avec le nouveau standard appelé « audio-video bridging » (AVB). Celui-ci permet la couverture télévision et audio des événements, avec un entrelacement et une synchronisation parfaite des images et du son générés par de multiples caméras ou autres appareils, et un retour du contenu vidéo final vers les équipes de prise de vue. Le standard AVB gère la réservation des ressources réseau et la synchronisation temporelle, ce qui assure que tous les flux audio et vidéo sont en phase.

Que les motifs en soient techniques ou économiques, l’infrastructure Ethernet accueille aujourd’hui une grande diversité de solutions de communication de plus en plus avancées, pour la gestion des bâtiments comme pour la création audiovisuelle.

Mais chaque domaine a ses exigences propres, qui peuvent être contradictoires : par exemple, la gestion des accès peut privilégier une approche de sécurité positive, ou « fail safe », alors que la gestion de l’éclairage doit éviter de plonger tous les bureaux dans l’obscurité.

La désagrégation verticale du secteur

La deuxième grande tendance est l’émergence du software-defined networking (SDN). On a beaucoup parlé du SDN et de ses promesses, mais ces débats portaient principalement sur les détails de son fonctionnement et sur ses avantages. Son influence possible sur l’ensemble du secteur des réseaux a été nettement moins débattue.

On peut rapprocher ce phénomène de ce qui s’est passé à l’époque où les ordinateurs centraux ont laissé la place aux ordinateurs personnels.

Tout le secteur s’était développé autour de matériels propriétaires fermés, équipés de leurs propres systèmes d’exploitation et d’applications spécifiques. Cet écosystème a dû laisser la place à un univers d’ordinateurs personnels basés sur des processeurs du marché et équipés de plates-formes Mac, Windows ou Linux, et de logiciels prêts à l’emploi destinés à toutes les applications possibles. Le secteur en a été totalement bouleversé.

En 2013, une nouvelle tendance se met en place dans le monde des réseaux et la décennie actuelle peut être le théâtre d’un bouleversement similaire, et tout aussi inévitable.

Jusqu’à présent, le secteur des réseaux est traditionnellement intégré autour de systèmes propriétaires et fermés. Mais il est en train de subir lui aussi un découplage de ses couches. En effet, le SDN sépare le plan de contrôle et le plan de données. Suivant l’exemple d’OpenFlow, il offre une interface ouverte à une nouvelle race de commutateurs Ethernet, fabriqués par différents fournisseurs et basés sur des composants électroniques du marché. Il permet aussi une ouverture à de futures applications réseau commerciales, prêtes à l’emploi.

Il devient ainsi possible de concevoir des réseaux beaucoup plus intelligents et flexibles. Chaque couche étant programmable, les éditeurs spécialisés pourront donner libre cours à leur créativité.

Sur le plan des données, la pression de la concurrence poussera les fabricants de commutateurs à proposer des API ouvertes. D’autres éditeurs indépendants utiliseront alors ces API pour développer toute une gamme d’applications et de systèmes d’exploitation réseau répondant à des besoins spécifiques, par exemple dans les domaines de la tolérance de pannes, de la sécurité, de la protection de la mémoire ou du chargement dynamique.

Ensuite, tout comme nous avons aujourd’hui le choix entre les environnements Windows et Mac, nous aurons à notre disposition différentes plateformes pour les applications réseau.

Pourquoi cela est-il nécessaire ? Imaginons que la gamme de services décrite ci-dessus s’exécute sur le même réseau. Dans une entreprise, le service sécurité, le service informatique et la fabrication utiliseront peut-être la même infrastructure, mais ils voudront sans doute bénéficier d’une interface qui réponde à leurs besoins spécifiques, sans être gênés par les fonctions utilisées par les autres services. Je m’attends donc à un développement des plates-formes spécifiques axées sur des fonctions précises, tournant toutes sur une infrastructure réseau commune.

Nous aurons alors un marché ouvert destiné aux applications réseau, avec des solutions traitant aussi bien des besoins généraux, comme l’optimisation du trafic, que des services de niche, comme le suivi des économies dues à l’éclairage intelligent. Les opportunités sont si nombreuses que nous assisterons à la naissance de magasins d’applications spécialisées : app store pour la sécurité, app store pour les centres de données cloud, app store pour la gestion vidéo, etc.

Quel intérêt pour l’utilisateur ?

On a beaucoup parlé du potentiel que présente le SDN en termes de banalisation des réseaux et de sa capacité à remplacer les réseaux propriétaires par des solutions commercialement optimisées… mais peut-être trop standardisées.

J’y vois plutôt la possibilité d’une plus grande différenciation. Windows et Mac tournent à présent sur les mêmes processeurs Intel, mais proposent pourtant une expérience très différente. C’est ce que veulent les utilisateurs. La mécanique sous-jacente les intéresse peu. Il existe en revanche un immense espace de créativité et d’offres de niche basées sur le concept du SDN.

L’avantage le plus immédiat du SDN pour les directions informatiques est sa promesse de liberté vis-à-vis des fournisseurs, de baisse des prix par l’ouverture à la concurrence et de libre choix entre les solutions haut de gamme ou les produits de niche innovants. Cette ouverture du marché donne aussi aux gestionnaires de réseaux accès à une plus large communauté de développeurs, qui fera évoluer les nouvelles solutions beaucoup plus rapidement que le ferait n’importe quel éditeur.

Nous avons presque tous déjà souffert des mises à jour logicielles incessantes, imposant le téléchargement de versions complètes pour corriger simplement une faille de sécurité dans une version différente du langage utilisé, ou un bug dans l’interface d’une application totalement inconnue. Le SDN remplacera ces mises à jour imposées par le fournisseur par des solutions ciblées sur l’utilisateur. Au lieu de courir derrière des mises à jour trop larges, l’utilisateur pourra demander la correction des problèmes qui concernent son fonctionnement et son modèle, et laisser de côté les autres.

Ces changements ne seront pas immédiats. Il a fallu de nombreuses années au monde de l’informatique pour abandonner la mentalité « mainframe ». Mais je suis convaincu que, par rapport aux deux dernières décennies, nous allons être les témoins d’une véritable rupture dans la continuité de l’histoire des réseaux. Le SDN va nous faire sortir du monde des adresses MAC et IP, et nous amener à réfléchir différemment aux services dont nous avons besoin et à la manière de les fournir.

Des API riches

Je viens de parler des immenses possibilités des applications réseau et des magasins d’applications de niche. Ces applications ne seront intéressantes et variées que si les informations qu’elles utilisent le sont aussi. Nous aurons pour cela besoin d’API qui communiquent les données nécessaires, et il y a beaucoup à faire dans ce domaine.

Mon exemple favori est celui des règles de sécurité. Quel est l’objectif réel de la sécurité sur un réseau ? Beaucoup répondraient qu’il s’agit d’interdire l’accès au réseau à des personnes malveillantes. Mais ne s’agit-il pas plutôt d’assurer l’accès au réseau (et sa disponibilité) aux bonnes personnes ?

Dans la plupart des entreprises, un système supersécurisé qui se ferme au moindre soupçon d’intrusion est une gêne plutôt qu’une richesse. Quel est l’intérêt d’un réseau qui interdit les connexions ?

Je ne veux pas d’un système limité à une adresse IP. Je veux savoir qui ou quoi accède au réseau, quel est leur rôle, s’il s’agit de salariés, de sous-traitants, de clients… ou de hackers.

Je veux également des données détaillées sur leur activité : les applications utilisées et les actions effectuées au cours de la dernière heure peuvent m’apporter des informations. D’où viennent ces personnes ? Leur localisation peut être significative. Faut-il donner les mêmes droits d’accès à un salarié lorsqu’il télétravaille de chez lui, que s’il est dans un café ou à son bureau ? Quel terminal utilise cette personne ? L’heure est également un paramètre important. Pourquoi cette personne tente-t-elle un accès en pleine nuit ? Et pourquoi cet auditeur dont le contrat s’est terminé la semaine dernière essaie-t-il d’accéder au système comptable ?

Les API qui fournissent ce niveau de détail offrent la possibilité d’automatiser des règles de sécurité très avancées. Des données du même type peuvent alimenter d’autres systèmes tels qu’une gestion intelligente de l’éclairage. Il ne s’agit pas dans ce cas de savoir simplement qui entre dans le bâtiment, mais de connaître aussi les heures et les zones permises, afin de définir les droits d’accès, et le niveau d’éclairage requis pour cette personne.

L’optimisation des centres de données peut être vue comme un sujet totalement différent, mais certaines préoccupations sont très proches. Par exemple, il est possible de transférer des machines virtuelles vers un serveur distant pour réduire la charge de travail, mais quelles sont les conséquences de cette décision ? Le réseau est-il plus chargé là-bas ? Où sont stockées les données nécessaires, et le transfert ne va-t-il pas engendrer une latence dans les accès ? La nouvelle localisation n’est-elle pas plus éloignée des utilisateurs ?

Compte tenu de la richesse des informations que pourra fournir la nouvelle génération d’API, il devient possible de faire migrer les machines virtuelles vers l’emplacement optimal en fonction de ces variables. Les possibilités sont innombrables !

Conclusion

J’ai tenté par cet article d’aller plus loin que les plans de contrôle et les protocoles SDN, et d’envisager les conséquences à plus long terme. J’ai pu ainsi imaginer un avenir passionnant. Les réseaux ne sont plus des gros tuyaux destinés à faire passer les services imaginés par d’autres. Tout le secteur va évoluer sous l’influence des tendances suivantes :

  • la désagrégation du réseau, qui va provoquer une discontinuité ;
  • les API riches, qui vont fournir aux développeurs des opportunités d’innovation et d’enrichissement des services existants ;
  • les clients vont pouvoir se libérer des fournisseurs, bénéficier de ce découplage et profiter d’une large communauté de développeurs indépendants ;
  • les technologies de réseau vont apporter de nouvelles évolutions et transformer un petit monde connecté en un univers de contenu riche mis en réseau.

Crédit photo : © Extreme Networks


Voir aussi
Quiz Silicon.fr – Que connaissez-vous des réseaux VPN ?


Lire la biographie de l´auteur  Masquer la biographie de l´auteur