Réseau On-Demand

Réseau, stockage, data center…Le « Software-Defined » s’ouvre à tout l’horizon IT 

La vague « Software-Defined X » et sa surcouche de virtualisation change considérablement la vision de gérer les équipements réseaux. Elle chamboule même les offres commerciales tendant vers le On Demand.

C’est une propagation progessive que l’on observe dans la sphère des réseaux. Le « Software Defined » (qui signifie défini par logiciel) tend à pénétrer toutes les couches  des systèmes d’information et de communication.

Selon Gartner, le concept se serait d’abord appliqué aux réseaux (à travers la déclinaison Software-Defined Network pour SDN en anglais) à partir de 2011.  Puis il s’est élargi aux datacentres (Software-Defined Data Center ou SDDC), au stockage des données (Software-Defined Storage ou SDS) mais aussi aux infrastructures (Software-Defined Infrastructure ou SDI).

Derrière une véritable révolution technologique, le marketing a pris le relais pour multiplier les déclinaisons à satiété. On parle désormais de SD « every thing » (ou SD-X).

1  .   SDN, un modèle d’architecture

Le Software-Defined ne constitue pas une technologie en soi mais plutôt un modèle d’architecture, qui fait suite à celui de la virtualisation des éléments de réseaux et des systèmes informatiques.

Selon IDC, le marché mondial du SDN était évalué à 3,7 milliards de dollars en 2016, contre 360 ??millions en 2013. Selon Markets and Markets, la croissance s’élève à 31,72% par an depuis 2016 pour atteindre 29,09 milliards de dollars en 2022.

Historiquement, on peut faire le lien avec les réseaux virtuels, que ce soit les premiers réseaux locaux virtuel (VLAN ou Virtual Local Area Networks) sur Ethernet, et les réseaux privés virtuels (VPN pour Virtual Private Networks)

Il s’agissait déjà de séparer, protéger, sécuriser les flux en restreignant le trafic (le « multicast ») sur des « trunks » d’interconnexion (entre services, étages ou bâtiments), l’aiguillage étant arbitré par l’administrateur du réseau.

Avec l’arrivée des plateformes de virtualisation de type VMware, des architectures ont été conçues pour prendre en charge la mobilité des machines virtuelles (VM) indépendamment du réseau physique.

C’est alors qu’a été introduite la notion de réseautage défini par logiciel (SDN) et la notion connexe de fonctions de réseau virtualisées (NFV pour Network Functions Virtualisation).

Jusqu’ici, les fonctionnalités réseau étaient implémentées dans un commutateur, un routeur ou une « appliance », puis figées dans des circuits (ou ASIC). Cela nécessitait un paramétrage ou des configurations particulières différentes selon le fabricant de l’équipement réseau.

Toute intervention pour la conception d’un réseau ou d’une modification pour une allocation de ressource (par exemple ouvrir, fermer une connexion) nécessitait une intervention, fastidieuse et source d’erreurs et de bugs.

Avec la virtualisation des serveurs, les VM passent d’un système à un autre en quelques secondes ou minutes. Mais à un certain niveau en remontant plus haut dans le réseau (niveau 3 du routage, via des « trunks »), ce déplacement de VM peut être bloqué ou peut dysfonctionner, obligeant à une reconfiguration manuelle.

L’architecture réseau classique montre alors ses limites en termes d’agilité. Car les équipements réseau (routeurs, commutateurs, pare-feux, etc.) ont leurs contraintes et leurs spécificités d’un constructeur à un autre, même si des protocoles standards se sont progressivement imposés.

Le développement d’appliances spécialisées pour les réseaux comme :

  • les contrôleurs d’optimisation WAN (Wireless Access Network ou accès sans fil)
  • les outils de contrôle de l’optimisation du réseau étendu (WAN optimization controllers ou WOC)
  • les contrôleurs de mise à disposition d’applications (application delivery controller ou ADC)
  • ou les modules de chiffrement des données

a rendu la gestion de ces architectures encore plus complexe.

C’est là l’intérêt du SDN (Software-Defined Network), qui apporte des fonctionnalités définies par logiciel. Tandis que ces fonctionnalités sont embarquées « en dur » dans les circuits, elles s’installent sur des « serveurs contrôleurs », de classiques serveurs Intel X86, par exemple pour agréger des liens, chiffrer les données, créer des VPN, agir comme pare-feu (firewall), etc. 

Beaucoup d’opérateurs télécoms dont AT&T, Orange et Colt misent sur le SDN en raison de la flexibilité et du potentiel de services délivrés à la demande.

Ainsi, Colt a choisi de s’appuyer sur son propre SDN. « Il s’agit d’une solution Open Source basée sur Openflow. Nous voulions être indépendants des constructeurs pour pouvoir nous interconnecter avec n’importe quels opérateurs via des API [connecteurs logiciels, ndlr] », expliquait récemment Carl Grivner, CEO de Colt, dans un entretien sur Silicon.fr

2  . Un pilier : le protocole Openflow

Le SDN doit beaucoup au protocole Openflow. Il a été développé au sein de l’Open Networking Foundation (ONF) et soutenue par un large écosystème. Ce dernier inclue des opérateurs télécoms, des concepteurs et gestionnaires de datacentres, des équipementiers réseaux mais aussi Facebook et Google.

Il met en œuvre la programmation d’équipements réseau à partir d’un contrôleur central à distance. Il identifie les flux spécifiques en utilisant une variété de paramètres (adresse MAC, adresse IP de destination, etc), puis effectue des actions sur ces flux (« forwarding » via des ports spécifiés, abandon du trafic, etc.) en fonction de « tables de flux ».

Un tel contrôleur, connaissant l’ensemble de la topologie du réseau, permet de programmer des règles pour tous les commutateurs ou routeurs de réseau, quelle que soit leur marque.

Les décisions de routage sont prises par le contrôleur pour chaque flux de données et poussées dans les commutateurs sous forme de simples instructions de commutation. Il s’y ajoute des mécanismes de priorisation des flux (Quality of Service ou QoS) par rapport à d’autres (la téléphonie par rapport à la vidéo par exemple), le support d’IPv6 et le support du plan de contrôle de MPLS (pour MultiProtocol Label Switching, qui est un mécanisme de transport de données qui permet d’acheminer des flux de différente nature sur une même infrastructure).

Le jeu d’instructions généré par un commutateur OpenFlow est extensible, mais il existe une base minimale commune à tous les nœuds du réseau. L’administrateur peut ainsi partitionner le trafic en fonction de certaines règles d’efficacité et de gouvernance (par exemple métier, production IT, développement IT).

3 . Le SDDC ou la cible des Data Centres

Le prolongement du concept SDN au coeur des data centres sous la dénomination SDDC (Software-Defined Data Center) est devenu rapidement une évidence ces dernières années, avec l’exploitation commerciale qui en résulte.

Du reste, le SDN a d’abord été nécessairement appliqué à des sites informatiques internes, sur des campus ou sites principaux.

Dans le modèle SDDC, toute l’infrastructure du datacentre est virtualisée pour permettre à la fois d’automatiser certaines fonctions et procurer des ressources ou services On demand (sur le principe du mode « as-a-Service » popularisé dans l’univers du cloud).

Le pilotage de l’ensemble est assuré par un système d’orchestration ou méta-contrôleur central qui fixe et applique des règles, comme dans le modèle Openflow.

Programmable et automatisable

Là encore, le niveau de contrôle est dissocié de celui des applications et du traitement des données, selon un découpage logique avec des « pools » virtuels et non plus des entités d’équipements physiques. Le dispositif de contrôle ainsi centralisé, est personnalisable et programmable, donc en grande partie automatisable.

Dans un datacentre défini par logiciel, tous les éléments de l’infrastructure :

  • réseau, unités de calculs (CPU/ serveurs avec leurs VM)
  • unités de stockage des données (SDS, Software-defined storage)
  • et dispositifs de sécurité (application automatique des règles de sécurité, mise en quarantaine de terminaux suspects, etc.)

sont virtualisés et définis par logiciel. Ils deviennent accessibles en tant que services, disponibles à la demande.

Chaque élément est provisionné, exploité et géré via la console centrale à travers des interfaces programmatiques (API en anglais). C’est à ce niveau que peut être remonté le suivi global de la qualité de service sur la base des accords de niveau de services (SLA pour service level agreements).

Le déploiement, le provisionnement, la surveillance et la gestion de ses ressources sont pilotés à l’aide d’un logiciel automatisé qui prend en charge aussi bien l’infrastructure des applications existantes et  traditionnelles (« legacy IT »), non virtualisées que celles des applications sur plateformes virtuelles ou sur le Cloud.

Les atouts du SDDC

Le SDDC vise à réduire les dépenses d’investissement mais surtout les dépenses opérationnelles, tout en améliorant l’efficacité, l’agilité, le contrôle et la flexibilité de l’ensemble.

Il doit permettre de réduire la consommation d’énergie en régulant les niveaux de puissance en fonction des besoins d’utilisation en temps réel, jusqu’à l’arrêt total de certains serveurs, chaque fois que ce sera possible. Selon Deloitte, la réduction de coûts serait de 20%.

Enfin, la sécurité est censée être renforcée grâce à un niveau de contrôle plus centralisée et ce, grâce à des solutions ad hoc, notamment lorsque les données sont hébergées à l’extérieur.

Selon certains spécialistes, le SDDC ne convaincra pas toutes les entreprises ou pas tout de suite, comme, par exemple celle qui continuent leurs environnements de développement et de production, ou celles qui continuent la cohabitation d’applications anciennes et virtualisées, en s’en tenant à des SLA distincts.

Quelles différences entre SDDC et Cloud ?

Un datacentre défini par logiciel partage une grande partie des concepts implémentés dans un Cloud. Vu qu’il est censé à terme englober toute l’infrastructure IT, certains considèrent que le SDDC peut constituer la plateforme globale, virtuelle de l’ensemble des Clouds (privés, publics et hybrides). Ce qui suppose qu’il puisse être étendu à plusieurs sites, donc plusieurs datacenters interdépendants.

Cela rejoint les concepts d’architecture mis en application par les géants de la haute technologie tels qu’Amazon (AWS), Google, IBM ou Microsoft.

On peut noter au passage que les implémentations du protocole OpenStack (du domaine Open Source), qui apporte un niveau d’abstraction entre ressources réseau et traitements des applications sur des VM dans le Cloud, incluent déjà une interface pour la configuration de « commutateurs virtuels ».

  1. La promesse du SD-WAN

Conçu selon le modèle du SDN, le SD-WAN (Software-Defined Wide Area Network) désigne un service où le contrôle et l’intelligence du réseau longue distance sont dissociés de l’infrastructure et des équipements.

Les solutions SD-WAN, rendues indépendantes du « hardware » et des technologies « transport », viennent donc se substituer aux routeurs télécoms traditionnels.                                                                                                                                                                                                                                                                                                          Dans la plupart des entreprises de taille moyenne ou grande, l’infrastructure est relativement complexe et disséminée dans leurs différents sites distants,  que ce soit des agences ou des filiales. Il s’agit-là encore de routeurs, de contrôleurs d’accès télécoms, d’optimiseurs WAN (load balancing, agrégation de liens, etc.) et de pare-feux. Le coût de leur maintenance et de leur configuration n’est jamais négligeable.

Le SD-WAN apporte une réponse en fournissant des outils de contrôle dynamique, basée sur des règles, et permettant de gérer facilement un ensemble de connexions WAN depuis un point unique.

Tendance : le SD-WAN comme service d’opérateur

Le SD-WAN devient de plus en plus d’un service fourni par un opérateur télécoms. Ce dernier met en place un chaînage de services apportant diverses fonctionnalités supplémentaires.

L’une des principales caractéristiques d’un SD-WAN est sa capacité à gérer plusieurs types de connexions, du MPLS aux hauts débits en passant par les liens radio LTE (4G).

Par l’intermédiaire de son opérateur principal ou en achat local, l’entreprise s’approvisionne en connexions Internet au meilleur prix du marché pour une qualité voulue afin de desservir ses sites distants (agences ou succursales en région).

Le SD-WAN est donc une déclinaison du modèle d’architecture SDN aboutissant à une offre technologique « packagée ».

La gestion d’un SD-WAN apporte des avantages concrets : l’administrateur, informé des problèmes qui surviennent, peut gérer l’ensemble des points de connexion du réseau étendu via une interface unique.

Jusqu’ici, pour apporter des modifications au paramétrage des équipements réseau sur les sites distants, il fallait installer et gérer un dispositif de gestion des configurations manuelles. Et, souvent, un technicien devait se rendre sur place pour réaliser des modifications ou pour mettre en place des services de téléconférence sur des sites éloignés, après s’être assuré que la connectivité serait fournie au jour « J.

Avec une offre SD-WAN, grâce à une interface utilisateur en grande partie graphique, l’administrateur supervise l’ensemble du réseau et peut intervenir lui-même pour adapter, partager la bande passante à la demande.

La combinaison : vraie nouveauté du SD-WAN

Une large part des technologies qui composent le SD-WAN ne sont pas nouvelles. En revanche, ce qui est innovant, c’est la combinaison et l’agencement de l’ensemble des fonctionnalités autour d’un équipement unique (généralement désigné CPE –Customer Premises Equipment). Chez un opérateur, le tout va s’inscrire dans une offre commerciale à la carte, avec facturation mensuelle.

Les routeurs de site distants sont remplacés par des unités plus simples à gérer et qui regroupent, outre le routage des accès télécoms, des fonctions clés comme le « fail-over » (le fait de basculer d’un lien à un autre en cas d’incident), la sécurité du domaine avec un pare-feu logiciel intégré, ou encore un système de répartition des flux parmi plusieurs liens Internet disponibles.

Selon Gartner (cité par NetworkWorld), une installation SD-WAN peut être jusqu’à deux fois et demi moins chère qu’une architecture WAN traditionnelle : pour 250 sites à raccorder, l’addition serait abaissée à 452 500 dollars, contre 1,28 millions de dollars auparavant.

Comment expliquer la différence ? Par le coût nettement inférieur des équipements CPE (comparativement à des routeurs/commutateurs classiques), et une très forte diminution des coûts d’intervention et de maintenance sur sites.

S’il est possible de se procurer de tels équipements chez la plupart des grands constructeurs (qui finissent par adopter le protocole OpenFlow) ou chez des spécialistes (comme Riverbed ou SilverPeak), la tendance est aux offres clés en main proposées par des opérateurs qui optent pour des solutions spécialisées de start-ups. On y retrouve alors VeloCloud, Versa Networks (choisi par Colt), CloudGenix, Cato Networks… et bien d’autres encore. Quand ces dernières n’ont pas déjà été acquises, comme Viptella par Cisco ou Ocedo par Riverbed (choisi par Orange).

Le duo On Demand et SD-WAN face à une certaine inertie

L’engouement pour les solutions SD-WAN est bien là : déjà, il y a deux ans, lors du salon VMworld 2015 aux Etats-Unis, un sondage de Riverbed auprès de 269 visiteurs montrait que 5% l’avaient adopté et 29% l’exploraient. Quant au SDN, 13% l’avaient déjà déployé et 77% l’envisageaient.

Deux ans plus tard, l’offre SD-WAN demeure à un stade précoce. Elle fait encore figure de solution très novatrice et « disruptive » pour certaines entreprises et certains équipementiers réseaux souvent « accrochés » au développement de leurs propre ASIC et donc, qu’ils l’admettent ou non, à une approche « propriétaire ».

Le grand changement actuel provient certainement de la démarche On Demand proposée par certains opérateurs qui sont déterminés à se positionner comme précurseurs.

Avec la banalisation des offres Cloud, les services réseaux et télécoms tendent de plus en plus à devenir des offres « As-a-Service », c’est à dire un CaPex (investissements immobilisés dans les équipements) tendant vers 0 au profit du modèle OpEx (location).

Les quatre piliers du SD-WAN

Selon Gartner, le SD-WAN se définit par quatre critères principaux:

. il supporte de multiples types de connexion: MPLS, Internet, LTE…;

. il est capable de sélectionner les accès dynamiquement et de partager la charge des flux (load balancing) sur des connexions WAN ;

. il procure une interface unique et simple pour gérer le management de l’ensemble et activer à distance le « provisioning » des ressources réseaux sur les sites secondaires distants, après une installation aussi facile que le Wi-Fi à la maison;

. il supporte les réseaux VPN, avec des services provenant de tierces parties et utilisant des passerelles Web, des contrôleurs d’optimisation WAN, des pare-feux…

Dans une publication de septembre 2017, le cabinet d’études commente : « La mise en réseau définie par logiciel (SDN) et la virtualisation des fonctions réseau (NFV) vont permettre aux fournisseurs de services de communication (CSP) de créer une infrastructure de communication plus agile et plus flexible (…). »

Tout en poursuivant : « Aujourd’hui, la pression concurrentielle crée une urgence pour rendre opérationnels et pour monétiser le SDN et le NFV. Les services tels que les équipements de virtualisation installés sur les sites clients (CPE) représentent un potentiel élevé. »

Et toujours selon Gartner, si le SD-WAN occupe moins de 5% du marché aujourd’hui, il devrait dans un délai de 2 ans, séduire jusqu’à 25% des entreprises. Le chiffre d’affaires des fournisseurs du SD-WAN, en augmentant de 59% par an, devrait atteindre 1,3 milliard de dollars d’ici à 2020.

En conclusion : entre flexibilité technique et commerciale

Le SD-X se concrétise grâce à l’avancée des protocoles standards, dont Openflow. Certains acteurs du marché, comme les opérateurs AT&T, Colt, Orange, ont commencé à tester la robustesse des interfaces API et à valider l’interopérabilité entre leurs infrastructures « Software-Defined ».

L’intérêt du SD-WAN est en train de se vérifier en termes de flexibilité et de qualité de service. L’atout premier est sans doute de permettre la fourniture de ressources et de services On Demand et en facturation à la consommation.

Enfin, comme le souligne IDC, c’est moins un chantier technologique qu’un enjeu de transformation des organisations et des compétences : « Le ‘Software-Defined’ suppose des rapprochements des équipes en charge des infrastructures, travail avec les équipes de développement, nouveaux modes de travail, recours à des fournisseurs « as a service ».