Réseau On-Demand

Faire cohabiter réseau historique et SDN

Les entreprises et leurs fournisseurs de services de télécommunications parient beaucoup sur le potentiel des réseaux virtualisés – fonctionnalités réseau dites NFV ou SDN. Mais l’existant est là… Alors comment les faire cohabiter avec les systèmes ‘legacy’ déjà en place, en attendant une possible migration.

Les arguments en faveur de la virtualisation des fonctions réseaux, grâce au SDN (Software defined network), sont désormais bien identifiés et reconnus : déploiement rapide de nouveaux services ‘On Demand’, automatisation du réseau, reconfiguration dynamique, voire automatique, facilité d’approvisionnement et de supervision, conversion des investissements (capex) en facturations mensuelles ou trimestrielles (opex). Et l’offre se concrétise, comme c’est le cas chez Colt (déjà disponible) ou Orange, qui l’annonce  pour prochainement.

Pour tenir compte des réseaux existants (ou  “legacy”), il convient de s’interroger sur les possibilités de migration. Les scénarios en vigueur tendent généralement à envisager l’évolution de l’architecture sur trois niveaux : le campus, le réseau en périphérie (edge) et le réseau WAN entre datacenters ou sites principaux.

Trois piliers

Une autre donnée clé est à considérer, celle des architectures SDN. Elles reposent sur trois piliers :
une intelligence centralisée. Le contrôle du réseau est découplé du ‘forwarding’ (transmission) par une interface standard, comme OpenFlow, avec une vue globale du réseau. A l’inverse, les réseaux legacy sont construits autour d’une vue « système » autonome, où les nœuds ignorent l’état général du réseau, ce qui limite la flexibilité dans le contrôle du réseau.

– un niveau d’abstraction : les applications qui « consomment » des services SDN sont découplées des équipements et des technologies « réseau » sous-jacents. Cela permet à une couche de contrôle unique de supporter toute une série d’applications,  sur la couche infrastructure, des équipements ou technologies d’origines diverses (BluePlanet/Ciena, Advantech, Cisco notamment chez Colt).

la « programmabilité » : les réseaux SDN sont pilotés par des fonctionnalités logicielles (généralement fournies par un opérateur ou ses partenaires). Ces fonctionnalités de contrôle du réseau sont désignées « services réseau».  Cette « programmabilité » de l’infrastructure réseau permet d’automatiser la gestion de réseaux classiques. L’innovation est dans le développement d’API ouvertes qui permettent aux applications d’interagir avec le réseau.

Les initiatives Open Source

Editeurs et équipementiers des réseaux se mobilisent autour des interfaçages et des outils d’orchestration. L’Institut de normalisation ETSI (European Telecom Standards Institute), basé à Sophia Antipolis, tend à privilégier le ‘framework’ Open Source NFV (Network function virtualisation) pour la gestion et l’orchestration des équipements et des services de connectivité.

Beaucoup d’acteurs participent à des initiatives de standardisation et mènent des essais sur le terrain. Il s’agit notamment de créer des plates-formes améliorées de NFV / SDN et de continuer d’enrichir les fonctions de réseau virtuel (VNF). Faute de standards suffisamment établis, le risque d’une dispersion stérile existe. Pour les fonctions NFV, les plateformes ECOMP, Open-O (AT&T) sont concurrencées par l’OSM de l’ETSI ou OP-NFV. La Fondation Linux a réuni Open-O et ECOMP, en créant ONAP. Il existe encore d’autres initiatives, comme MEF LSO.
Et pour les réseaux SDN, les initiatives Open Source se concentrent autour d’au moins deux ‘standards’, ONOS et ODL. C’est là l’enjeu des outils dits  ‘MANO’ (management and network orchestration).

Des garanties sur la performance…

En toile de fond, la poussée de l’Open Source est due au fait que les entreprises refusent d’être « verrouillées » par tel ou tel fournisseur.  Elles recherchent aussi à accélérer et à ouvrir leur processus de production et de fourniture de services.

Les réseaux virtualisés NFV / SDN tendent à converger, et donnent la priorité aux demandes de bande passante. Ces mêmes réseaux ont vocation à s’intégrer aux réseaux existants (legacy), qui vont sans doute subsister encore longtemps. Il faut donc des tableaux de bord et des données de supervision globale, qui puissent intégrer les deux univers – l’ancien et le nouveau.

… et des outils de monitoring

En principe, les réseaux virtuels sont censés être plus faciles à administrer que les réseaux classiques. Les mises à jour sont transparentes et automatiques. Et la sécurité est intégrée dès la conception, ce qui simplifie l’administration, quelles que soit l’ampleur et la nature des menaces.

Enfin, à la différence des environnements legacy, les nouveaux réseaux virtuels réunissent un ensemble d’outils d’automatisation qui en facilite le provisionnement et le paramétrage. Ils comportent également, comme évoqué, des outils de monitoring. Des outils essentiels pour suivre la qualité de service (les engagements SLA) et le respect de spécifications parfois critiques comme la latence.