Interopérabilité, virtualisation: les futures révolutions de Microsoft

Régulations

Les entreprises réclament de pouvoir disposer d’alternatives. L’émergence du logiciel libre répond à cette attente, avec en corollaire le futur chantier de l’éditeur : l’interopérabilité. Et un phénomène irréversible, la virtualisation

 »

C’est une nouvelle forme de révolution culturelle qui se prépare, mais elle sera beaucoup plus difficile à passer que celle de la sécurité« , nous confie Bernard Ourghanlian, directeur technologie et sécurité de Microsoft France. Les entreprises ont besoin d’alternatives dans leurs projets informatiques. « Le choix des solutions Microsoft s’exerce en confiance. Leur offrir l’interopérabilité, c’est leur offrir une liberté d’alternative« . Pour autant, si le chantier est loin d’être terminé, il peut s’appuyer sur des bases solides. « Les services Web sont l’élément fondateur de l’interopérabilité. Et Microsoft participe à la définition des standards. Office 12, par exemple, sera au standard XML« . Pour autant, le critère de sécurité restera au c?ur des stratégies. « La problématique portera sur l’administration de la sécurité et des systèmes« . « Sur les grands ‘frameworks’ de supervision ? comme UniCenter, Tivoli ou OpenView ? il est difficile de descendre dans les niveaux bas de sécurisation. Et ils font tout manuellement! Nous devrons développer des outils capables de gérer des détails qui restent à définir, comme avec MOM« . « Les outils existants sont loin d’être parfaits, et ils se révèlent extraordinairement complexes. Ils se contentent généralement de consolider les rapports fournis par les outils déployés individuellement sur chaque plate-forme« . Le chantier de l’interopérabilité reste donc ouvert. « Un énorme travail de standardisation reste à faire. En particulier en matière de sécurité, où il nous faudra définir le niveau de gravité d’une vulnérabilité« . « La virtualisation est irréversible«  Autre chantier en devenir chez Microsoft, la virtualisation, promue à un brillant avenir. Bernard Ourghanlian fait un constat qui affirme tout haut ce que les fondeurs n’osent pas confirmer : « Le hardware butte sur la barrière thermique. La solution recherchée passe par le mode « multicanaux ». La virtualisation s’impose, elle est irréversible« . Pour autant, le développement de ces technologies ne sera pas des plus simple ! Les concepteurs de semiconducteurs intègreront prochainement des fonctionnalités de virtualisation… « L’implication sur le soft sera importante. La virtualisation demande un savoir faire dans le traitement parallèle. Mais en matière de développement, nous nous heurtons à des limites cognitives » « Cependant, il est facile de masquer le problème en introduisant des machines virtuelles. Cette technique permet d’exécuter sur une même machine plusieurs traitements et environnements. On croit alors gommer la difficulté à programmer et apporter un plus de personnalisation« . N’est-ce pas là où en théorie l’intégration de la virtualisation dans le hardware devrait faciliter le travail de développement ? « En théorie oui, sauf que l’on multiplie les difficultés. Et ça ne résout pas tous les problèmes. La question de l’administration en particulier reste en suspend ! » Microsoft devrait annoncer prochainement un ‘hyperviseur de données‘. « C’est une couche logicielle très fine pour lancer des sessions de ‘n’ machines virtuelles avec une isolation physique« . Pour sécuriser, cloisonnons ! Bref, l’avenir de l’informatique – et Microsoft – nous réserve encore bien des surprises.


Avis d'experts de l'IT