Interopérabilité, virtualisation: les futures révolutions de Microsoft

Régulations

Les entreprises réclament de pouvoir disposer d’alternatives. L’émergence du logiciel libre répond à cette attente, avec en corollaire le futur chantier de l’éditeur : l’interopérabilité. Et un phénomène irréversible, la virtualisation

C’est une nouvelle forme de révolution culturelle qui se prépare, mais elle sera beaucoup plus difficile à passer que celle de la sécurité“, nous confie Bernard Ourghanlian, directeur technologie et sécurité de Microsoft France. Les entreprises ont besoin d’alternatives dans leurs projets informatiques. “Le choix des solutions Microsoft s’exerce en confiance. Leur offrir l’interopérabilité, c’est leur offrir une liberté d’alternative“. Pour autant, si le chantier est loin d’être terminé, il peut s’appuyer sur des bases solides. “Les services Web sont l’élément fondateur de l’interopérabilité. Et Microsoft participe à la définition des standards. Office 12, par exemple, sera au standard XML“. Pour autant, le critère de sécurité restera au c?ur des stratégies. “La problématique portera sur l’administration de la sécurité et des systèmes“. “Sur les grands ‘frameworks’ de supervision ? comme UniCenter, Tivoli ou OpenView ? il est difficile de descendre dans les niveaux bas de sécurisation. Et ils font tout manuellement! Nous devrons développer des outils capables de gérer des détails qui restent à définir, comme avec MOM“. “Les outils existants sont loin d’être parfaits, et ils se révèlent extraordinairement complexes. Ils se contentent généralement de consolider les rapports fournis par les outils déployés individuellement sur chaque plate-forme“. Le chantier de l’interopérabilité reste donc ouvert. “Un énorme travail de standardisation reste à faire. En particulier en matière de sécurité, où il nous faudra définir le niveau de gravité d’une vulnérabilité“. La virtualisation est irréversible Autre chantier en devenir chez Microsoft, la virtualisation, promue à un brillant avenir. Bernard Ourghanlian fait un constat qui affirme tout haut ce que les fondeurs n’osent pas confirmer : “Le hardware butte sur la barrière thermique. La solution recherchée passe par le mode “multicanaux”. La virtualisation s’impose, elle est irréversible“. Pour autant, le développement de ces technologies ne sera pas des plus simple ! Les concepteurs de semiconducteurs intègreront prochainement des fonctionnalités de virtualisation… “L’implication sur le soft sera importante. La virtualisation demande un savoir faire dans le traitement parallèle. Mais en matière de développement, nous nous heurtons à des limites cognitives” “Cependant, il est facile de masquer le problème en introduisant des machines virtuelles. Cette technique permet d’exécuter sur une même machine plusieurs traitements et environnements. On croit alors gommer la difficulté à programmer et apporter un plus de personnalisation“. N’est-ce pas là où en théorie l’intégration de la virtualisation dans le hardware devrait faciliter le travail de développement ? “En théorie oui, sauf que l’on multiplie les difficultés. Et ça ne résout pas tous les problèmes. La question de l’administration en particulier reste en suspend !” Microsoft devrait annoncer prochainement un ‘hyperviseur de données‘. “C’est une couche logicielle très fine pour lancer des sessions de ‘n’ machines virtuelles avec une isolation physique“. Pour sécuriser, cloisonnons ! Bref, l’avenir de l’informatique – et Microsoft – nous réserve encore bien des surprises.


Lire la biographie de l´auteur  Masquer la biographie de l´auteur