IT Management : et si les outils utilisaient de l’A.I. ?

Une chose est sûre, l’IT Management demande une automatisation de plus en plus poussée des processus de surveillance des applications et des déploiements

C’est pourquoi les éditeurs intègrent une part croissance d’intelligence artificielle dans ce type de produit. L’emploi de tels outils obéit toutefois à une métrique en trois temps : – premier pas : démontrer que grâce à eux il est possible de gérer un parc plus important (et/ou plus diversifié) que celui que l’on possédait l’année précédente – deuxième pas : prouver que le temps de réaction pour s’adapter aux évolutions de l’infrastructure informatique est plus bref et permet donc de passer en production plus rapidement – troisième pas : démontrer l’accroissement de la complexité de l’infrastructure n’empêche nullement (bien au contraire !) la permanence du risque associé à tout dysfonctionnement de cette architecture Bref, la performance des diverses tâches informatiques dépend du degré de contrôle que l’on a sur elles et de leur adéquation avec les buts métier recherchés. D’où la nécessité d’une amélioration constante de l’administration informatique. D’autant que les applications se complexifient à loisir aujourd’hui puisqu’elles sont toutes en réseau et que les applications Web nécessitent souvent le recours à deux tiers (le serveur Web et le serveur d’application), ce qui rajoute un niveau de complexité. Enfin, s’il faut en croire un récent rapport de Wily Technology, le taux moyen de modifications apportées aux applications via la technologie J2EE est passé sous la barre des deux mois, ce qui laisse peu de temps pour tout mettre d’équerre. Et cela ne va certainement pas s’arrêter en si bon chemin. L’informatique (ou plus exactement le business) on demand nécessite une allocation dynamique des ressources matérielles aux applications en fonction des besoins de l’activité. Par ailleurs, les architectures orientées services certes standardisent les systèmes d’intégration des applications mais créent une combinatoire importante entre ces applications (et donc cumulent les risques de problèmes d’interopérabilité ou de conflits). En résumé, avec une telle structure et un peu moins de 20 minutes pour résoudre un problème, il est clair qu’il devient illusoire de recourir à une administration manuelle. D’ailleurs, un simple système automatisant la description des problèmes ne suffit pas non plus, puisqu’il faut encore intervenir là où le bât blesse et ce toujours dans le même délai ridiculement court. D’où la nécessité d’optimiser non seulement l’administration mais aussi les processus de résolution des problèmes découverts. Ainsi, en matière de suivi est-il nécessaire de disposer désormais d’outils capables d’apprendre ce vers quoi doit tendre la performance du système et qui de ce fait ne se contentent plus de réagir en fonction du dépassement d’un seuil critique prédéterminé pour chaque périphérique. D’autant plus que ces seuils sont trop souvent déterminés une fois pour toutes et ne sont quasiment jamais révisés alors qu’ils devraient l’être périodiquement, ne serait-ce que pour couvrir de nouvelles situations. Au niveau de l’analyse, la situation n’est guère plus brillante, puisqu’il devient indispensable de cartographier dynamiquement les inter-relations entre applications et qu’il est hors de question de se fonder sur la carte établie il y a six mois alors que depuis une nouvelle application est entrée en production ! La gestion des mises à jour est d’ailleurs un bon exemple de ce terrain ô combien mouvant qu’il convient pourtant de baliser quasi quotidiennement. Fort heureusement, quelques solutions commencent à pointer le bout de leur nez dans ce domaine, comme celles développées par Collation, Relicore, Troux et Wily. Concernant la planification de l’évolution, il y a là aussi fort à faire pour que le système apprenne de lui-même à partir de sa configuration réelle et de l’affectation de sa volumétrie plutôt que de se fier aux spécifications d’origine, lesquelles sont bien entendu largement dépassées. Là encore, il devient indispensable de disposer d’outils dynamiques et automatisés qui soient aussi capables d’effectuer un redéploiement des ressources disponibles en temps réel. Enfin, au niveau de l’exécution, il devient indispensable de savoir si le remède que l’on a appliqué est un emplâtre temporaire ou s’il s’agit bel et bien d’une solution systémique durable. Combien de fois ne voit-on pas, après intervention, le problème ressurgir dans les jours, voire dans les heures qui suivent ? Or, l’identification de ces problèmes récurrents ressemble au tonneau des Danaïdes lorsqu’on s’obstine à intervenir manuellement. C’est pourquoi les principaux éditeurs orientent désormais leurs recherches vers des solutions intégrant une part d’intelligence artificielle, ce afin que non seulement les problèmes soient pris en compte, mais aussi que l’analyse des données soit la plus automatisée et la plus pertinente possible, ne serait-ce que pour pouvoir générer des rapports fiables et surtout lisibles par la direction générale. D’ores et déjà, une part d’AI est incorporée par exemple dans Tivoli, idem pour le prototype d’IT Management autoadaptatif présenté dernièrement par Hewlett-Packard. BMC travaille dessus, de même que Computer Associates. Il y a aussi fort à parier pour que cette approche soit en tête de liste des développements d’Altiris. Le tout sera de voir dans les prochains mois ce que les entreprises en font, réellement.