Pour gérer vos consentements :
Categories: Régulations

ERP : comment gérer les performances des applications?

Richard Frajnd, directeur de Quest Software France, utilise volontiers l’image de l’automobile pour évoquer la gestion de l’optimisation des performances, la spécialité de cet éditeur:  »

La voiture, c’est le moteur, mais c’est aussi la carrosserie et tout ce qui va avec. C’est toujours le moteur qui est critique, mais retirez les roues, et la voiture n’avancera pas« . Si on applique cette image à l’informatique de l’entreprise, cela donne: « Le plus fragile, c’est la base de données. Mais elle n’est critique que si les applications sont critiques« . C’est pourquoi Quest Software, répondant aux attentes de ses clients qui souhaitent qu’une solution d’optimisation des performances puisse couvrir l’ensemble de ses environnements informatiques, s’est intéressé dès 2000 à cette attente, et donc aux ERP. « Les systèmes de supervision fournis par les ‘frameworkers’ superviseurs, comme Tivoli d’IBM ou OpenView d’HP, couvrent les réseaux et le ‘hardware’, les systèmes d’exploitation, un peu les bases de données, mais très peu les logiciels« . Adopter une vision verticale, applicative, de la supervison Cette couverture horizontale, pour reprendre l’analogie, couvre sérieusement le moteur, mais très mal le reste. Ce qui a conforté la volonté de Quest Software de s’intéresser aux applications et aux composants à partir des stacks (piles) applicatives. C’est une vision verticale qui se dote de nouvelles fonctionnalités pour détecter, diagnostiquer et résoudre les difficultés. A partir de la supervision d’infrastructure, le monitoring de Quest Software a adopté une double vision applicative et SLM (service level management), avec des capacité de planification, complétées d’une approche ‘end user experience‘. Mais pour éviter que cette démarche reste vaine (en 2000, un tiers des solutions de suivi restaient sur les étagère), l’éditeur a défini un cahier des charge dont les directives sont l’homogénéité du produit ; sa facilité à être installé, déployé et utilisé ; et peu intrusif, faible en consommation. L’expérience ‘end user « La valeur de l’application est du côté de l’utilisateur final« . Richard Frajnd évoque une étude de Computer Weekly, qui affirme que 68% des organisations IT découvrent les problèmes quand l’utilisateur y est confronté. Pour contourner cette difficulté, l’éditeur s’appuie sur l’expérience de l’utilisateur final, la ‘end user experience‘. Le monitoring s’exerce alors en deux approches : – Le monitoring actif ou synthétique, qui fait appel à un robot transactionnel afin de reproduire et d’amplifier la démarche du ‘end user‘ et de provoquer les évènements. C’est l’approche SLM du ‘transaction recorder‘. – Le monitoring passif ou dynamique fait appel à des sondes, ou ‘sniffer‘, pour suivre les évènements, la bande passante, le load balancing. C’est l’approche UEM (user experience monitor). Quest a adopté ici un focus volontairement agressif, qui associe la surveillance des applications et des interactions sur l’ERP, jusqu’à la nécessaire optimisation du code, et une approche ‘end user‘. La solution s’accompagne bien évidemment d’une gestion des changements de configurations, de gestion des mises à jour, de réduction des temps de déploiement au travers d’un repository unique. Les spécificités du marché français

Les entreprises anglo-saxonnes sont très sensibles à la gestion et à l’optimisation des performances de leurs systèmes informatiques, mais aussi de leurs solutions applicatives. Une démarche qui les incite à la mentionner sur l’ensemble de leurs outils. A l’inverse, les entreprises françaises y sont moins sensibles. Si leurs appels d’offres sont bien construits autour du fonctionnel, ce qui l’environne est peu ou pas développé. Une autre question sensible porte sur le responsable de l’opération. Cartouche applicative du ‘frameworker’ ? Application fonctionnelle ? Développement par la SSII ? Et en cas d’externalisation, qui finance l’acquisition ? Quand l’entreprise ne préfère pas favoriser le réactif plutôt que le proactif, autant dire attendre l’accident et agir après… Heureusement, les entreprises prennent conscience des risques et de l’intérêt de se doter dès l’origine d’un projet d’outils de gestion et d’optimisation des performances. Une démarche qui reste cependant encore rare.

Recent Posts

Cybersécurité : Darktrace dans l’escarcelle de Thoma Bravo

La société britannique de cybersécurité Darktrace a accepté une offre de rachat de 5,32 milliards…

9 heures ago

Étude Trends of IT 2024 : comment les managers IT développent leurs projets

Silicon et KPMG lancent la deuxième édition de l'étude Trends of IT. Cette édition 2024…

11 heures ago

Atos : l’Etat veut acquérir les activités souveraines

Le ministère de l'économie a adressé une lettre d'intention à la direction d'Atos pour racheter…

13 heures ago

Arnaud Monier – SNCF Connect & Tech : « Notre moteur, c’est l’innovation et nous procédons par incrémentation »

Directeur Technologie de SNCF Connect & Tech, Arnaud Monier lance une campagne de recrutement pour…

15 heures ago

Etats-Unis : les grands de l’IT licencient au nom de l’IA

Les grands de l'IT suppriment des milliers de jobs au nom du déploiement de. Une…

15 heures ago

Appel de Rome : Cisco rejoint Microsoft et IBM pour une IA éthique

Quatre ans après l’appel de Rome - un pacte présenté en 2020 par le Vatican…

15 heures ago