Pour gérer vos consentements :
Categories: Régulations

ERP : comment gérer les performances des applications?

Richard Frajnd, directeur de Quest Software France, utilise volontiers l’image de l’automobile pour évoquer la gestion de l’optimisation des performances, la spécialité de cet éditeur:  »

La voiture, c’est le moteur, mais c’est aussi la carrosserie et tout ce qui va avec. C’est toujours le moteur qui est critique, mais retirez les roues, et la voiture n’avancera pas« . Si on applique cette image à l’informatique de l’entreprise, cela donne: « Le plus fragile, c’est la base de données. Mais elle n’est critique que si les applications sont critiques« . C’est pourquoi Quest Software, répondant aux attentes de ses clients qui souhaitent qu’une solution d’optimisation des performances puisse couvrir l’ensemble de ses environnements informatiques, s’est intéressé dès 2000 à cette attente, et donc aux ERP. « Les systèmes de supervision fournis par les ‘frameworkers’ superviseurs, comme Tivoli d’IBM ou OpenView d’HP, couvrent les réseaux et le ‘hardware’, les systèmes d’exploitation, un peu les bases de données, mais très peu les logiciels« . Adopter une vision verticale, applicative, de la supervison Cette couverture horizontale, pour reprendre l’analogie, couvre sérieusement le moteur, mais très mal le reste. Ce qui a conforté la volonté de Quest Software de s’intéresser aux applications et aux composants à partir des stacks (piles) applicatives. C’est une vision verticale qui se dote de nouvelles fonctionnalités pour détecter, diagnostiquer et résoudre les difficultés. A partir de la supervision d’infrastructure, le monitoring de Quest Software a adopté une double vision applicative et SLM (service level management), avec des capacité de planification, complétées d’une approche ‘end user experience‘. Mais pour éviter que cette démarche reste vaine (en 2000, un tiers des solutions de suivi restaient sur les étagère), l’éditeur a défini un cahier des charge dont les directives sont l’homogénéité du produit ; sa facilité à être installé, déployé et utilisé ; et peu intrusif, faible en consommation. L’expérience ‘end user « La valeur de l’application est du côté de l’utilisateur final« . Richard Frajnd évoque une étude de Computer Weekly, qui affirme que 68% des organisations IT découvrent les problèmes quand l’utilisateur y est confronté. Pour contourner cette difficulté, l’éditeur s’appuie sur l’expérience de l’utilisateur final, la ‘end user experience‘. Le monitoring s’exerce alors en deux approches : – Le monitoring actif ou synthétique, qui fait appel à un robot transactionnel afin de reproduire et d’amplifier la démarche du ‘end user‘ et de provoquer les évènements. C’est l’approche SLM du ‘transaction recorder‘. – Le monitoring passif ou dynamique fait appel à des sondes, ou ‘sniffer‘, pour suivre les évènements, la bande passante, le load balancing. C’est l’approche UEM (user experience monitor). Quest a adopté ici un focus volontairement agressif, qui associe la surveillance des applications et des interactions sur l’ERP, jusqu’à la nécessaire optimisation du code, et une approche ‘end user‘. La solution s’accompagne bien évidemment d’une gestion des changements de configurations, de gestion des mises à jour, de réduction des temps de déploiement au travers d’un repository unique. Les spécificités du marché français

Les entreprises anglo-saxonnes sont très sensibles à la gestion et à l’optimisation des performances de leurs systèmes informatiques, mais aussi de leurs solutions applicatives. Une démarche qui les incite à la mentionner sur l’ensemble de leurs outils. A l’inverse, les entreprises françaises y sont moins sensibles. Si leurs appels d’offres sont bien construits autour du fonctionnel, ce qui l’environne est peu ou pas développé. Une autre question sensible porte sur le responsable de l’opération. Cartouche applicative du ‘frameworker’ ? Application fonctionnelle ? Développement par la SSII ? Et en cas d’externalisation, qui finance l’acquisition ? Quand l’entreprise ne préfère pas favoriser le réactif plutôt que le proactif, autant dire attendre l’accident et agir après… Heureusement, les entreprises prennent conscience des risques et de l’intérêt de se doter dès l’origine d’un projet d’outils de gestion et d’optimisation des performances. Une démarche qui reste cependant encore rare.

Recent Posts

AWS abandonne WorkDocs, son concurrent de Dropbox

Un temps pressenti pour constituer le socle d'une suite bureautique AWS, Amazon WorkDocs arrivera en…

2 jours ago

Eviden structure une marque de « serveurs IA »

Eviden regroupe cinq familles de serveurs sous la marque BullSequana AI. Et affiche le supercalculateur…

2 jours ago

SSE : l’expérience se simplifie plus que les prix

Le dernier Magic Quadrant du SSE (Secure Service Edge) dénote des tarifications et des modèles…

3 jours ago

IA générative : les lignes directrices de l’ANSSI

Formats de paramètres, méthodes d'apprentissage, mutualisation GPU... Voici quelques-unes des recommandations de l'ANSSI sur l'IA…

3 jours ago

De la marque blanche à l’« exemption souveraine », Broadcom fait des concessions aux fournisseurs cloud

À la grogne des partenaires VMware, Broadcom répond par diverses concessions.

3 jours ago

iPadOS finalement soumis au DMA

iPadOS a une position suffisamment influente pour être soumis au DMA, estime la Commission européenne.

4 jours ago