Les applications les mieux protégées se nourrissent de données

Data & StockagePolitique de sécuritéSécurité

Il est important de déterminer les bons points de contrôle pour automatiser les réponses, autant sur l’infrastructure que les services qui fournissent et sécurisent les applications.

Lorsque les visiteurs d’un aquarium tropical s’extasient devant de magnifiques coraux, ils ne voient pas ce qui se cache dessous. Car sous le sable et les rochers se trouve tout un incroyable écosystème de micro-organismes sans lequel les coraux ne peuvent pas survivre et encore moins prospérer.

Et ils voient encore moins la vigilance avec laquelle le personnel de l’aquarium surveille les conditions de leur environnement. Ils ne voient pas mesures prises minute par minute, et jour par jour, qui permettent de réagir au plus vite lorsque quelque chose ne va pas. Ils n’entendent pas non plus l’alarme qui se déclenche lorsque le moindre paramètre franchit un seuil de sécurité.

Et c’est exactement pareil dans le monde des technologies.

Lorsque les utilisateurs achètent en ligne, ils ne voient qu’une chose : l’expérience utilisateur. Ils ne voient pas la myriade d’applications, d’infrastructures, d’environnements et de services qui sécurisent le tout et rendent cette expérience possible. Mais ils sont là, et ils sont essentiels pour garantir une expérience utilisateur saine.

De l’importance des données

Il y a une différence importante entre savoir que quelque chose ne va pas et savoir quoi faire. Dans un aquarium, quelque chose d’aussi simple que la compréhension de la relation entre le pH et la température peut faire la différence entre résoudre le problème et l’aggraver. Il en va de même pour l’expérience de l’utilisateur. Et pour cela, une première étape fondamentale consiste à s’assurer de collecter les bonnes données.

Malheureusement, un pourcentage important d’organisations ne le font pas.

Une enquête de Turbonomic expose ce phénomène : « Lorsque nous avons demandé aux répondants comment leur organisation mesure la performance des applications, il était prometteur de voir que plus de 60 % la mesurent sous une forme ou une autre. Mais en réalité, l’approche la plus courante était la mesure de la disponibilité, par opposition à la gestion des objectifs de niveau de service (SLO), qui prennent généralement la forme du temps de réponse ou du débit des transactions. Et pire : 13 % ne mesurent pas du tout la performance des applications ».

Le fait de se focaliser sur la seule disponibilité et non sur l’expérience utilisateur dans sa globalité peut avoir un impact négatif très concret sur les entreprises. Par exemple, 89 % des clients disent se tourner plus volontiers vers un concurrent à la suite d’une mauvaise expérience utilisateur.
Et une fois partis, le coût d’acquisition pour les remplacer est élevé, allant d’une moyenne de 70 € par client dans le secteur de la vente au détail à plus de 200 € dans le monde de la finance. Et la perte de revenus est encore plus importante : les clients fidèles valent en moyenne dix fois la valeur de leur premier achat.

Ainsi, le maintien d’une expérience utilisateur supérieure est un impératif absolu !

La clé de tout ça : une attention féroce à la mesure des bonnes données, comme le font les experts d’aquarium tropicaux ! Et pour y parvenir, il est important de déterminer les bons points de contrôle pour automatiser les réponses, autant sur l’infrastructure que les services qui fournissent et sécurisent les applications.

Les applications adaptatives sont orientées données

À Varsovie, en Pologne, huit palourdes se sont révélées plus performantes que toute autre technologie pour mesurer la qualité de l’eau. « Lorsque ces coquillages, très sensibles à la pollution, détectent de l’eau polluée, elles se referment, une action qui déclenche alors des alarmes grâce à des capteurs spéciaux fixés sur leur coquille ». Jusqu’à récemment, personne ne connaissait leur existence. Les habitants savaient seulement qu’ils avaient accès à de l’eau potable, sans se préoccuper de savoir comment l’eau polluée était détectée.

Les organismes vivants comme cette palourde mesurent instinctivement tout et sont particulièrement astucieux pour reconnaître le danger sur la base de données mesurées. Mais aucun système interne unique n’est responsable de cette superpuissance. Il faut la collaboration de centaines de systèmes internes générant des mesures, ajoutée à la capacité d’analyser les données qui en résultent pour décider en une fraction de seconde que l’eau est dangereuse.

De la même manière, ce sont les mesures — les données — qui rendent une application adaptative. Sans déclencheurs d’action clairs, il n’est pas possible de s’adapter. L’identification d’une activité malveillante déclenche des actions de sécurité, tandis que la détection d’une dégradation des performances déclenche plutôt des actions d’optimisation. Ce sont deux choses très différentes et il est nécessaire de faire les deux.

Pour être efficaces, ces données doivent comprendre des mesures prises depuis chaque couche de la pile technologique. Considérées dans leur ensemble et mises en face des processus commerciaux — jusqu’aux flux de travail — elles peuvent être analysées et transformées en informations auxquelles les applications devront adapter automatiquement.

En procédant ensuite à des analyses plus poussées, il devient possible — toujours sur la base de ces mêmes données — de mettre en évidence des relations, des modèles et des tendances qui permettent aux chefs d’entreprise d’aligner les architectures, les infrastructures et les applications sur les résultats commerciaux réels.

Ces connaissances riches permettent de prendre des actions automatisées très rapides quand c’est nécessaire (grâce à l’IA et l’automatisation), tout en permettant aux humains en charge de prendre des décisions plus structurantes en toute connaissance de cause.

Pour agir, il faut donc des systèmes capables de recevoir des instructions et de les mettre en œuvre. Dans la nature, ce n’est pas notre interface avec le monde qui réagit aux conditions dangereuses. Ce sont nos systèmes immunitaires et autres systèmes internes qui agissent en notre nom sur la base des informations collectées par notre interface avec le monde.

Dans un monde numérique, ces systèmes internes sont des services d’application et des infrastructures. Les technologies qui se trouvent derrière l’interface génèrent des données et agissent pour protéger, étendre et optimiser l’expérience de l’utilisateur.

Ainsi les applications adaptatives sont pilotées par les données, dont la collecte est rendue possible par la télémétrie générée par les services d’application, l’infrastructure et les systèmes qui les fournissent, les sécurisent et les mettent à l’échelle. Grâce à une plateforme capable d’analyser ces données et de produire des informations exploitables et automatisables, les entreprises pourront progresser plus rapidement et en toute confiance vers la mise en œuvre d’applications réellement capables de s’adapter aux conditions extérieures.

Le plus décevant, dans tout ça ? C’est que les clients ne s’en rendront toujours pas compte… ils sauront seulement que leur expérience utilisateur est parfaite à tout moment !


Auteur
En savoir plus 
Evangéliste technologique
F5 Networks
Lori MacVittie est Evangéliste technologique chez F5 Networks
En savoir plus 

Livres blancs A la Une