L’univers du stockage et son manque de lisibilité…

Cloud

Les acteurs historiques dominent le marché avec des systèmes de stockage de plus en plus complexes et conçus d’abord pour des gros clients. Le Cloud impose à ces acteurs, pour être rentables, d’acquérir des machines de plus en plus grosses, capables de stocker plusieurs pétaoctets (Po) voire des dizaines de Po, utilisables par des centaines de clients.

En effet ces machines et leur système d’exploitation disposent de fonctionnalités qui répondent d’abord à des préoccupations de type hébergeur de masse. Le résultat quelque peu injuste est que l’on fait payer à des clients qui n’ont pas forcément de gros besoins, le développement et l’industrialisation de fonctionnalités qui ne les concernent pas. En d’autres termes, les petits clients (les plus nombreux) payent pour le développement de fonctionnalités principalement utilisés par les gros clients.

La course à la réduction du « Time-to-market » et aux nouvelles versions 

Pour répondre au chant des sirènes du « Reduce the Time-To-Market » et démontrer leur capacité à innover, les acteurs du stockage développent souvent « à la va-vite » des fonctionnalités qui sont utilisées par 0,03% des clients mondiaux ou bien des demi fonctionnalités qui ne sont utilisables que dans des cas particuliers ou très particuliers, avant d’être parfois généralisés dans de futures versions. Pour ces acteurs, il est urgent d’offrir au client l’illusion de la nouveauté. La fabrication du consentement qui est « inutile donc indispensable » pour le client.

Au fil du temps, ces solutions deviennent de plus en plus complexes, donc « meilleures » et évidemment plus chères… même si finalement le client n’utilise que très peu, voire aucune des nouvelles fonctionnalités proposées. Cette complexité accrue guide le marché dominé par les acteurs historiques et nous la devons à cette course à la nouveauté et à la valeur ajoutée, aujourd’hui indissociables.

Est-ce finalement positif pour le client ? (La question peut être posée autrement : Un arbre de Noël devient-il plus beau en y ajoutant toujours plus de boules et de guirlandes ? A-t-on besoin d’un bulldozer pour écraser une mouche ?… ) ? La question mérite d’être posée.

Prenons l’exemple d’un système de stockage dédié à l’archivage. Dans ce cas, l’utilisation de disques durs SSD (Solid-State drive) est totalement inutile… mais indispensable. En effet, pour les acteurs de ce marché, il est important d’un point de vue business de valoriser leurs solutions SSD par rapport à des disques classiques en mettant en avant la vitesse de transfert, leur silence ou encore leur robustesse. Et cela en mettant évidemment de côté le fait que le processus de fabrication des SSD est bien plus néfaste pour les citoyens en termes de pollution générée, ou encore que le SSD supporte mal les cycles « écriture/effacement »…

Autre exemple : un client se trouve dans la difficile position de renouveler son infrastructure de stockage obsolète, parfaitement fonctionnelle et avec laquelle il n’a aucun problème de performance, mais dont le prix de maintenance annuelle devient difficile à supporter. Aujourd’hui, ce client va probablement se voir proposer une offre mettant en avant des contrôleurs de « nouvelle génération » 5 fois plus performants que les anciens et disposant de SSD, alors qu’à son échelle cette « performance », il n’en a pas besoin. Il va vouloir comparer cette première offre avec celle d’autres constructeurs et sera obligé de la comparer à une offre équivalente à base de SSD elle aussi, alors qu’il n’en a toujours pas besoin.

Cette course à la performance est même parfois une stratégie commerciale poussant à la sur-consommation

L’idée étant de faire comprendre et accepter au client d’inclure dans sa proposition d’achat des licences et/ou des fonctionnalités superflues mais dont le constructeur fait la promotion. Ainsi et parce que le commercial parvient à vendre la valeur du moment, le pourcentage de remise sur la globalité du dossier d’achat sera supérieur à celui d’une proposition n’incluant pas la valeur du moment ou les produits poussés par le constructeur à cet instant T. Ainsi le client va se retrouver dans la situation d’acquérir ce dont il n’a pas besoin et le pire c’est qu’il y trouvera son intérêt puisqu’en plus il dépense moins.

À ce stade, il est donc difficile de croire ce qu’avancent les constructeurs en termes de chiffres sur la supposée étendue de la base installée en termes de fonctionnalités réellement utilisées.

L’ère de la sophistication : La performance, en lieu et place de réponses aux besoins

Tout cela est à mettre en lumière avec l’adage de Léonard de Vinci : « La sophistication suprême, c’est la simplicité », repris quelques années auparavant par l’un des acteurs de ce marché sous « Fast Simple Reliable », autrement dit faire rapide, simple et fiable. Si l’efficience a toujours le vent en poupe puisque les solutions semblent rester opérationnelles en allant toujours plus vite, la notion de simplicité a quant à elle sérieusement disparu des valeurs. 

La durabilité et la fiabilité d’un système sont clairement devenus au fil du temps des problèmes économiques pour ces acteurs. Il a bien fallu à un moment concevoir des stratégies qui créent du besoin – aussi futile soit-il – et des leviers pour pousser à l’achat. Dans d’autres domaines d‘activité, on se souvient de l’obsolescence programmée, qui a fait partie de ces stratégies pour assurer la compétitivité. A côté de ça, la course à la nouveauté ou à la fonctionnalité pour faire sentir au client qu’il est « toujours à la pointe » de la technologie est une technique bien connue de création de besoins ; Le client est alors « ferré » dans un cercle vicieux.

La conséquence première à cela est l’empilement technologique et donc une perte substantielle de clarté sur son système. La complexité est désormais la norme. La valeur que donnait la simplicité d’utilisation et d’installation et qui faisait d’une solution un produit mature et abouti a donc disparu.

Pour preuve, nous installons aujourd’hui des systèmes de stockage en trois jours qui font au final rigoureusement la même chose que ceux que nous installions il y a dix-huit ans et en seulement quinze minutes.

Pourquoi en est-on arrivé là ? Si les exigences et perspectives économiques imposent aux acteurs de vendre en créant une panoplie de besoins additionnels et ainsi augmenter le nombre de jours vendus ou encore la marge, cela ne cache-t-il pas un malaise dans le milieu de l’innovation ? C’est un sujet peu abordé, mais si les exploits de performance ne font aucun doute, ils sont assez logiques si l’on suit la philosophie de la « Loi » de Moore. C’est une innovation résolument « verticale ». Mais cette course aura vite ses limites en termes de volumétrie traitée, de coûts et surtout de risques générés, comme on peut déjà le voir dans de grandes entreprises qui sont en indélicatesse permanente avec la cartographie de leurs actifs. Mais cela ne cache-t-il pas également une incapacité à une innovation transverse ? En effet, on voit peu de solutions mettant en avant une innovation plus transverse, comme créer des passerelles entre outils, œuvrer pour instaurer de l’ergonomie technologique, pour intégrer d’autres enjeux périphériques à l’image de la gestion des risques, et de la sécurité, ou encore de la rationalisation de données.

De nouveaux acteurs : un frein à cette dérive est-elle en marche ? 

Dans ce contexte essentiellement dominé en volume par les grands acteurs du stockage et leur vision quasi-unilatérale du marché, et qui sont uniquement motivés par la nécessité d’organiser scientifiquement la dépendance de leurs clients à leurs produits plutôt qu’à leur réelle satisfaction, de nouveaux acteurs semblent changer la donne, en renouant avec l’impératif de simplicité.

Sans compromis avec les fonctionnalités, ils offrent des produits qui se démarquent de plus en plus par leur simplicité de mise en œuvre et d’utilisation. Ces produits sont accompagnés d’une vision commerciale et marketing différente. Par exemple, tant que vous payez la maintenance, le constructeur vous offre les mises à jour matérielles des contrôleurs. La mise en œuvre dans la réalité de ce programme commercial et marketing est accompagné d’une vraie réalité technique dans la continuité de l’esprit de simplicité affiché. En effet, il est possible de faire à chaud une mise à jour des deux contrôleurs de la solution pour des modèles de contrôleurs plus puissants en à peine 1h. La différence est significative avec les solutions des acteurs historiques qui, en fonction des volumétries de départ gérés par les contrôleurs à upgrader, affichent des opérations d’une durée allant d’une journée à trois jours de service.

Certes, ces nouveaux acteurs ont pour eux la facilité d’avoir démarré d’une page blanche là où les acteurs historiques s’épuisent à mettre ou remettre au goût du jour des technologies dont l’inadaptation au changement se fait de plus en plus évidente.  

 

Auteur
En savoir plus 
Albert Bon est Consultant Senior en intégration de solutions et services de stockage et virtualisation du stockage, au sein de la société SVL, filiale du groupe Newlode. Consultant expérimenté, Albert Bon a débuté sa carrière en 1987 en tant qu’Analyste programmeur et a par la suite a exercé des fonctions d’Ingénieur Système, avant-vente, formateur, consultant pour plusieurs sociétés spécialisées telles que NetApp, Serviware, Infopoint ou encore Stratus France. Il a rejoint SVL, Stockage-Virtualisation-Logistique, en 2011, société devenue filiale du groupe Newlode en 2018.
En savoir plus 

Livres blancs A la Une