Pour gérer vos consentements :
Categories: Big DataCloud

Roxane Edjali (Gartner) : « Le Big Data n’est pas un marché en soi »

Le Gartner a publié une note de recherche sur le Big Data, « Big Data Drives Rapid Changes in Infrastructure and $232 Billion in IT Spending Through 2016 », dont nous nous faisons l’écho dans notre article « Big Data : 232 milliards de dollars de dépenses IT jusqu’en 2016 ». Roxane Edjali, analyste spécialiste du Big Data au Gartner, revient pour nous sur cette étude.

Silicon.fr : Y a-t-il véritablement un marché du Big Data et pourquoi avez-vous exclu le matériel de votre étude ?

Roxane Edjali : Si le potentiel des dépenses IT liées au Big Data est conséquent, 232 milliards de dollars d’ici à 2016, à l’initial c’est un marché composite, mais pas un marché en soi. Je ne pense pas qu’il va donner lieu à un marché en tant que tel. Le Big Data est plutôt une conjonction d’évènements. Ce sont les technologies qui le composent et sa volumétrie qui viennent étendre le marché. Partant de cette constatation, les marchés impliqués sont liés au logiciel et au stockage. C’est pourquoi nous avons exclu le hardware. D’ailleurs les entreprises vont ré-employer des machines, et pas uniquement des solutions de Big Data.

Silicon.fr : Quels sont les modèles de déploiement du Big data ?

Les modèles de déploiement sont divers et nous assistons à une maturité émergente, en particulier avec des offres hébergées dans du cloud. Les composants impactés sont divers, autour de l’infrastructure applicative et du temps réel, et doivent adresser les problématiques de vélocité. Quant aux usages, ils portent sur l’e-commerce, les médias sociaux, la publicité, les jeux. Les modèles avec souscription du Big Data Analytics via le Web vont représenter un gros pourcentage des dépenses.

Silicon.fr : La vraie problématique du Big Data n’est-elle pas dans l’absence de compétences ?

Lorsqu’il y a peu de compétences en interne, il faut mettre en place des services. C’est une caractéristique des technologies émergentes, qui affichent jusqu’à un ratio de 1 à 20 du service dans la dépense. Avec la maturité, la différence va s’atténuer et la compétence deviendra une partie normale des projets avec la standardisation et le remplacement des technologies dans l’organisation. A partir de 2018, le remplacement sera destructif.

À suivre en page 2 : Big Data et Cloud, le Big Data en France, et les difficultés

Page: 1 2

Recent Posts

IA générative : les lignes directrices de l’ANSSI

Formats de paramètres, méthodes d'apprentissage, mutualisation GPU... Voici quelques-unes des recommandations de l'ANSSI sur l'IA…

13 heures ago

De la marque blanche à l’« exemption souveraine », Broadcom fait des concessions aux fournisseurs cloud

À la grogne des partenaires VMware, Broadcom répond par diverses concessions.

16 heures ago

iPadOS finalement soumis au DMA

iPadOS a une position suffisamment influente pour être soumis au DMA, estime la Commission européenne.

18 heures ago

ChatGPT : le Financial Times signe avec OpenAI

FT Group, éditeur du Financal Times, a signé un accord avec OpenAI afin d'utiliser ses…

3 jours ago

Les hyperscalers renforcent leurs recherches et datacenters pour l’IA

Au premier trimestre, Microsoft, Meta/Facebook et Alphabet/Google ont déjà investi plus de 32 milliards $…

3 jours ago

Cybersécurité : Darktrace dans l’escarcelle de Thoma Bravo

La société britannique de cybersécurité Darktrace a accepté une offre de rachat de 5,32 milliards…

4 jours ago