Pour gérer vos consentements :
Categories: Big DataCloud

Roxane Edjali (Gartner) : « Le Big Data n’est pas un marché en soi »

Silicon.fr : le déploiement du Big Data est souvent associé au cloud…

Quand l’économie ne va pas très bien, les entreprises ne vont pas se lancer dans une offre à coût fixe, sauf en cas de soucis de régulation règlementaire qui impose à l’organisation de ne pas aller sur le cloud. Maintenant, avec la multiplication des données, en particulier les données non structurées, le Big Data ne change pas les problématiques d’hébergement dans le cloud.

Silicon.fr : Où en est l’adoption du Big Data en France ?

En France, les grandes entreprises affichent des niveaux de maturité très différents. Beaucoup affichent leur intérêt et des questionnements. Les entreprises françaises sont plutôt attentistes, elles sont dans observation, 85% d’entre elles ne feront rien de conséquent avant 2015. Et celles qui se lancent sont précurseurs, sauf de facto l’e-commerce et les interfaces web. Dans la grande distribution, la banque, l’assurance, les prototypes se mettent en place. Dans l’industrie, automobile, chez les équipementiers, le Big Data se construit autour des capteurs, pour collecter et analyser les données. Les industriels ont besoin de vélocité pour traiter la volumétrie des capteurs en données structurées. La banque-assurance traite à la fois structuré et non structuré, pour la détection des menaces par exemple. Quant à la grande distribution, elle recherche potentiellement des grandes combinaisons de facteurs, pousser des offres sur les mobiles par exemple.

Silicon.fr : La difficulté ne sera-t-elle pas de trouver les personnes qui seront capable d’analyser les données ?

C’est là que sera l’impact des services, dont le rôle sera de faire l’analyse et de tirer la valeur. Avec les data scientists, nous allons assister à la généralisation de la fonction de statisticien, de linguiste, etc. Mais en effet, la demande sera de plus en plus disproportionnée face au marché. La création de cursus dédiés apportera des gens qui ne seront opérationnels que dans 3 à 5 ans. Il y des compétences à développer, en généralisant les fonctions de statisticiens, ou alors en combinaison avec les analystes. Mais ce sera un des freins à l’adoption des technologies.

Nous constatons la présence de deux facteurs bloquants : la compréhension du management, quelle valeur vont-ils pouvoir en tirer ?; et les compétences. Avec la pratique du distributed processing, la consolidation et la compétition, l’évolution des pratiques et des infrastructure, les Big Data feront partie des infrastructures normales à partir de 2016-2018. Ce sera le moment pivot.

Crédit photo © Gartner


Voir aussi
Quiz Silicon.fr – Le vocabulaire du cloud

Page: 1 2

Recent Posts

ChatGPT : le Financial Times signe avec OpenAI

FT Group, éditeur du Financal Times, a signé un accord avec OpenAI afin d'utiliser ses…

4 jours ago

Les hyperscalers renforcent leurs recherches et datacenters pour l’IA

Au premier trimestre, Microsoft, Meta/Facebook et Alphabet/Google ont déjà investi plus de 32 milliards $…

4 jours ago

Cybersécurité : Darktrace dans l’escarcelle de Thoma Bravo

La société britannique de cybersécurité Darktrace a accepté une offre de rachat de 5,32 milliards…

4 jours ago

Étude Trends of IT 2024 : comment les managers IT développent leurs projets

Silicon et KPMG lancent la deuxième édition de l'étude Trends of IT. Cette édition 2024…

5 jours ago

Atos : l’Etat veut acquérir les activités souveraines

Le ministère de l'économie a adressé une lettre d'intention à la direction d'Atos pour racheter…

5 jours ago

Arnaud Monier – SNCF Connect & Tech : « Notre moteur, c’est l’innovation et nous procédons par incrémentation »

Directeur Technologie de SNCF Connect & Tech, Arnaud Monier lance une campagne de recrutement pour…

5 jours ago