Analyse de données : six tendances qui vont façonner le futur

Big DataBusiness IntelligenceData & Stockage

Les progrès rapides de la data science ouvrent de nouvelles possibilités pour les entreprises. Elles peuvent approfondir leur connaissance de leur marché, de leurs clients et de leur business et identifier des opportunités nouvelles.

Les récentes crises sanitaires, écologiques et économiques rappellent que l’instabilité est une constante et que les situations de crises ont tendance à se superposer plutôt qu’à se succéder. La capacité à tirer dynamiquement des insights de ses données pour s’adapter et prendre les meilleures décisions est un atout majeur des entreprises résilientes.

Dans le même temps, les volumes de données à analyser pour atteindre cet objectif sont toujours plus denses et volatiles. La technologie doit donc absolument évoluer en permanence pour apporter toujours plus de précision et répondre aux besoins du “nouveau normal”. Pour offrir de la perspective, voici 6 tendances qui vont façonner le futur de l’analyse de données.

La montée en puissance de la data science.

Les progrès rapides de la data science ouvrent de nouvelles possibilités pour les entreprises. Elles peuvent approfondir leur connaissance de leur marché, de leurs clients et de leur business et identifier des opportunités nouvelles.

Grâce à l’Intelligence Artificielle, automatiser certaines tâches impossibles ou trop chères à accomplir manuellement crée des gains de productivité importants dans tous les domaines : opérations, marketing, ventes, etc.
La data science enrichit les jeux de données notamment en identifiant de nouveaux axes d’analyse ou en les groupant suivant des “patterns”, des catégories contre-intuitives mais éminemment pertinentes. Ces informations ont un impact direct sur la performance et vont nourrir les outils de Business Intelligence nouvelle génération.

Pour réaliser tout son potentiel, la data science doit se diffuser dans tous les départements de l’entreprise. C’est pour cela que plusieurs géants de la technologie investissent massivement pour que leurs employés acquièrent de fortes capacités en data science, même lorsqu’ils ne font pas partie spécifiquement d’une équipe de data scientists.

Airbnb a ainsi créé sa propre Data University, Amazon s’est lancé dans le développement de son intelligence artificielle Echo/Alexa, l’acquisition de multiples startups et le recrutement de centaines d’experts. Dans de nombreuses entreprises dont ce n’est pas le cœur de métier, il y a encore une grande marge de progression possible.

Le décloisonnement des outils d’analyse de données 

On connaît le risque de voir les modèles construits sur des données historiques être bouleversés du jour au lendemain. Dans le futur, l’analyse de données s’inscrira impérativement dans une dynamique agile, au risque de perdre tout intérêt. Avoir un outil et un langage de programmation différent pour chaque équipe constitue un sérieux obstacle pour atteindre cette réactivité.

Le langage Python, qui s’est largement démocratisé, devient aujourd’hui le dénominateur commun entre tous les acteurs de la data : fournisseurs, modélisateurs et consommateurs. Grâce à lui les data scientists peuvent créer des outils ou découvrir des insights utilisables par les utilisateurs métiers dans des délais très courts.
Le Python est particulièrement populaire pour l’analyse de données et l’intelligence artificielle, mais aussi pour le développement web backend et le computing scientifique. Pour toutes ces raisons, en 2019 il enregistrait la plus forte progression en termes d’utilisation selon le TIOBE Index.

La mort du reporting et l’avènement de l’analyse interactive en temps réel

Les approches du type reporting apparaissent insuffisantes dans de plus en plus de cas d’usage. Jusqu’à récemment, toutes les technologies de BI consistaient à faire des extracts depuis les bases de données et générer des reports statiques qui tournaient la nuit et étaient disponibles le lendemain matin voire plusieurs jours après. Toute modification des paramètres de base ou demande de précision requérait alors de redémarrer le processus à zéro. Cela est toujours une réalité dans de nombreuses entreprises, ce qui est en totale contradiction avec le besoin de réactivité évoqué dans les précédents paragraphes.

Avoir un système analytique en temps réel permet de travailler avec les chiffres à jour. Si les premiers à demander ce type de capacité étaient les traders et les contrôleurs du risque en finance (afin de visualiser les risques en temps réel, étudier le churn…), le besoin se généralise aujourd’hui à toutes les lignes de métier.
Au-delà de la vision en temps réel d’une situation, on veut être capable de simuler de nombreuses hypothèses et d’en calculer l’impact sur les KPIs par anticipation (ex: quel sera l’impact si tel client annule sa commande / le train ne fait pas de livraison / la demande baisse de 10%…), et cela est peut-être plus important encore que d’avoir un tableau de bord “live”.

Pour prendre des décisions il n’est plus possible d’attendre des lustres pour des données qui seront déjà “périmées” quand elles seront disponibles. Il y a un besoin réel de pouvoir bénéficier d’analyse prédictive actualisée et de pouvoir se projeter. Parmi les drivers majeurs qui rendent cette évolution possible, on note : l’in-memory (qui décuple la vitesse de calcul des outils) ainsi que les technologies cloud qui permettent d’utiliser des ressources à la volée, suivant vos besoins, plutôt que de devoir acheter des serveurs coûteux.

L’importance du UX design

Au vu des points précédents, les utilisateurs, non seulement du côté technique mais aussi dans les équipes métier, vont être amenés à naviguer dans des données bien plus fournies qu’auparavant et devront tirer rapidement des insights et prendre des décisions à partir de jeux de données en constante évolution. Le UX doit dès lors absolument être intégré aux outils : ils doivent devenir intuitifs et attirants (là où ils étaient austères et statiques).

Des éléments comme le « data storytelling », c’est-à-dire donner visuellement du sens aux données ; l’interactivité des plateformes analytiques et l’accès simplifié à plus d’informations (pouvoir zoomer sur les données, filtrer, actualiser en temps-réel…) ; et le traitement du langage naturel pour interroger les données et obtenir plus rapidement des résultats pertinents, seront les figures de proues des innovations en ce sens.

Le croisement de toutes les données

L’organisation historique en silos indépendants, en vigueur dans de nombreuses entreprises, a également créé des silos technologiques. On peut trouver par exemple des banques disposant de milliers de bases de données construites sur des dizaines de systèmes différents empilés au cours des années, auxquelles s’ajoutent d’innombrables feuilles excel partagées entre les employés.

Obtenir des informations sur l’état de l’ensemble de l’entreprise à partir de systèmes – CRM, ERP, TMS, WMS, etc. – qui ne communiquent pas ou mal est extrêmement complexe et ralentit les équipes IT, qui doivent passer plus de temps à résoudre les problèmes que cela engendre plutôt qu’à proposer des technologies innovantes aux employés.

Si ces problèmes d’architecture ne sont pas traités, les entreprises ne pourront pas récolter tous les bénéfices des dernières innovations de la data science, de l’IA, ou du machine learning. Leur évolution sera partielle, limitée à des sujets particuliers, plutôt que d’englober toutes les fonctions de l’entreprise.

L’évolution rapide de l’utilisation du mobile.

Cela fait longtemps maintenant que les smartphones ne servent plus seulement à communiquer. Ils sont des terminaux à part entière pour utiliser des applications complexes, y compris analytiques, dont l’usage doit pouvoir s’adapter à leurs limitations. Le futur de l’analyse de données passe par la prise en compte de ces nouvelles habitudes de travail dans la création des outils d’analyse d’aujourd’hui.


Auteur
En savoir plus 
Directeur R&D
ActiveViam
Antoine Chambille est Directeur R&D chez ActiveViam
En savoir plus 

Livres blancs A la Une