Silicon

INSIGHTS FOR IT PROFESSIONALS

PME : mesurez-vous aux plus grands !

Sur quels profils métiers s’appuyer pour un projet Big Data réussi ?

Conscientes que le Big Data est source de business, les entreprises sont de plus en plus nombreuses à vouloir mettre en œuvre des projets autour de l’exploitation massive de la donnée. Mais ce type de démarche nécessite des compétences métiers spécifiques et des qualités comportementales particulières. Cela requiert aussi de mettre en place une équipe dédiée, structurée autour d’un expert et d’un leader, et dont le travail sera basé sur une approche itérative et agile. Un projet Big Data nécessite enfin de nommer des garants de la donnée.

Comment réussir un projet Big Data ? Nous vous proposons un point complet sur les compétences métiers nécessaires au développement d’un projet Big Data : data scientist, data engineering et data visualisation.

Puis un focus sur les caractéristiques comportementales des professionnels intervenant sur ce type de projet : créativité, esprit critique, communisation, curiosité, coopération.

Et enfin, une présentation des caractéristiques d’une équipe dédiée au Big Data, du rôle des intervenants et de la façon de travailler.

Sans oublier bien entendu l’importance de la gestion de la donnée. Point qui deviendra crucial avec l’entrée en vigueur du RGPD (Règlement général sur la protection des données) en mai 2018.

Abordez le Big Data par le prisme du business et non de la technologie

Promis comme la nouvelle technologie génératrice de business, le Big Data attire aujourd’hui toutes les entreprises. Mais complexe à mettre en œuvre, un tel projet impose une finalité, des compétences et un cadre.

« L’objectif d’un projet Big Data est de transformer la data en business, en avantage compétitif pour une entreprise. Il est donc important de ne pas traiter le sujet par le prisme de la technologie, mais bien de se focaliser sur la problématique à résoudre. Celle-ci peut être d’ordres divers, comme améliorer la connaissance client, optimiser un processus ou développer un nouveau service, » explique Jean-Baptiste Bouzige, fondateur et CEO d’Ekimetrics.

Jean-Baptiste Bouzige, Ekimetrics

Jean-Baptiste Bouzige, Ekimetrics

Postulat de départ de tout projet Big Data : cerner l’objectif et ne pas penser technologie avant finalité. Une idée partagée par Jérémy Lamri, cofondateur du Lab RH et CEO de Monkey Tie. Pour qui « un projet Big Data a pour objectif de générer des patterns, des tendances afin de créer de la valeur économique pour une entreprise ». Mais, aujourd’hui, de nombreuses entreprises mettent en œuvre des projets totalement déconnectés du business. « Les résultats obtenus sont visuellement très esthétiques, mais inexploitables par l’opérationnel », souligne Jean-Baptiste Bouzige.

Jeremy Lamri, Lab RH

Jeremy Lamri, Lab RH

Quelles compétences métiers recruter pour un projet Big Data ?

Parmi les profils indispensables pour un projet de Big Data : le data scientist. Doté de compétences en mathématiques, statistiques et en informatique, le data scientist conçoit des algorithmes capables d’apporter une solution à une problématique définie.

Au-delà de la maitrise des outils statistiques et des modèles mathématiques, le data scientist doit disposer de connaissances en programmation. « Aujourd’hui, au regard du volume de données, il est préférable pour les data scientists de savoir coder en Python, R, ou Matlab plutôt que de posséder une expertise sur des softwares de traitement de données du marché », analyse Jean-Baptiste Bouzige. « En effet, pour ne pas être limité aux seuls outils disponibles sur le marché, un data scientist doit être capable de coder dans tous les langages propres à l’analyse de données. Cette maitrise lui permettra de gérer des ensembles de données extrêmement complexes, là où les logiciels du marché le limiteraient dans l’exploitation » poursuit le cofondateur du Lab RH. Disposer de compétences en Deep Learning et Machine Learning est également un atout.

Autre profil indispensable à un projet Big Data : le data engineering. Doté d’une expertise IT, le data engineering possède des compétences en Big Data et en Business Intelligence. Issus du monde de l’architecture informatique, de l’administration des bases de données et de la sécurité, ces profils maitrisent Hadoop, Cassandra et autres technologies purement Big Data.

« Parmi les caractéristiques de ces profils : leur capacité à identifier la solution technologique adaptée à la question posée, explique le fondateur et CEO d’Ekimetrics. Bien souvent les obstacles à un projet de Big Data viennent de l’inadéquation entre l’architecture et le business. Il est par exemple courant de voir des bases de données produits pensées pour la supply chain et non pour une exploitation clients ». Un handicap de taille pour les grandes enseignes qui ont fait le choix d’équiper leurs commerciaux de tablettes pour les aider dans leurs recommandations clients : les bases de données étant structurées autour des références produits, elles ne sont donc d’aucun recours pour fournir des informations sur les profils clients – derniers achats, gouts, etc. – leur permettant de leur proposer d’autres produits. La mission du data engineering est de bâtir une architecture répondant à une problématique, qu’elle soit commerciale, marketing ou logistique.

Le data scientist et le data engineering agissent sur la donnée pour en extraire de l’intelligence, des recommandations et des conseils en vue d’un usage.

Outre ces deux profils back-end, un projet Big Data doit intégrer un profil front-end : le data visualisation. Sa mission ? Développer l’interface d’aide à la décision. « Le data visualisation doit prendre la matière première fournie par le data scientist et le data engineering, y ajouter de l’intelligence c’est-à-dire toute l’expertise de traitement de la donnée afin de délivrer une donnée intelligible et exploitable aux opérationnels », précise Jean-Baptiste Bouzige. Ce profil nécessite de maitriser toutes les technologies de data visualisation (Ruby, Angular, Node.js, etc.) et de connaitre JavaScript.

Compétences cognitives et comportementales

Au-delà des compétences techniques, les professionnels du Big Data doivent présenter des qualités cognitives spécifiques. « Manipuler autant de données hétérogènes et en ressortir une information pertinente nécessite d’avoir une certaine intuition, c’est-à-dire une capacité à apprendre et à réfléchir pour faire face à une situation jamais rencontrée. Cette intuition repose sur quatre qualités : la créativité, la communication, l’esprit critique et la coopération, » commente Jérémy Lamri.

Pour faire parler les données et créer des liens entre elles de manière instantanée, la créativité est un atout indéniable. L’esprit critique, quant à lui, est là pour identifier ce qui est remarquable et pertinent entre toutes les données, entre les signaux faibles et les signaux forts. « N’oublions pas que le data scientist est au service d’une prise de décision. Il doit donc avoir le regard critique pour apporter une information fiable et pour changer de scope ou d’approche afin d’apporter la réponse à la question posée, » poursuit le patron d’Ekimetrics.

La communication et la coopération sont deux autres éléments essentiels à une équipe travaillant sur un projet Big Data. « Si les intervenants d’un projet Big Data ne communiquent pas entre eux, chacun exécutera des fragments de solutions dont aucune cohérence n’en sortira, insiste le cofondateur du Lab RH. Créativité, esprit critique, communication et coopération sont des compétences indispensables pour créer de la valeur et gérer tous les sujets complexes d’aujourd’hui. »

L’essence même du Big Data étant d’associer des données qui n’ont rien en commun, les experts de la data doivent faire preuve de curiosité et d’une grande ouverture d’esprit pour oser des modèles et des croisements de données incongrus. Enfin, ils doivent faire montre d’une grande attention pour ne pas semer des erreurs, lors d’un développement par exemple. « Les data scientists gèrent une multitude d’opérations qui peuvent chacune donner lieu à des erreurs. Si le professionnel manque d’attention et de conscience professionnelle, il peut laisser passer la faute et véhiculer une réponse erronée à la question, » prévient Jeremy Lamri. La rigueur et la conscience professionnelle sont deux qualités fondamentales dans un tel projet.

Construire une équipe Big Data efficiente

Élément essentiel à la réussite du projet « être capable de traduire une problématique métier en approche data pour ensuite traduire la réponse data en une information compréhensible et utilisable par les métiers » explique Jean-Baptiste Bouzige.

Pour Jeremy Lamri, une équipe Big Data fonctionne bien dès lors qu’elle a nommé un expert et un leader. « Le rôle de l’expert consiste à trancher quand il y a un désaccord, alors que le rôle du leader consiste à insuffler la dynamique au groupe au quotidien. Dans les modèles classiques de management, c’est généralement la même personne qui endosse le rôle d’expert et celui de leader. Mais une équipe de projet Big Data doit s’inscrire dans une logique de flexibilité, d’agilité, dans une dimension collaborative et transversale. L’organisation très hiérarchisée des projets traditionnels ne fonctionne plus dans ce type de projet. »

Pour que son avis fasse l’unanimité, l’expert doit être légitime, reconnu par ses pairs et donc choisi par le groupe. L’expert est lié au projet et perd donc son statut lorsque l’équipe prend en charge un nouveau projet Big Data.

Doté d’une forte capacité d’animation d’équipe, d’un dynamisme important et de diplomatie dans les moments difficiles, le leader peut, en cas de démotivation ou de fatigue, laisser un collaborateur prendre le relais. Attention toutefois à ce qu’il n’y ait pas de cassure dans le leadership, au risque sinon de démobiliser l’équipe.

Comme tout projet agile, une équipe Big Data doit fonctionner par itération, c’est-à-dire en faisant évoluer les rôles selon les besoins du projet et les attentes des collaborateurs.

Penser à prendre en compte le RGPD

Autre paramètre important : définir des responsables de données. La directive européenne sur la protection des données personnelles (RGPD, Règlement général sur la protection des données) impliquant un cadre rigide à partir du 25 mai 2018, un projet Big Data impose d’identifier au sein de l’équipe des garants de modèles de données.

Ces responsables doivent être choisis pour leurs capacités à savoir que tel modèle de données peut soulever telle problématique dans telles conditions. Ces garants doivent donc posséder une expertise sur chacun des grands enjeux du projet et du processus. « Ainsi, lors de la collecte des données, le data scientist et le data engineering doivent s’assurer des conditions de collecte, de l’intégrité et de la restitution des données après traitement par des modèles et des algorithmes. Le professionnel de la restitution visuelle de la donnée, la data visualisation, doit lui aussi être garant de cette restitution. » Au sein de l’équipe, trois personnes doivent donc être garantes des trois étapes du traitement de la donnée.

Pour le cofondateur du Lab RH, la taille idéale d’une équipe est de sept personnes maximum. Et si le projet nécessite plus de personnes, il est pertinent de scinder l’équipe et ensuite d’échanger entre les cellules.

Ne pas oublier direction générale et métiers

Enfin, dans un projet Big Data la direction générale de l’entreprise doit être impliquée, car c’est elle qui fixe le ou les défis à relever en concertation avec le métier concerné.

« Par ailleurs, un tel projet nécessite la mise en place d’une organisation facilitant la bonne connexion entre l’équipe Big Data et les métiers. Ainsi, il est pertinent de nommer des ambassadeurs qui assurent les échanges entre les parties afin d’ajuster le traitement de la data aux enjeux business de l’entreprise. Un projet Big Data réussi impose des cycles de validation courts et une évaluation permanente entre data et objectif à atteindre, » conclut Jean-Baptiste Bouzige.