IA : comment l'agglomération de Nevers détecte les fuites d'eau
En France, le taux de fuite des réseaux d'eau est de l'ordre de 20 % à 25 %. Pour réduire ce gaspillage, l'IoT et la Data ont un rôle majeur à jouer.
Lacroix Group a mené pour l'agglomération de Nevers un projet emblématique sur son réseau d'eau de 360 km. 15 techniciens assurent sa maintenance et près de 200 ouvrages surveillés par les équipements Lacroix.
182 postes de sectorisation ont été placés sur les canalisations des 95 secteurs de l'agglomération. Ils délivrent une mesure le volume d'eau qui traverse la canalisation. Le datalogger remonte les données en 3G/4G une fois par jour, soit 50 000 données collectées chaque jour. Ces données sont envoyées vers le superviseur qui les collecte puis stocker pour analyse.
Adopter une approche ETL et le reporting automatique
Alors que les techniciens collectaient ces données dans un fichier Excel avec de nombreuses colonnes et les 182 courbes de consommation à consulter chaque jour pour déceler les éventuelles fuites, la première étape du projet a été de remplacer cette chaîne de traitement par une approche de type ETL (Extract/Transform/Load) et mettre en place un reporting automatique.
« Nous avons utilisé le logiciel DSS (Data Science Studio) de Dataiku afin de créer des blocks de chargement depuis la base SQL du PC de supervision, de transformation, puis de chargement afin de pousser les données dans un tableau de bord » explique Reynholds Reinette, Smart Data Services Leader, chez Lacroix Group. « L'objectif était de réduire le temps d'analyse des données. »
Une première carte a été mise en place pour visualiser des indicateurs clés comme le débit minimum et maximal, le débit de nuit, le volume journalier. « Déjà, ces graphes permettent d'identifier rapidement les anomalies et les données qui sortent de l'ordinaire. »
Une IA entrainée pour détecter les anomalies
La validation et l'annotation des anomalies par les techniciens permet à l'agglomération de disposer d'un dataset annoté qui permettra la mise en place d'algorithmes de prédiction des fuites, la phase 3 du projet.
Ces tableaux de bord ont réduit du tiers le temps d'analyse des données, mais l'IA allait permettre d'aller beaucoup plus loin.
« Nous nous sommes intéressés au volume journalier du point de sectorisation, car un pic sur ce graphe traduit une anomalie. Plutôt que d'entraîner une IA à reconnaitre ces points importants, ce qui impliquait de disposer d'énormément de données de ce type, nous avons préféré entraîner notre modèle à reconnaître les points » normaux « . Nous avons choisi un auto-encodeur, un réseau neuronal qui réduit les données d'entrée annotées, puis les décompresse. S'il y a une donnée anormale, celui-ci ne saura pas la reconstituer et le système sera alors en mesure de dire qu'il y a une anomalie. »
L'IA trie désormais automatiquement les courbes, en présentant en premier celles où des anomalies ont été identifiées récemment. « Le technicien est passé de 1h30 de travail par jour à moins d'une dizaine de minutes pour identifier les nouvelles anomalies » conclut Reynholds Reinette.
Alain Clapaud
Sur le même thème
Voir tous les articles Cloud