Analyser et prévenir : comment la donnée étend la durée de vie des actifs
L’utilisation de la prédiction dans la maintenance fondée sur des données satellitaires, des images ou des séries temporelles permet aujourd’hui de suivre dans le temps les infrastructures avec une fréquence et une précision jusqu’alors inenvisageables. Résultat : dans le domaine ferroviaire, la vitesse de dégradation des infrastructures est divisée par deux ; tandis qu’une meilleure identification des zones du réseau d’eau potable présentant un risque élevé de fuites permet d’en établir un modèle comportemental.
L’accumulation de données et l’augmentation des capacités de calcul, couplées à un développement croissant des applications de la recherche en intelligence artificielle, ont fait émerger une nouvelle discipline dans la maintenance, celle qui tend à prédire le comportement d’une infrastructure avec une certaine certitude. Il est entendu que le domaine de la maintenance n’a pas attendu ces nouvelles technologies pour être efficace. Mais il évolue avec son temps et a dans un premier temps cherché à connecter les machines, les infrastructures.
Il s’agissait de visualiser un statut en temps réel pour ainsi améliorer la réactivité des équipes, en ayant une vision globale pour prendre des décisions fondées sur des critères objectifs. Dans un second temps, la discipline a pris conscience que la masse de données acquise pouvait être utilisée par des algorithmes pour faire passer la maintenance historiquement préventive ou curative à une maintenance prédictive (prédiction des comportements, des dysfonctionnements) voire prescriptive (prédiction de solutions associées à des dysfonctionnements).
Un avenir prometteur
La promesse est belle, il s’agit de comprendre le comportement passé d’une infrastructure grâce à la donnée, pour estimer la survenue d’une anomalie dans un horizon de temps calculé et défini et ainsi adapter nos comportements ou nos méthodes pour intervenir avant qu’elle n’advienne. Il s’agit de prédire pour anticiper et éviter de dégrader une infrastructure, et ainsi prolonger son cycle de vie.
La donnée ne remplace pas la connaissance humaine de l’infrastructure et de son fonctionnement, mais elle offre un éclairage différent. Et surtout elle permet de réaliser par la suite des simulations de comportement par centaines ou par milliers en jouant sur un ensemble de paramètres que l’humain ne serait pas capable de réaliser. En conséquence, le binôme humain-donnée permet à n’en pas douter de mieux comprendre une infrastructure, et donc d’envisager une meilleure maintenance et par conséquent une extension du cycle de vie.
La primauté de la data
Mais, si la promesse est belle, la rentabilité n’est pas toujours associée et il est souvent déconseillé de se lancer dans un projet complexe de prédiction qui, par nature, repose sur une donnée jusqu’alors non préparée ni conçue pour être ingérée par un algorithme. Les projets d’amélioration de la connaissance du comportement d’un système sont par conséquent avant tout des projets « data » plutôt que des projets d’intelligence artificielle.
Du moins en général, il sera passé beaucoup plus de temps sur la partie préparation du pipeline de données que sur la partie modèle à proprement parler. Au sein de Vinci, nous expérimentons depuis plusieurs années ces projets d’amélioration de la connaissance des infrastructures, de prédiction de comportement, fondée sur une connaissance data de l’infrastructure couplée à l’expérience humaine, avec des résultats prometteurs.
La maintenance des lignes ferroviaires
Lorsqu’un train roule à grande vitesse sur une infrastructure, l’usager ressent des mouvements longitudinaux et transversaux qui sont le résultat de l’interaction entre le train et l’infrastructure, la voie sur laquelle il circule.
Une voie de circulation est composée de trois éléments principaux : des rails en métal sur lesquels le train roule ; des traverses en bois ou en béton chargées de maintenir un écart constant entre les deux rails ; du ballast, les cailloux supportant les traverses qui servent à maintenir la voie tout en absorbant une partie des vibrations au moment du passage du train. Quand les rails, et par voie de conséquence les traverses, s’enfoncent localement dans le ballast, ils créent un effet à haute fréquence sur le profil longitudinal de la voie. On percevra alors des secousses dans le train.
Si l’enfoncement est plus diffus, plus en longueur, on aura un effet à basse fréquence sur le profil et l’on observera une dégradation du confort du passager, avec notamment l’apparition des symptômes de type mal de mer. Ces premiers problèmes, s’ils ne sont pas corrigés, peuvent amener au ralentissement des trains afin de préserver le confort et aussi la sécurité des passagers. On impacte alors directement le nombre de trains qui peuvent circuler par jour.
Le nivellement longitudinal
L’indicateur le plus commun dans ce contexte est le nivellement longitudinal (NL) qui offre une mesure synthétique du profil longitudinal de la voie. Cet indicateur est suivi de manière constante par les mainteneurs, et des actions préventives ou correctives sont mises en place pour rétablir la planéité souhaitée quand des déviations par rapport à une constante nominale sont observées.
Pour cela, des campagnes de maintenance dites de « bourrage » sont réalisées régulièrement. Lors de ces interventions, les rails sont partiellement soulevés et le ballast est compacté et stabilisé par des vibrations contrôlées générées par des grosses aiguilles qui sont insérées dans le ballast. Cependant, cette solution présente un effet secondaire : si ces vibrations rétablissent la géométrie souhaitée de la voie, elles lissent également les arrêtes des cailloux formant le ballast à cause du frottement, le rendant de moins en moins stable. Les éléments du ballast ont tendance à s’arrondir.
C’est ainsi que, à chaque bourrage, la durée de vie globale de l’infrastructure se réduit. On peut prendre comme analogie l’entretien d’un parquet. Pour l’entretenir, il faut le poncer. Mais plus on ponce, plus on diminue son épaisseur. On parle donc de maintenance destructive.
Choisir le bon compromis
La maintenance de l’infrastructure est donc un compromis fort entre laisser l’infrastructure évoluer jusqu’à un seuil maximal admissible, en préservant l’intégrité du ballast, et intervenir à certains endroits pour améliorer la planéité de la voie mais tout en dégradant le ballast. On notera au passage qu’il faut choisir les endroits à bourrer, ainsi que la distance de bourrage. Ce sont autant de paramètres à prendre en compte.
Historiquement, ces interventions sont effectuées par des machines spécialisées qui, par leur taille, leur coût de mobilisation et leur technologie, imposent de traiter des linéaires conséquents de voie, soit environ deux à trois kilomètres continus par nuit. Leur intervention est en outre limitée à certaines périodes de l’année, principalement au printemps et à l’automne en raison des contraintes de température. Enfin, il n’existe pas un grand nombre de ces machines, qui sont louées pour un temps défini et qui doivent être partagées entre toutes les lignes à grande vitesse.
On comprend ici la complexité de l’organisation des opérations de maintenance qui sont liées non seulement au dilemme d’entretien-dégradation de la voie, mais aussi au problème de mobilisation de machines ainsi qu’à leur coût.
Simulations
Comment la donnée intervient dans ce dilemme ? Deux fois par mois, un wagon de mesure inspecte la position exacte de la voie grâce à des capteurs lasers. À partir de ces données, la dégradation, c’est-à-dire l’évolution du NL, est calculée pour chaque portion de la voie (quelques centaines de mètres).
Ce sont ces données d’évolution successives qui sont analysées et comparées entre elles et qui permettent de prédire une évolution future sur différents horizons de temps, avec différents degrés de fiabilité. Ces prédictions tiennent compte de l’évolution locale de certains défauts qui sont tous modélisés. Ce n’est donc pas un seul modèle qui prédit une évolution de la voie, mais plusieurs centaines de modèles de dégradation locaux qui, combinés entre eux, représentent une évolution statistique globale de la voie.
Cette prédiction fine permet aux équipes de maintenance de suivre et de comprendre l’évolution de la dégradation de l’infrastructure. Cette modélisation permet en plus de jouer sur les paramètres de maintenance lors de phases de simulation (nombre de campagnes, longueur à maintenir, nombre de portions à maintenir, etc.). Ainsi, les résultats de simulations de maintenance réalisées sur quelques centaines de mètres sont comparés à des résultats de simulations de maintenance sur plusieurs kilomètres, et les meilleurs profils engendrant un ratio optimal coût-performance sont sélectionnés.
Des économies vertueuses pour l’environnement
Dès qu’une irrégularité est détectée par le wagon qui scanne les voies, un modèle de dégradation est créé et les équipes peuvent cibler précisément la zone concernée, souvent entre 50 et 200 mètres, ou corriger le problème avant que la dégradation ne s’étende à des segments adjacents. L’efficacité de cette nouvelle approche fondée sur un couple homme-donnée de prédiction est indéniable.
Au fil du temps et de l’apprentissage de l’évolution de la voie par la donnée, une plus grande place sera laissée à l’autonomie décisionnelle par l’algorithme. En attendant d’avoir suffisamment d’expérience, le poids des décisions humaines est pour l’instant supérieur au poids des décisions basées sur la donnée. Mais on peut tout de même remarquer que, depuis la mise en œuvre de ce projet, la vitesse de dégradation des infrastructures a été divisée par deux.
À terme, cela pourrait se traduire par une extension significative de la durée de vie du ballast, des traverses et des rails. L’impact environnemental ici se compte en nombre de campagnes de maintenance incluant tout le matériel nécessaire à minimiser et en tonnes de ballast à économiser.
La maintenance des réseaux de distribution d’eau
L’eau non facturée, autrement dit l’eau potable perdue par fuite des canalisations enterrées, est un véritable casse-tête pour toutes les collectivités et un défi pour les années à venir. En effet, le coût global estimé des pertes à l’heure actuelle est de 1,5 à 3 milliards de dollars par an.
Dans les pays en développement, le pourcentage de perte d’eau atteint même les 70 % ! À l’orée des changements actuels, nous ne pouvons plus nous permettre une aussi faible performance des réseaux d’alimentation en eau. C’est pourquoi la performance des réseaux fait partie des objectifs de développement durable des Nations unies.
Bien que la performance des systèmes de distribution d’eau soit une nécessité et sera renforcée dans les années à venir, avec le changement climatique (sécheresse, températures extrêmes) et le vieillissement des infrastructures, les risques affectant les systèmes de distribution d’eau augmentent.
Des inspections fastidieuses
Afin de procéder à la maintenance de leurs installations, les compagnies gérant les infrastructures d’eau potable s’appuient sur des travaux d’inspection sur site pour examiner des milliers de kilomètres de canalisations.
Concrètement, cela se matérialise de la façon suivante : une carte du réseau est fournie à un sous-traitant recensant le type de canalisation et l’état actuel des connaissances (ancienneté, dégradations potentielles etc.) ; un ciblage de zone prioritaire à étudier est réalisé ; des techniciens sont envoyés sur une grande étendue de surface avec pour objectif de suivre les canalisations avec un appareil auditif capable de capter les bruits émis par les fuites – ils sont parfois secondés par des chiens qui savent reconnaître les fuites ; lorsqu’une fuite est repérée, elle est signalée sur le plan et les techniciens continuent leurs investigations ; in fine, des opérations de maintenance sont réalisées pour procéder au remplacement de la zone défectueuse.
C’est un travail fastidieux, non exhaustif, qui nécessite d’avoir à disposition des équipes de techniciens volumineuses afin d’appréhender de grandes surfaces.
La maintenance vue de l’espace
Afin de simplifier ce processus fastidieux et être plus efficace dans le recensement des points problématiques, Vinci étudie l’apport d’un capteur spatial afin de cibler les zones à forte probabilité de fuites. Il ne s’agit donc plus d’envoyer des équipes arpenter une grande surface au hasard, mais de cibler les actions des équipes beaucoup plus précisément avec un taux de réussite très élevé.
Le projet se fonde sur des images satellitaires couplées à des données de terrain fournies par les compagnies concessionnaires des réseaux d’eau (diamètre, largeur, matériau de fabrication, vannes, pression, temps d’installation…, tout ce qui peut nous permettre de comprendre si des caractéristiques ou des paramètres seront plus vulnérables dans le temps). L’ensemble est porté sur un système interactif permettant un dialogue entre l’opérateur terrain qui peut remonter des informations sur l’état du réseau et la réalité des fuites (faux-vrais positifs) et l’algorithme.
Nous avons considéré l’apport d’images satellitaires de diverses natures et de diverses technologies qui sont sensibles aux changements d’humidité du sol, qui ne sont pas affectées par le jour ou la nuit, ni par les nuages. Nous avons aussi tenu compte de l’occupation du sol et de la végétation. Nous obtenons ainsi une valeur de changement de l’humidité du sol à un moment donné (dates d’acquisition de l’image) et à un endroit donné (pixel). En plus des images, le modèle est ensuite alimenté avec des inventaires de données de fuites passées (emplacement, heure, matériau…).
Ces informations sont très utiles pour entraîner le modèle afin qu’il soit capable d’identifier des comportements répétitifs et de calculer les probabilités de fuites. Le résultat est une identification des zones du réseau qui présentent un risque plus élevé de développer des fuites, c’est-à-dire un ensemble de probabilités de fuites dans différentes parties du réseau. Si l’on prolonge ce modèle de comportement dans le temps, on obtient une probabilité de rupture à une date donnée.
Un modèle intéressant
Le modèle permet de comprendre l’évolution précise du réseau d’une collectivité en fonction du type de canalisation, du type de vanne ou bien d’autres informations, ce que jusqu’à présent personne n’était capable d’anticiper. On peut donc comprendre quel type de matériau utiliser afin d’améliorer la longévité des installations. Les résultats fournis par l’algorithme sont prometteurs et nécessitent tout de même d’être affinés. Mais, d’ores et déjà, disposer d’un modèle comportemental du réseau offrant une probabilité de rupture à une date donnée en fonction du type de matériau utilisé est une information non négligeable pour la planification des opérations dans le temps.
“Le couple données-humain est un succès.”
Ce modèle est de plus enrichi de toutes les informations remontées par le terrain, le rendant plus robuste au cours du temps. À nouveau, mieux comprendre l’infrastructure permet de mieux cibler les matériaux à utiliser, mieux dimensionner les équipes, être plus efficace dans la recherche des fuites afin de réduire les temps d’action et maximiser la réparation des fuites. Le couple données-humain est là encore un succès.
Le nouveau graal pour l’environnement ?
Oui et non. Bien que les résultats soient encourageants, ces méthodes ne conviennent pas à tous les contextes. Il y a encore des équipements et des infrastructures où la maintenance corrective demeure l’option la plus viable tant sur le plan écologique que sur le plan économique. Notre défi est donc d’identifier où et quand déployer ces innovations. La donnée couplée aux nouvelles technologies et intégrant une démarche éco-responsable by design peut sûrement mener à des avancées significatives pour notre environnement. C’est pourquoi nous poursuivons nos efforts dans cette direction.