IoT et IA : convergence des technologies et besoin de normalisation
L’utilisation croissante de l’IA a un impact significatif dans nos environnements. Elle comporte à la fois d’énormes possibilités et des risques associés. Pour maîtriser les risques, la normalisation semble le moyen d’exploiter efficacement et de manière fiable ces possibilités. Les convergences entre IoT et IA ont déjà des applications variées dans la vie quotidienne : capteurs, 5G, optimisation des tournées de camions-citernes, compteurs Linky, détection des fuites d’eau. Le monde de demain se fera avec l’IA, et la convergence entre l’IA et l’IoT ne fait que commencer.
Piloter une entreprise est un défi. L’informatique, au siècle dernier, a permis dans ce domaine la mise à disposition de machines qui ont augmenté les capacités de décision, en intégrant un nombre croissant de paramètres. Puis ont commencé à apparaître au sein des entreprises des capteurs, dont l’objectif était de convertir des phénomènes physiques en un signal électrique compréhensible par un ordinateur. Aujourd’hui, ces capteurs occupent une fonction essentielle d’intermédiaire entre le monde physique et le monde numérique. Leur évolution s’est faite en trois étapes : l’ère du hors ligne, l’ère connectée et enfin l’ère vivante.
Les trois âges des capteurs
L’ère du hors ligne a été caractérisée par des capteurs fonctionnant de manière fragmentée et sans aucune intelligence déportée, pouvant permettre l’ajustement d’un algorithme en fonction des contraintes vécues par l’objet sur le terrain. Un tel mécanisme nécessite une action humaine localisée. L’ère connectée s’est illustrée par l’ajout de la connectivité à distance sur les capteurs, ce qui permet un échange de données efficace avec le réseau. Les capteurs interagissent de manière concertée, dans l’objectif d’augmenter la fiabilité de l’information remontée au réseau. Ainsi, le système central peut identifier une tendance et amorcer les actions correctives avant l’apparition d’un défaut.
L’ère vivante correspond à la capacité des capteurs à prendre des décisions localement, grâce à l’intégration de réseaux de neurones. On assiste ainsi à une fonctionnalisation de ces réseaux, qui font remonter des « fonctions » aux systèmes centraux. Dans le cas d’un système de maintenance prédictive, le capteur intègre ainsi un réseau de neurones dont l’apprentissage se fait de manière locale, avec les données qu’il a collectées. Ce type d’approche est rendu possible par des technologies du type ISPU (intelligent sensor processing unit). Il est important de noter que ces mutations technologiques dans le domaine des capteurs augmentent fortement le nombre de points de données disponibles à tout instant. Cela étend les capacités des systèmes, qui deviennent de véritables aides à la décision.
L’IoT nourrit l’IA, l’IA dépend de l’IoT
Ce rapprochement des technologies IoT et IA, cette convergence, rend indispensable un dialogue entre l’ensemble des acteurs de la chaîne de données, depuis leur captage jusqu’à leur exploitation. La question de la fiabilité des données, par exemple, est un sujet capital : il est nécessaire de s’assurer que les données sont dignes de confiance, voire certifiées. L’efficacité et la frugalité des systèmes sont également à optimiser. Pour autant, cette convergence est un formidable terrain de jeu pour mener des projets ambitieux, présentant un impact fort sur des performances économiques et environnementales. Selon IHS Markit, 27 milliards d’objets connectés étaient en service fin 2017 et le marché devrait atteindre 125 milliards d’objets en 2030. Ces équipements sont de nature hétérogène et ciblent des domaines variés, tels que la ville intelligente, l’agriculture, la maison, les chaînes industrielles ou les transports. Tous ces équipements génèrent des données, elles aussi de nature hétérogène.
“Mettre en place des standards de partage entre systèmes.”
Cette matière brute vient en entrée de la chaîne de données et alimente ensuite les outils d’IA. Pour s’assurer de la réussite de ces projets et afin de garantir une exploitation optimale des mines d’informations collectées, de nombreuses organisations ont fait le choix de mettre en place des catalogues de données. L’usage de ces catalogues est d’abord interne, mais ils peuvent également être partagés avec les partenaires ou prestataires. En conséquence de cette croissance du marché de l’IoT comme une source de données pour l’IA, le besoin de partage d’informations au sein de consortiums d’organisations a fait naître des groupes de travail nationaux, voire internationaux, ayant pour objectif de mettre en place des standards de partage entre systèmes.
Fiabilité et confiance
Dans un environnement où la prise de décision par les objets connectés est de plus en plus automatisée, la confiance que les utilisateurs placent dans ces décisions devient un sujet capital. Afin d’éviter l’effet boîte noire, qui nuit au déploiement de certaines solutions et à leur adoption par les utilisateurs, les créateurs d’algorithmes cherchent de nouvelles méthodologies, permettant plus de transparence et de clarté.
Des mouvements d’hyper-transparence apparaissent déjà dans l’agroalimentaire ou l’e‑commerce, où des sociétés ont fait le choix de partager avec les consommateurs les détails précis de la traçabilité de la chaîne logistique ou encore les informations sur la structure de coûts complète de leur activité, faisant parfois appel à des technologies de blockchain pour un stockage certifié de ces informations. Suivant la même tendance, des entreprises font le choix d’un code informatique partiellement ou totalement accessible en open source, afin d’exposer à l’utilisateur le mode de fonctionnement de leurs algorithmes.
IA et standards IoT
Différents comités se sont penchés sur la manière de faire converger IA et IoT par le biais des données des applications. Ainsi, le comité SmartM2M (smart Machine-to-Machine, du groupe ETSI) a créé deux TR (technical report) dans le but d’étudier l’IA pour les systèmes IoT.
Le premier, AI4IoT, traite de l’introduction du ML (machine learning) dans les systèmes IoT et des possibilités d’améliorer les performances du ML par l’utilisation de la norme horizontale oneM2M (OneM2M est un projet de partenariat mondial dont l’objectif est de créer une norme technique mondiale d’interopérabilité concernant l’architecture, les spécifications API, les solutions de sécurité et d’inscription pour les technologies Machine-to-Machine et IoT en fonction des exigences fournies par ses membres) et de ses fonctions du service commun (CSF ou common service functions).
Le second TR (TR 103 675 PoCAIoT) développe un prototype ciblant deux innovations. La première consiste à étendre les CSF existantes pour prendre en charge les nouvelles exigences fonctionnelles liées au ML. La seconde consiste à tester le concept de nouvelles CSF, qui offrent des capacités du ML sur une base as a service.
« Différents comités se sont penchés sur la manière de faire converger IA et IoT par le biais des données des applications. »
Le oneM2M étudie également le double rôle de l’IA dans la sémantique, via l’architecture TC SmartBAN (smart body area network), définie dans la TS (technical specification) 103 327 : comme facilitateur du développement et de l’alignement des ontologies et des significations sémantiques en soutien aux experts humains ; pour la mise à disposition de services d’IA, afin de soutenir l’interopérabilité sémantique de l’IoT, fondée sur une compréhension commune des informations de l’IoT (pour à la fois les personnes et les machines).
D’autres normes sont soutenues par des industriels, comme l’ISG ARF (augmented reality framework), l’Industrial IoT Consortium (IIC), l’Open Connectivity Foundation (OCF), l’IP for Smart Objects (IPSO), l’OMA SpecWorks ainsi que le CEI 62056 (version internationale du DLMS/COSEM). Ces quelques normes sont mentionnées ici à titre d’exemples ; bien sûr, cette liste n’est pas exhaustive. Leur grand nombre et leur diversité montrent que la problématique est cruciale et encore à résoudre. Les enjeux environnementaux et la volonté croissante de partage de données, concernant notamment la consommation énergétique et l’impact carbone des entreprises, accélèrent cette normalisation.
Efficacité et frugalité
La fin d’année 2022 aura vu les factures énergétiques des entreprises augmenter fortement, à cause du coût croissant lié au stockage des données et à l’exécution des algorithmes sur les serveurs. Le prix des abonnements des offres cloud a augmenté mécaniquement, justifiant doublement la mise en place de projets s’intéressant à l’optimisation des coûts sous-jacents, visant à réduire la quantité de données stockées. Ainsi, la sobriété numérique est au cœur de la stratégie de nombreux projets informatiques. On cherche à optimiser les données stockées par le nettoyage, le traçage des redondances d’informations ou encore la réduction des informations stockées.
Les organisations cherchent également à rendre les algorithmes plus frugaux par le stockage en cache des résultats, le précalcul des informations, ou en allégeant les codes informatiques, surtout si l’algorithme est embarqué. Les développeurs avaient déjà le difficile objectif de livrer rapidement des codes robustes ; on leur demande désormais de penser également à la consommation énergétique sous-jacente. Cet objectif va devenir majeur, car de nouvelles obligations en termes de publication du bilan carbone des entreprises vont nécessiter des indicateurs de suivi de la consommation des serveurs de stockage et de calcul. Ainsi, différents nouveaux outils de Green IT, utilisés pour mesurer la consommation énergétique des algorithmes ou applications, ont vu le jour, parmi lesquels nous pouvons notamment citer Greenspector, Scaphandre, Fruggr, ARO.
IA et réseaux 5G
L’IA ouvre un boulevard d’opportunités, mais aussi présente des défis pour les systèmes d’information et de communication à la base de l’IoT. La standardisation est un outil nécessaire, qui permettra de tirer le meilleur du potentiel résultant de la convergence entre IA et IoT. Cette question de la standardisation ou uniformisation est au cœur des débats de l’ETSI, un organisme européen de normalisation (ESO – European Standard Organization) chargé des télécommunications, de la radiodiffusion et des autres réseaux et services de communications électroniques. L’ETSI a de nombreuses activités dans le domaine de la 5G, en collaboration avec le 3GPP (3rd generation partnership project).
Au sein de la 3GPP 5G, l’IA est référencée dans les deux principaux domaines des capacités du réseau central (5G NG Core) et du réseau d’accès radio (5G RAN – radio access network). Dans ces deux domaines, l’IA joue le rôle d’une couche auxiliaire permettant d’accroître l’automatisation du réseau 5G, afin d’en optimiser la gestion (par exemple grâce à un mécanisme automatique de détection et de correction des pannes). L’objectif est de créer une plateforme de connectivité unifiée pour de nombreuses applications, y compris celles rendues possibles par l’IA. Cela pourra conduire à une amélioration de l’expérience utilisateur, en étendant les capacités des appareils 5G à l’aide de fonctionnalités d’IA dans le cloud.
« L’objectif est de créer une plateforme de connectivité unifiée pour de nombreuses applications, y compris celles rendues possibles par l’IA. »
L’IA est devenue une fonction supplémentaire dans la gestion des réseaux radioélectriques et propose une évolution vers le modèle SON (self organizing network). Dans ce domaine, le ML (machine learning) offre aux systèmes radio la capacité d’apprendre et de s’améliorer automatiquement à partir de l’expérience acquise, sans avoir été explicitement programmés. Nous pouvons imaginer le bénéfice d’une telle évolution dans des contextes radio tels que la sélection de la configuration optimale des faisceaux ou des niveaux de puissance d’une cellule 5G à chaque intervalle de transmission.
L’apprentissage par le ML peut s’appuyer sur différents éléments tels que la collecte standardisée de données de configuration du réseau ou les performances correspondantes du réseau et la distribution du trafic, afin de prédire le comportement du réseau. Une fois formés, les modèles fondés sur le ML peuvent être déployés dans le RAN afin d’obtenir des configurations optimales des antennes et des ressources radio. L’objectif ultime de l’automatisation est de créer des réseaux largement autonomes, pilotés par des procédures de haut niveau ; ces réseaux seront capables de s’autoconfigurer, de s’autosurveiller, de s’autoréparer et de s’auto-optimiser sans intervention humaine.
Les secteurs où l’IoT rencontre et sert les intérêts d’algorithmes d’aide à la décision, de simulation ou d’IA autonome sont nombreux et variés.
Lire aussi : La technologie 5G comme accélérateur de l’Internet des objets
Quand l’IoT aide l’IA : l’optimisation de tournée
Par exemple, les leaders mondiaux dans le domaine du gaz délivrent du gaz en vrac en utilisant des camions-citernes. Leurs tournées doivent être optimisées afin de limiter les distances parcourues et donc l’impact environnemental. Pour mettre en place de telles optimisations, mesurées en horizon temporel roulant, il est nécessaire de mettre en place une chaîne de données efficace : tout d’abord récupérer l’ensemble des informations de localisation des clients et des unités de production ; ensuite calculer de manière précise les prévisions de consommation quotidiennes de chaque client.
Pour cela, les réservoirs des clients sont équipés de capteurs permettant de mesurer la consommation en temps réel, et donc de déduire le niveau du réservoir. Ces séries temporelles sont collectées, puis analysées avec des méthodes statistiques permettant de déduire des tendances par type de clients, puis de calculer les prévisions personnalisées de consommation à une fréquence souhaitée. Ces consommations prévisionnelles servent ensuite de données déterministes en entrée du modèle d’optimisation des tournées : le but est de produire chaque jour un planning qui satisfera les contraintes de chaque client et les critères d’accès à leurs points de livraison, tout en minimisant le nombre de kilomètres parcourus et le nombre de camions utilisés.
Le cas des compteurs Linky
Dans un autre domaine, la France compte désormais 35 millions de compteurs électriques permettant de faire remonter la consommation électrique des entreprises et des particuliers. Le compteur Linky permet de récolter des séries temporelles bien plus précises que les anciens relevés annuels, et donc bien plus adaptées à l’analyse de données. L’objectif est d’améliorer la connaissance de la consommation, de fabriquer des profils types et d’étudier la composition des pics de consommation ainsi que ses liens avec la météo. Les relevés détaillés alimentent des modèles de prévision qui servent de données d’entrée à l’optimisation de la planification de la production d’électricité à court terme, mais aussi des modèles d’optimisation des arrêts de tranche pour la maintenance des centrales nucléaires à l’horizon de la décennie.
Lire aussi : IoT et acceptabilité sociale de l’innovation : le cas du compteur Linky
La détection des fuites d’eau
Enfin, il existe un autre domaine où l’IoT nourrit des modèles d’IA : la détection de fuites dans les réseaux d’eau potable. Des capteurs placés à divers points du réseau permettent de connaître le niveau de pression et ainsi de déduire si des fuites ont pu intervenir entre deux points de mesure. Dans certaines villes, près de la moitié de l’eau potable qui quitte la station d’épuration n’arrive jamais jusqu’au robinet pour être consommée. Mieux identifier les fuites est donc un objectif non seulement économique, mais également écologique. La normalisation des données partagées, la fiabilité des relevés et la capacité à analyser rapidement ces données captées permettent d’améliorer les performances de ces réseaux de distribution en déclenchant plus rapidement des interventions de maintenance afin de corriger des défauts observés.