Le DataLab de la gendarmerie : 20 ans de montée en puissance dans les données
La gendarmerie a pris toute la mesure de l’intérêt du traitement des données dès les années 1990. Elle a su capitaliser sur ses forces et apprendre de ses erreurs pour développer sa stratégie en la matière. Le DataLab est l’aboutissement et le porteur actuel de cette politique de pointe.
En 2019, un petit groupe d’officiers scientifiques ambitionne de révolutionner la façon dont les unités de gendarmerie départementale traitent les interventions quotidiennes auprès de nos concitoyens. Ce qui sera alors nommé brigade de gestion des événements (BGE) entend rationaliser, optimiser et améliorer la capacité de la gendarmerie à traiter les interventions quotidiennes. Cette approche iconoclaste repose sur deux piliers : trois années de données historiques des interventions et des algorithmes d’optimisation conçus en interne. En 2022, capitalisant sur l’expérience de la BGE, le DataLab entreprend de relever un nouveau défi, celui de l’optimisation des centres opérationnels, véritables tours de contrôle de la gendarmerie départementale, chargés entre autres de répondre aux appels 17. L’objectif est double : renforcer la qualité du service rendu à la population et améliorer les conditions de travail aujourd’hui difficiles des militaires y servant (surcharge d’appels, horaires décalés et services nocturnes fréquents…). Les forces du DataLab pour réussir : plus de dix ans de données anonymisées relatives aux appels d’urgence et aux interventions, et des algorithmes « maison » d’optimisation et de machine learning.
Aux origines de la donnée
Pour comprendre comment la gendarmerie a pu relever de tels défis, il faut revenir plus de vingt ans en arrière, à la veille du XXIe siècle. La bulle internet n’a pas encore explosé, Facebook n’existe pas et on ne parle même pas de web 2.0. Pour autant avec les moyens de l’époque la gendarmerie, forte de ses officiers scientifiques et de sa sous-direction des télécommunications et de l’informatique (SDTI) créée en 1985, met en place son premier système de reporting. C’est le début de l’informatique décisionnelle en gendarmerie ; les données d’activité, de délinquance et de sécurité routière sont alors extraites manuellement des brigades pour être transmises par le réseau radio à la compagnie puis au niveau départemental, seul niveau hiérarchique relié alors à l’échelon central via le réseau intranet. Vu de 2022 où le temps réel est devenu la norme, un tel procédé peut sembler archaïque, mais à cette époque le modem 56k existe à peine et le maillage territorial qui fait la force de la gendarmerie ne permet pas encore un raccordement internet des unités locales à un coût supportable.
Ce premier système d’aide à la prise de décision pose les fondements du pilotage opérationnel et décisionnel par la donnée tel qu’on l’observe aujourd’hui. Il se nourrit d’informations statistiques produites par les unités élémentaires et agrégées au niveau départemental puis national, couvrant divers aspects du travail et des missions de la gendarmerie : délinquance, accidentalité routière, activité des unités. Ces données dites de service alimentent des tableaux de bord pour les échelons territoriaux de commandement, afin de leur donner une vision claire et synthétique de leur activité et ainsi de prendre des décisions éclairées sur l’orientation de leur action opérationnelle.
La loi organique et la culture de la performance
En 2002, l’entrée en vigueur de la loi organique relative aux lois de finances (Lolf) change le paradigme de la gestion budgétaire. Largement inspirée du concept de nouvelle gestion publique issue des modes de gestion du secteur privé, elle vient substituer une logique de résultat à une logique de moyens en imposant aux administrations de rendre des comptes sur l’efficacité de leur action. Pour cela, elle instaure des plans annuels de performance définissant des objectifs à atteindre et des rapports annuels de performance évaluant l’atteinte de ces objectifs. Afin de répondre à ce besoin de quantification de son action et de l’atteinte de ses objectifs, la gendarmerie dispose donc d’un atout sérieux. Pour autant le système en place montre ses limites en raison de nombreuses faiblesses : les remontées d’informations sont fastidieuses et sources d’erreur, et les chiffres sont parfois incohérents d’un système à l’autre. En outre, si des statistiques mensuelles répondent aux besoins de la Lolf, elles n’offrent pas une granularité suffisante pour un pilotage effectif de l’activité des unités, qui requiert une réactivité toujours plus importante.
Le milieu des années 2000 sera donc un véritable tournant, avec le lancement de trois projets majeurs : le projet Saphir 3G doit permettre un accès intranet à l’ensemble des unités de gendarmerie ; le projet Puls@r vise à remplacer l’outil de bureautique brigade, permettant entre autres d’automatiser la remontée des données de service ; enfin le projet STATS (système de traitement et d’analyse tactique et stratégique) tend à refondre les bases existantes pour les mettre en cohérence au sein d’un puits de données unique, sur lequel s’appuiera un outil de consultation lui aussi unique. Ce dernier projet est particulièrement ambitieux et vise non seulement les données « métiers » mais également les données financières, immobilières, les matériels et les RH.
Le tournant de l’urbanisation
La fin de la décennie 2000 sera charnière pour la gendarmerie et ses systèmes d’information. Tout d’abord 2009 signe son rattachement au ministère de l’Intérieur, puis 2010 voit le remplacement de la SDTI par le service des technologies et systèmes d’information de la sécurité intérieure (ST(SI)²) mutualisé avec la police nationale. Mais surtout les grands projets précédents rencontrent certaines difficultés. Tout d’abord, l’externalisation du projet Puls@r est un échec par manque de connaissance métier du prestataire, créant de fait un décalage entre les besoins du terrain et l’outil développé. Ensuite, la mise en place d’ERP (Enterprise Resource Planning), en particulier pour la gestion RH (Agorh@ en 2007 qui deviendra la pierre angulaire de la dématérialisation de la gestion du personnel de la gendarmerie, en intégrant progressivement la gestion du temps de travail puis le calcul de la solde), a renforcé le cloisonnement des applications et des données. La mise en place d’un entrepôt de données unique n’est de ce fait que partielle, avec la seule intégration des données de service. Le projet STATS, trop ambitieux, ne verra donc pas le jour tel qu’il a été initialement imaginé.
“Un grand mouvement d’urbanisation du système d’information.”
Néanmoins, ces échecs et difficultés ouvrent des perspectives. Ainsi, la mise en place d’Agorh@ s’accompagne-t-elle de la création de référentiels dits « pivots » issus de ce système. Mais ce n’est qu’une des nombreuses réalisations de cette période, avec également la bascule vers le logiciel libre (dont GendBuntu pour les postes de travail), mouvement unique au sein de l’administration, et la mise en place d’un SSO (Single Sign-On, ou système d’authentification unique, permettant notamment une gestion automatisée des droits d’accès aux différentes applications et fichiers). On assiste là à un premier grand mouvement d’urbanisation du système d’information de la gendarmerie dont on peut profiter dix ans plus tard.
À l’heure des grands chantiers
La décennie 2010 sera donc celle des grands chantiers applicatifs. Puls@r voit finalement le jour au début des années 2010 avec toutes les fonctionnalités utiles au commandement et au fonctionnement de la brigade, depuis la planification du service jusqu’à la remontée des statistiques d’activité et de la délinquance, en passant par la gestion du courrier. Cet outil devient de ce fait une source d’information fantastique pour le suivi et le pilotage opérationnel des unités de gendarmerie départementale, même si ces données ne sont pour l’heure pas exploitées à la hauteur de leur potentiel. Mais surtout ces données sont centralisées, fiabilisées et historisées au sein d’un entrepôt de données unique sur lequel s’appuient les deux outils de Business Intelligence de la gendarmerie (un outil de requêtage pour les échelons régionaux et départementaux et un outil de visualisation d’états statistiques pour les échelons locaux). C’est également la décennie de la mise en place du système opérationnel de la gendarmerie, dédié tant à la gestion et la sécurisation des interventions qu’à la remontée et l’exploitation du renseignement. Déployé dès 2010, il est la source majeure d’information sur la réalisation de la fonction « intervention » par les unités de gendarmerie, depuis la prise des appels d’urgence jusqu’aux comptes rendus d’intervention, et alimente lui aussi l’entrepôt de données à des fins statistiques.
Vers une plateforme unique et des visions dynamiques multisources
Le milieu de la décennie 2010 va voir se concrétiser pour la première fois les grandes ambitions du projet STATS qui, bien qu’abandonné, a continué d’irriguer les réflexions ultérieures. Ainsi, le tableau de bord des commandants de région est un premier projet pilote dès 2014, présentant pour la première fois une vue dynamique à 360° des données de service, RH et logistiques utiles au pilotage des unités. L’apport de ces dernières se révèle crucial pour évaluer l’action opérationnelle, non plus seule mais à l’aune des moyens humains et matériels alloués. Mais surtout une nouvelle plateforme de Business Intelligence est lancée, s’appuyant sur un puits de données unique vers lequel migreront dans les années suivantes l’ensemble des statistiques des applications logistiques et RH. La gendarmerie entre ainsi pleinement dans l’ère des statistiques self-service où les échelons régionaux et départementaux peuvent créer leurs propres tableaux de bord de pilotage et les partager avec leurs unités subordonnées. C’est également le dépassement des traditionnels tableaux de chiffres, pour aller vers des documents synthétiques et visuels mêlant cartographie, graphiques dynamiques et KPI (Key Performance Indicators).
Lire aussi : La transformation numérique de l’innovation de la Gendarmerie nationale
À l’ère de l’intelligence artificielle
Assez naturellement, tous ces changements à une époque où le big data est le mot d’ordre conduisent à pousser la réflexion plus loin. Ces nouveaux outils ont ouvert l’horizon et permis de réaliser la valeur du patrimoine de données de la gendarmerie. Think big, Act small ! : sous l’impulsion de chefs visionnaires, une première équipe est sanctuarisée pour explorer ces potentialités avec une officier de gendarmerie de formation scientifique disposant d’une bonne connaissance des données statistiques disponibles et une data scientist expérimentée recrutée pour l’occasion. À travers de premiers PoC (Proof of Concept) sur l’analyse des risques psychosociaux ou encore l’aide à la mobilité des officiers, elles légitimeront cette approche des données par l’IA et ouvriront la voie aux réalisation ultérieures. 2020 voit ainsi la concrétisation de tout ce travail par la création officielle du DataLab au ST(SI)² avec un effectif quadruplé, symbole des ambitions pour cette équipe. Le modèle est donc éprouvé avec un équilibre entre des officiers de carrière forts d’une double compétence métier et technique, des officiers commissionnés recrutés pour leurs compétences en science des données et des sous-officiers développeurs de la filière informatique de la gendarmerie.
La gendarmerie investit ainsi avec de sérieux atouts le haut du spectre du traitement des données avec l’IA. Les résultats sont déjà prometteurs, avec cinq projets en production (tels que la BGE ou l’aide à la planification du service des brigades), trois en cours d’industrialisation et sept en phase de développement. Cette réussite ne doit rien au hasard, elle est la suite logique des vingt années précédentes et tire pleinement profit d’officiers avec une forte culture scientifique. Pour autant, ce n’est pas l’arrivée, mais un nouveau départ, et de nombreux défis se présentent au DataLab, dont le modèle évolue pour accélérer le développement et l’industrialisation de nouveaux cas d’usage.