Ekimetrics, les pionniers de la valorisation des données
En 2006 François Poitrine (2000) a cofondé avec trois autres camarades Ekimetrics, qui est leader européen en data science. La mission est d’aider les entreprises à auditer leurs opportunités data, enrichir leur capital analytique et déployer des solutions actionnables permettant de maximiser leur performance marketing et opérationnelle, et réénergiser leurs business modèles.
Quelle est l’activité d’Ekimetrics ?
Nous intervenons dans un domaine que l’on appelle data science for business. Nous accompagnons nos clients, de grandes entreprises principalement, pour la mise en place de cas d’usage qui utilisent massivement des données.
On trouve de telles utilisations dans différents domaines, principalement sur quatre types de sujet : l’optimisation du marketing mix, pour mesurer et optimiser les leviers marketing online ou offline, dans l’optimisation de la stratégie client par des méthodes de scoring ou de segmentation de populations cibles, dans la supply chain et l’excellence opérationnelle par la mesure et l’optimisation de l’impact carbone, par exemple, ou l’optimisation d’une chaîne logistique, ou encore dans la création de nouveaux services et business modèles qui visent à construire avec nos clients des services innovants s’appuyant sur la donnée et ayant pour vocation de transformer une partie de la chaîne de valeur.
Quelques exemples sur ce sujet d’innovation : des fonds d’investissement s’appuyant sur du traitement du langage naturel pour effectuer des choix d’achat de titres, une application de prescription de produits cosmétiques s’appuyant sur les caractéristiques de la peau (identifiée avec la computer vision), un outil d’optimisation des livraisons de magazines dans les maisons de la presse en s’appuyant sur un algorithme de prévision de la demande.
Comment vous est venue l’idée ?
C’est le fruit à la fois d’une intuition et d’un peu de hasard. Il y a une quinzaine d’années, tous les fondateurs se sont retrouvés en sortie d’école, regroupés autour de Jean-Baptiste, dans un cabinet de conseil intégré au sein d’une agence de communication, DDB, pour faire de l’analyse de données marketing. Une des idées, à la base, était d’être des planners stratégiques augmentés par la data : comment mettre de l’analyse autour des médias et des métiers de la création. Le terme data science n’existait pas encore et DDB ne savait quoi faire de ces quatre X. Nous sommes partis et avons créé Ekimetrics. Il y a une part de chance, cela aurait tout aussi bien pu se créer comme un projet en intrapreneuriat. Mais il y a aussi l’intuition, issue de l’expérience données et business chez DDB.
Quel est le parcours des fondateurs ?
Nous sommes tous sortis de l’X à peu près à la même époque. Jean-Baptiste Bouzige et François Poitrine sont deux kessiers de la 2000, Quentin Michard est de la même promo. Paul Seguineau (2002) est arrivé comme stagiaire via l’École des mines. Il y avait un cinquième larron, Emmanuel de Béjarry (2001), mais il est parti vers d’autres horizons. Nos rôles sont clairement établis : Jean-Baptiste tient celui du CEO, Quentin s’est concentré sur le développement international (Royaume-Uni et Hong Kong pour débuter), Paul dirige l’activité en France, et François intervient sur l’innovation et la gestion des assets et de la propriété intellectuelle.
“Notre credo, c’est : Good AI for Good.”
Qui sont les concurrents ?
Il y en a plusieurs, et de plusieurs types. Le principal, selon nous, c’est BCG Gamma, la branche chargée de l’activité data science du BCG. Sa grande qualité : tirer les prix et la valeur des projets vers le haut. Il nous arrive aussi de croiser Quantmetry (créée par Jérémy Harroch qui a été interviewé dans le numéro 709) et sur les sujets plus marketing : Artefact (également créée par des X) ou encore l’américain Analytics Partner.
Quelles ont été les étapes clés depuis la création ?
Nous avons été les pionniers dans ce domaine. Artefact et Quantmetry sont arrivés cinq ou six ans après nous par exemple. Au début, durant les cinq premières années, notre phase de jeunesse, nous avons évangélisé le secteur. Ensuite, nous sommes passés à une professionnalisation, notre phase d’adolescence, durant laquelle nous avons structuré le business ; nous nous sommes internationalisés. Le marché s’est structuré, c’est à ce moment que le nom de data science est apparu. Nous sommes alors passés de sujets marketing à des sujets plus business, puis à des sujets hors marketing, entre les métiers et la DSI. Le marché est désormais mûr, même s’il est toujours en croissance.
De plus gros acteurs sont arrivés, avec une forte professionnalisation de la chaîne de valeur. Nous avons levé récemment des fonds, 24 M€, auprès de Bpifrance et de Tikehau Capital. Désormais, avec près de 300 personnes, reconnus dans notre domaine, mais assez peu connus hors de France, nous devons accélérer la croissance à l’international (États-Unis et Asie), procéder à des acquisitions technologiques ou sur le cœur de métier, et développer nos assets en interne.
Data science, IA, big data, comment s’y retrouver parmi toutes ces appellations ?
Une chose est sûre : ce n’est clair pour personne, et certains profitent de la confusion ainsi établie. Le terme IA couvre des choses finalement très différentes, on essaie donc de l’utiliser avec parcimonie, car l’IA est un domaine très spécifique : quand on utilise certains types d’approche (les réseaux de neurones, par exemple) ou quand on essaie de reproduire ce que fait l’être humain. Chez Ekimetrics, on préfère utiliser le terme de data science. D’abord parce que la donnée constitue notre matériau de base. Ensuite parce qu’on fait réellement de la science, avec des usages plus ou moins compliqués. C’est une science qui n’est pas que mathématique, parfois plus technologique ou informatique. Nous essayons de populariser l’expression de decision science, pour indiquer qu’on cherche à montrer comment la science peut aider à prendre des décisions.
Quels sont les principaux secteurs demandeurs et ceux où justement il n’y a rien à faire ?
Il n’y a plus beaucoup de secteurs où il n’y a rien à faire. En B2C, c’est presque toujours le cas, parce qu’on gère un volume important de clients et donc de données, et que le volume est la condition impérative pour faire des statistiques et du machine learning. On trouve donc naturellement de nombreux usages dans le marketing. En B2B, on va plutôt aller regarder le cœur du métier, s’il gère un volume important de données. On regarde alors des comportements plus spécifiques, par exemple la détection de fraude ou un défaut de paiement, ou dans la supply chain.
On trouve aussi des usages en santé. Nous travaillons peu sur les sujets plus industriels, autour des capteurs et de la détection de pannes, bien que nous en fassions en B2C, notamment dans l’automobile. La data science touche tout le monde et impacte même les sujets plus « col blanc » comme ceux relevant de l’automatisation, tel le métier d’avocat. On n’automatisera certes pas les cas d’expertise, lorsqu’on doit maîtriser des usages peu fréquents et très spécifiques, mais l’automatisation touchera les tâches récurrentes et peu intéressantes. Bref, tout le monde doit s’y intéresser.
Que deviendra ce secteur dans dix ou vingt ans ?
Même quand on fait de la data science, il est difficile de prévoir l’avenir ! Nous avons cependant une vision claire du marché : il y a d’une part des sociétés plutôt technologiques, qui se développent partout. C’est bien mais, pour elles, il faut toujours s’adapter aux dernières nouveautés. À côté, on trouve des acteurs du conseil.
Nous pensons que ce qui va se développer durablement, c’est le modèle intermédiaire : il y aura toujours de la tech, mais le conseil va connaître des années plus difficiles. Nous sommes sur un modèle de solution : un cœur très technologique, qu’on peut customiser, adapter. La partie conseil ne sera là que pour aller tirer la valeur vers le haut.
Dans dix ou quinze ans, maintenant, je ne sais pas ce qui arrivera. On verra peut-être se développer l’approche AutoML (automated machine learning), comme celle sur laquelle travaille Dataiku : on va automatiser même la tâche des data scientists. Peut-être que notre métier aura radicalement changé. Nous avons déjà changé quatre fois en quinze ans, il faudra savoir s’adapter. En tout cas, notre métier ne disparaîtra pas, je pense qu’il restera difficile de nous automatiser, après vingt ans d’expérience.
La consolidation va-t-elle avoir lieu ?
On n’y est pas encore, le marché progresse de 25 % par an, mais oui, sûrement. À un certain stade de développement, pour se défendre, il faut des moyens. La levée de fonds va nous permettre d’accélérer. Les grands acteurs feront peut-être leur marché : Google, qui a mis des billes dans Dataiku par exemple, ou bien les gros cabinets de conseil (Accenture, Capgemini, BCG).
Il y a aussi d’autres acteurs dont on parle beaucoup, dont OpenAI qui a mené le projet GPT‑3, qui sont des acteurs qui mènent une course à la taille et la puissance. Mais, avec ce type d’acteurs, il nous semble voir une forte décorrélation entre le côté marketing de ce qu’ils avancent et la réalité de la technologie derrière. Ce qu’ils font est techniquement incroyable mais, quand on creuse, on se rend compte qu’il y a plein de choses dont ils se vantent et qui ne fonctionnent pas réellement. Le plus gros danger, c’est que, alors que la tendance à l’open source émerge, des acteurs comme OpenAI fassent tout pour fermer et protéger leur technologie, parce que, lorsque des acteurs économiques investissent de telles sommes dans un programme, d’un moment à l’autre ils le protégeront. Et cela risque de refermer et rendre exclusif plus que d’ouvrir et de diffuser.
Un acteur comme Ekimetrics a‑t-il un rôle sociétal à jouer ?
Oui, bien sûr. Et, plus que Tech for Good, notre credo, c’est : Good AI for Good. Il y a beaucoup de marketing et d’enfumage autour de tout ça, mais c’est un vrai sujet de fond. Il y a un sujet sur les valeurs de l’entreprise, mais aussi un sujet qui touche à l’éducation : développer tout ce qui touche à la responsabilité des entreprises. Il y a des sujets de rationalisation des coûts liés à des sujets de production de CO2, par exemple. Et on peut travailler sur l’ensemble de la chaîne de valeur pour avoir plus d’impact, des choix opérationnels en remontant à des choix d’investissement. Par exemple, nous avons participé au montage d’un fonds, appelé Green Planet, pour soutenir ces sujets.
La data aide énormément, car cela permet de quantifier et de mesurer à la fois ce que je produis et ce que produisent mes produits. Cela mène à une prise de conscience de l’entreprise, plus ou moins forcée. Enfin, il faut parler d’éthique. Cela nécessite beaucoup de pédagogie, parce qu’il y a du vrai et du faux sur l’approche éthique. Elle pose le problème du rôle social, lié à l’automatisation des processus, et l’impact sur l’emploi. Et le sujet du biais, comme l’algorithme d’Amazon qui trie les CV selon la pertinence et se retrouve à éliminer certaines tranches de population. Et d’autres sujets importants, autour du deepfake, qui vont devenir une réalité.
Nous voulons assumer un rôle éducatif auprès des régulateurs ou des think-tanks. Et, dans ce sens, les éléments de régulation comme la RGPD sont selon nous des facteurs très positifs, car ils informent et donnent des moyens de pilotage aux détenteurs de la donnée personnelle, c’est-à-dire nous tous. Cela force les entreprises à proposer des services aux utilisateurs, au lieu de se contenter de créer de la valeur pour elles-mêmes.