Anis Gandoura (X09) a cofondé Stabler, qui fournit un web scraping industrialisé.

Stabler : Industrialiser l’extraction de données

Dossier : TrajectoiresMagazine N°787 Septembre 2023
Par Hervé KABLA (X84)

En 2019, Anis Gan­dou­ra (X09) a cofon­dé Sta­bler, qui four­nit un web scra­ping indus­tria­li­sé. Cette entre­prise reven­dique un ser­vice de web scra­ping stable, sca­lable, fiable, éco­no­mique, fon­dé sur des API (appli­ca­tion pro­gram­ming inter­face) pour les grandes entre­prises et les infrastructures.

Quelle est l’activité de stabler.tech ?

Stabler.tech com­mer­cia­lise un logi­ciel d’extraction de don­nées sur inter­net. Cette acti­vi­té – appe­lée web scra­ping en anglais – per­met à nos clients, par exemple, de rele­ver les prix, de suivre leurs concur­rents, d’alimenter des modèles d’intelligence arti­fi­cielle ou encore d’analyser des tran­sac­tions de la blo­ck­chain. Nous auto­ma­ti­sons l’extraction de tout ce qu’un humain pour­rait labo­rieu­se­ment récol­ter à la main sur internet. 

Quel est le parcours des fondateurs ? 

Je suis diplô­mé de l’X, pro­mo­tion 2009, et je m’occupe de la par­tie tech­nique. J’ai fon­dé stabler.tech avec deux asso­ciés : Romain Hévin, diplô­mé d’Euridis Busi­ness School, qui gère le dépar­te­ment com­mer­cial, et Paul Mou­gi­not, diplô­mé de Cen­tra­le­Su­pé­lec, qui est char­gé des opé­ra­tions. Nos com­pé­tences nous per­mettent de maî­tri­ser toute la chaîne de valeur de l’entreprise, du déve­lop­pe­ment tech­no­lo­gique à la com­mer­cia­li­sa­tion, en pas­sant par l’interaction avec nos clients. Par le pas­sé, nous avons tra­vaillé en tant que consul­tants en stra­té­gie. Cela nous a per­mis de com­prendre le fonc­tion­ne­ment de chaque client, qu’il s’agisse d’une start-up ou d’un grand groupe, de cer­ner ses pré­oc­cu­pa­tions ain­si que ses contraintes internes.

Comment t’est venue l’idée ?

Aupa­ra­vant, avec Paul et une troi­sième asso­ciée, nous avons cofon­dé daco.io, une entre­prise qui per­met­tait aux marques de mode d’analyser leur envi­ron­ne­ment concur­ren­tiel. À l’époque, nous avions déjà déve­lop­pé des tech­no­lo­gies d’intelligence arti­fi­cielle et d’extraction de don­nées. Quelques années après sa créa­tion, daco.io est deve­nue une PME ren­table sans avoir à lever des fonds. Ce fut une expé­rience pas­sion­nante pour nous. daco.io a par la suite été acquise par son plus grand client, Vee­pee (ancien­ne­ment vente-privee). 


Lire aus­si : Intel­li­gence arti­fi­cielle ou low-tech : quelles ten­dances pour la mode ?


Chez Vee­pee, nous avons construit le dépar­te­ment pri­cing en liai­son avec les équipes expertes déjà pré­sentes. C’est là, pen­dant trois ans, que nous avons déve­lop­pé une exper­tise dans le domaine de l’extraction de don­nées indus­trielle et le déploie­ment de sys­tèmes d’intelligence arti­fi­cielle adap­tés au com­merce en ligne : recon­nais­sance d’images, pré­dic­tion de la demande, etc. 

À cette époque, nous avons été contac­tés par de nom­breuses entre­prises qui connais­saient notre répu­ta­tion dans le domaine et qui sou­hai­taient mettre en place des outils indus­triels d’extraction de don­nées web. Nous avons donc eu l’idée de lan­cer stabler.tech pour démo­cra­ti­ser l’extraction de don­nées et per­mettre à toute entre­prise de s’équiper de tels outils pour un coût finan­cier et opé­ra­tion­nel très raisonnable.

Screenshot Stabler extraction de données

Qui sont les concurrents ? 

Il existe des cen­taines de concur­rents, par­fois pré­sents sur le mar­ché depuis des années, ce qui confirme l’existence et la crois­sance de ce sec­teur. On peut par­ler d’océan rouge et de nom­breux acteurs sont répu­tés pour la qua­li­té de leur ser­vice. Néan­moins, ce mar­ché est encore rela­ti­ve­ment peu conso­li­dé. Nous nous dis­tin­guons par notre tech­no­lo­gie flexible, simple d’utilisation, éco­no­mique et conforme aux lois fran­çaises et euro­péennes. Nous avons ain­si l’ambition de contri­buer à la conso­li­da­tion de ce marché. 

Quelles ont été les étapes clés depuis la création ? 

Le mar­ché de l’extraction de don­nées est très hété­ro­gène. Depuis notre créa­tion, nous avons com­mer­cia­li­sé suc­ces­si­ve­ment trois pro­duits : d’abord sta­bler­SO­LO pour les PME et les entre­pre­neurs indi­vi­duels et sta­bler­PLUS pour les grandes infra­struc­tures qui ont besoin de rapi­di­té et de volume. Avec ces deux offres, nous four­nis­sons les machines et une for­ma­tion qui per­met à nos clients de mettre en place rapi­de­ment leurs propres extrac­tions. Cer­tains de nos clients ne dési­rent pas gérer eux-mêmes l’extraction des don­nées. Nous pro­po­sons donc un troi­sième pro­duit tota­le­ment inté­gré, one­plant. Grâce à cette solu­tion, le client exprime ses besoins et nous déployons des experts IT qui opèrent nos tech­no­lo­gies, en col­la­bo­ra­tion avec la socié­té par­te­naire MyDataMachine.

Qui sont les clients du web scraping ?

Il existe deux grands types de clients : les PME et les indé­pen­dants d’une part, qui cherchent une solu­tion facile à déployer et éco­no­mique, et les grands groupes et infra­struc­tures d’autre part, qui sou­haitent exter­na­li­ser leur R & D dans le domaine du web scra­ping. C’est un peu une « course à l’armement » et pou­voir col­lec­ter les infor­ma­tions néces­site une veille tech­no­lo­gique per­ma­nente et la réso­lu­tion de nom­breux pro­blèmes techniques.

Sans entrer dans les détails techniques justement, peux-tu expliquer au lecteur lambda de la J&R comment cela fonctionne ? 

La pla­te­forme sta­bler fonc­tionne en deux étapes. La pre­mière, appe­lée confi­gu­ra­tion, est l’étape où le client montre au robot com­ment extraire le site web. Cet appren­tis­sage se fait en construi­sant un graphe, où chaque nœud est une étape élé­men­taire à réa­li­ser. Cela peut être : « Visite cette page », « Clique sur ce bou­ton », « Tape ce texte dans ce champ », etc. Cette étape s’inspire de la pro­gram­ma­tion visuelle. La deuxième étape est l’extraction. Le robot par­court, puis exé­cute le graphe de confi­gu­ra­tion du site web. Il est capable de se dupli­quer pour aller plus vite et de recom­men­cer auto­ma­ti­que­ment chaque étape lorsqu’une erreur est détec­tée. Le résul­tat est une extrac­tion de haute qualité.

Est-ce légal ?

Le web scra­ping n’est pas expli­ci­te­ment régle­men­té par des lois, nous nous réfé­rons donc à la juris­pru­dence. Nous obser­vons un ensemble de bonnes pra­tiques, comme le res­pect de la bande pas­sante des sites web, et nous rap­pe­lons à nos clients de tou­jours agir en confor­mi­té avec les men­tions légales des sites extraits. Nous sommes une petite entre­prise, mais nous avons déjà beau­coup inves­ti pour étu­dier le pay­sage juri­dique et res­pec­ter toutes les lois fran­çaises et euro­péennes. Par exemple, nous avons pris les dis­po­si­tions néces­saires pour nous confor­mer au RGPD. Notre objec­tif serait d’être un jour four­nis­seurs de l’État ou des col­lec­ti­vi­tés publiques.

Est-ce que vous vendez aussi des logiciels pour protéger vos clients du web scraping ?

Actuel­le­ment nous n’en ven­dons pas, mais notre exper­tise nous per­met­trait cer­tai­ne­ment de déve­lop­per un excellent logi­ciel anti-bot. Cepen­dant, l’évolution du mar­ché et des lois est plu­tôt en faveur du web scra­ping et chaque entre­prise a désor­mais besoin, d’une manière ou d’une autre, d’extraire de plus en plus de don­nées afin d’affiner ses décisions.

Finalement, vous apportez à la guerre économique ce que les services de renseignements procurent à la défense nationale ? 

Pour être plus pré­cis, nous four­nis­sons des outils de pointe qui per­mettent de dis­po­ser rapi­de­ment de don­nées brutes, propres et fiables. Chaque client ayant des besoins spé­ci­fiques, nous n’intervenons pas sur le trai­te­ment et la trans­for­ma­tion en aval. Des fleu­rons fran­çais comme Datai­ku sont d’ailleurs déjà deve­nus des experts dans ce domaine. Le ren­sei­gne­ment est un sec­teur où nous obser­vons une demande crois­sante pour nos ser­vices. Le web scra­ping peut notam­ment être mis à pro­fit dans le cadre de l’Open Source Intel­li­gence (OSINT).

Poster un commentaire