La start-up qui garantit la qualité des modèles IA

Dossier : Vie des entreprisesMagazine N°795 Mai 2024Par Jean-Marie JOHN-MATHEWS

Dans un contexte mar­qué par l’accélération du déve­lop­pe­ment de l’IA et la volon­té de mieux régu­ler cette tech­no­lo­gie à une échelle euro­péenne, Gis­kard aide les construc­teurs et déve­lop­peurs d’IA à mieux gou­ver­ner et mana­ger la qua­li­té de leurs solu­tions. Jean-Marie John-Mathews, PhD, cofon­da­teur et CPO de ce lea­der euro­péen de l’IA open source tes­ting, nous en dit plus.

Quelle a été la genèse de Giskard ?

Gis­kard est née en 2021. L’idée de départ de la start-up prend racine dans un constat que nous avons été ame­nés à faire : dans un contexte où l’IA se déve­loppe de plus en plus vite, il y a un besoin d’outils fiables et per­for­mants pour assu­rer la qua­li­té des modèles d’IA. En effet, aujourd’hui, le déploie­ment de l’IA, notam­ment l’IA géné­ra­tive, se maté­ria­lise par de nom­breux suc­cès, mais entraîne aus­si un cer­tain nombre d’incidents. Alors que ces tech­no­lo­gies ont voca­tion à connaître un déve­lop­pe­ment expo­nen­tiel, la qua­li­té des modèles repré­sente aujourd’hui un enjeu cri­tique. Cette dimen­sion fait, d’ailleurs, l’objet de tout un tra­vail régle­men­taire à l’échelle euro­péenne afin de défi­nir un cadre et des standards.

À par­tir de là, avec mon asso­cié Alex Com­bes­sie, nous avons lan­cé Gis­kard qui est une entre­prise spé­cia­li­sée dans l’open source tes­ting. Dans cette aven­ture humaine et entre­pre­neu­riale, nous capi­ta­li­sons sur la com­plé­men­ta­ri­té de nos pro­fils et de nos expé­riences. Per­son­nel­le­ment, je suis issu du monde de la recherche et Alex a un par­cours signi­fi­ca­tif dans le monde de l’ingénierie logi­cielle. Aujourd’hui, Gis­kard s’appuie sur une équipe d’une tren­taine de per­sonnes com­po­sée essen­tiel­le­ment des cher­cheurs et d’ingénieurs en IA (machine lear­ning…), de data sciences, de pro­duct mana­gers, de desi­gners, des ingé­nieurs logi­ciels full stack…

Avec vos solutions visant à garantir la qualité de l’IA, à qui vous adressez-vous ?

Nous nous adres­sons aux pro­fes­sion­nels qui déve­loppent des IA et qui ont besoin de s’assurer de la qua­li­té de leur déve­lop­pe­ment afin de déris­quer leurs IA sur le plan opé­ra­tion­nel, sécu­ri­taire, éco­no­mique, répu­ta­tion­nel et éthique. Pour ce faire, Gis­kard met à leur dis­po­si­tion des outils qui vont leur per­mettre de gou­ver­ner leurs IA afin de trou­ver le meilleur équi­libre entre la per­for­mance opé­ra­tion­nelle et busi­ness atten­due et les risques.

Pouvez-vous nous partager des cas d’usage ? Dans ce cadre, comment intervenez-vous ?

Les entre­prises qui ont recours à des chat­bots ados­sés aux tech­no­lo­gies d’IA doivent s’assurer que les réponses qui sont appor­tées suite aux ques­tions des utilisateurs/consommateurs sont fiables et cor­rectes. Il s’agit, par exemple, de don­ner les bonnes carac­té­ris­tiques tech­niques d’un pro­duit pour per­mettre au client de choi­sir le bon équi­pe­ment ou un pro­duit com­pa­tible… L’enjeu est aus­si de s’assurer que l’IA ne divulgue pas des infor­ma­tions confi­den­tielles. En effet, des per­sonnes mal­veillantes ou des cybe­rat­ta­quants peuvent détour­ner ces chat­bots cen­sés répondre aux ques­tions des clients et pros­pects pour por­ter atteinte aux inté­rêts de l’entreprise. Enfin, il s’agit aus­si de s’assurer de la per­ti­nence et de la cohé­rence des infor­ma­tions don­nées pour évi­ter tout risque répu­ta­tion­nel ou « bad buzz » qui pour­raient être relayées sur les réseaux sociaux…

Dans ce contexte, nous inter­ve­nons tout au long de la chaîne de valeur afin d’en sécu­ri­ser tous les maillons. Nous com­men­çons par un audit et un diag­nos­tic afin d’identifier les risques poten­tiels. Pour ce faire, nous avons recours à des outils de scan et de tes­ting pour déce­ler les vul­né­ra­bi­li­tés des modèles d’IA. À par­tir de là, nous créons des tests qui vont per­mettre aux data scien­tists d’améliorer rapi­de­ment leurs modèles en créant et met­tant en place des métriques qu’ils vont pou­voir suivre et tes­ter. Enfin, durant la phase de pro­duc­tion, nous allons aus­si accom­pa­gner les data scien­tists dans leur tra­vail de véri­fi­ca­tion et de para­mé­trage afin de pou­voir blo­quer les actions et les demandes qui peuvent géné­rer un risque sécu­ri­taire. Au-delà, Gis­kard aide aus­si les entre­prises à se mettre en confor­mi­té avec les obli­ga­tions et le cadre régle­men­taire. Aujourd’hui, l’AI Act, une régu­la­tion euro­péenne sur l’IA, exige des construc­teurs et déve­lop­peurs d’IA qu’ils mettent en place des outils de mana­ge­ment de la qua­li­té des modèles d’IA.

Alors que le développement et le recours à l’IA s’accélèrent, comment vous projetez-vous sur le marché ?

Nous esti­mons que le mar­ché de l’IA, qui est encore émergent, va se nor­ma­li­ser sur le moyen terme. Ces tech­no­lo­gies vont conti­nuer à gagner en matu­ri­té alors que la qua­li­té des modèles va deve­nir un pré­re­quis et un para­mètre incon­tour­nables du déve­lop­pe­ment de cette indus­trie. Dans cette démarche, les construc­teurs d’IA vont être ame­nés à tra­vailler et à défi­nir les normes et les stan­dards qui per­met­tront de garan­tir et d’évaluer la qua­li­té. Dans cet éco­sys­tème, Gis­kard veut se posi­tion­ner comme un par­te­naire de ces acteurs en met­tant à leur dis­po­si­tion des outils qui vont contri­buer à accé­lé­rer et opti­mi­ser ce travail.

Dans ce cadre, quels sont vos enjeux ?

Pour être en mesure de détec­ter les vul­né­ra­bi­li­tés des modèles d’IA, notre pre­mier enjeu est d’être tou­jours à la pointe de ces tech­no­lo­gies qui évo­luent tou­jours plus vite. Nos équipes dédiées à la recherche sont ain­si en veille constante afin de suivre, au jour le jour, les avan­cées en matière de modèle d’IA. Ce tra­vail de veille et de recherche nous per­met de pro­po­ser des outils per­ti­nents et évo­lu­tifs afin d’intégrer toutes les évo­lu­tions en matière d’IA.

Et pour conclure sur ce sujet du mana­ge­ment de la qua­li­té des IA, avez-vous une piste de réflexion à par­ta­ger avec nos lecteurs ?
Aujourd’hui, la régle­men­ta­tion en matière d’IA, qui demande aux construc­teurs d’IA en Europe d’assurer le mana­ge­ment de la qua­li­té de leurs solu­tions, est per­çue comme une contrainte, notam­ment finan­cière. Si cette mise en confor­mi­té repré­sente certes un coût finan­cier pour les entre­prises, elle doit néan­moins aus­si être per­çue comme un vec­teur de com­pé­ti­ti­vi­té et d’innovation au ser­vice du déve­lop­pe­ment de modèles d’IA plus per­ti­nents, per­for­mants et ali­gnés sur les besoins et attentes busi­ness des entreprises.

Poster un commentaire