Avec Mithril Security, les entreprises peuvent utiliser l’IA en toute sécurité

Dossier : Vie des entreprisesMagazine N°795 Mai 2024Par Daniel HUYNH (X16)

Pépite tech­no­lo­gique fran­çaise, Mithril Secu­ri­ty a déve­lop­pé un outil open source pour sécu­ri­ser de bout en bout la confi­den­tia­li­té des don­nées envoyées aux agents conver­sa­tion­nels ou chat­bots. Lau­réate de la bourse cyber­sé­cu­ri­té d’OpenAI, la start-up pour­suit son déve­lop­pe­ment afin de per­mettre aux entre­prises de capi­ta­li­ser sur la puis­sance de l’IA tout en garan­tis­sant la confi­den­tia­li­té de leurs don­nées. Le point avec Daniel Huynh (X16), CEO et cofon­da­teur de Mithril Security.

Dans le monde de la cybersécurité, quel est le positionnement de Mithril Security ?

Mithril Secu­ri­ty une start-up spé­cia­li­sée dans la sécu­ri­té et la confi­den­tia­li­té autour de l’utilisation de l’intelligence arti­fi­cielle. Concrè­te­ment, nous aidons les entre­prises à uti­li­ser des solu­tions basées sur l’IA tout en garan­tis­sant que leurs don­nées res­tent pri­vées. Aujourd’hui, les entre­prises sont face à un dilemme. Elles sou­haitent pou­voir uti­li­ser ces solu­tions basées sur l’IA pour gagner en pro­duc­ti­vi­té, en per­for­mance et en effi­ca­ci­té, à condi­tion que leurs don­nées, sou­vent confi­den­tielles, ne soient pas expo­sées aux entre­prises, sou­vent amé­ri­caines, qui pro­posent ces solu­tions. L’idée de Mithril Secu­ri­ty est donc née de ce constat et de la néces­si­té stra­té­gique pour les entre­prises qui uti­lisent l’IA, notam­ment l’IA géné­ra­tive, de sécu­ri­ser et pro­té­ger leurs données.

Dans cette logique, nous avons déve­lop­pé une solu­tion qui per­met de garan­tir la pro­tec­tion des don­nées lors de l’utilisation de solu­tions basées sur l’IA. On parle alors de pro­tec­tion de bout en bout. Notre exper­tise réside, en effet, dans cette capa­ci­té à créer des solu­tions d’IA qui vont ana­ly­ser les don­nées des uti­li­sa­teurs tout en garan­tis­sant que per­sonne ne puisse y accé­der, y com­pris Mithril Secu­ri­ty ! Concrè­te­ment, nous four­nis­sons et ren­dons un ser­vice à nos clients sans avoir la capa­ci­té tech­nique à lire leurs don­nées qui sont chif­frées et donc pro­té­gées pen­dant tout le cycle de l’utilisation.

Quel produit propose Mithril Secuirty ? Et quelle est sa valeur ajoutée par rapport aux solutions actuellement sur le marché ?

Nous avons déve­lop­pé la solu­tion Blind Chat, une IA conver­sa­tion­nelle avec laquelle il est pos­sible de dis­cu­ter tout en ayant la garan­tie que les don­nées ne sont pas expo­sées. Aujourd’hui, Mithril Secu­ri­ty est le seul acteur de la cyber­sé­cu­ri­té à pro­po­ser une solu­tion qui apporte ce niveau de sécu­ri­sa­tion et de confi­den­tia­li­té sur le mar­ché. Notre solu­tion est acces­sible depuis un navi­ga­teur web. Aucun télé­char­ge­ment ou ins­tal­la­tion n’est requis grâce à notre tech­no­lo­gie et notre pla­te­forme cloud.

Aujourd’hui, pour ne pas expo­ser ses don­nées dans le cloud, les entre­prises peuvent déployer les modèles « en local » dans leur infra­struc­ture. Si cela leur per­met de garan­tir un haut niveau de confi­den­tia­li­té, les modèles uti­li­sés sont géné­ra­le­ment peu per­for­mants. Grâce à notre solu­tion, nous per­met­tons à ces entre­prises d’utiliser les solu­tions et les modèles d’IA acces­sibles dans le cloud de manière tota­le­ment sécu­ri­sée. Pour ce faire, nous avons déve­lop­pé des enclaves, qui per­mettent d’assurer la non-expo­si­tion des don­nées durant leur ana­lyse, qui est le seul moment où les don­nées ne peuvent pas être chif­frées. Ces enclaves sont des envi­ron­ne­ments sécu­ri­sés où même si la don­née est claire, per­sonne ne va pou­voir y accé­der ou la lire. Concrè­te­ment, les don­nées à l’entrée et à la sor­tie de cette « boîte noire » sont chif­frées. Quand le chif­fre­ment n’est pas pos­sible sur le plan tech­no­lo­gique, nous garan­tis­sons que per­sonne ne puisse y accé­der. Mithril Secu­ri­ty pro­pose ain­si des niveaux de sécu­ri­té et de confi­den­tia­li­té inéga­lés sur le mar­ché à date ! Au-delà, pour créer et ren­for­cer la confiance avec les uti­li­sa­teurs de nos solu­tions, notre code est open source et peut donc être véri­fié par des tiers. En ce sens, nous avons été audi­tés par Quarks­lab, un expert recon­nu à une échelle inter­na­tio­nale dans le domaine de la cybersécurité.

“En proposant des espaces et des environnements sécurisés au sein desquels les données de nos clients ne sont pas accessibles ou lisibles, nous apportons une solution pertinente qui protège réellement leurs données confidentielles et critiques.”

Pouvez-vous donner quelques cas d’usage mettant en exergue les gains de ces nouvelles solutions à base d’IA générative ?

Pour les déve­lop­peurs, le recours à l’IA géné­ra­tive est par­ti­cu­liè­re­ment per­ti­nent pour auto­ma­ti­ser des tâches méca­niques. Elle per­met aus­si aux data scien­tists qui doivent net­toyer d’importants jeux de don­nées d’automatiser ce volet chro­no­phage et à très faible valeur ajoutée.
Le fort déve­lop­pe­ment de l’IA géné­ra­tive et des modèles de lan­gage, qui vont ana­ly­ser du texte, le résu­mer, extraire des infor­ma­tions, faire des sug­ges­tions de sai­sie auto­ma­tique…, per­met de faci­li­ter consi­dé­ra­ble­ment le tra­vail des déve­lop­peurs et des data scien­tists et leur per­met éga­le­ment de gagner du temps. Ces solu­tions n’ont pas voca­tion à venir rem­pla­cer l’humain, mais doivent l’augmenter en lui per­met­tant de gagner en pro­duc­ti­vi­té et du temps.

À quels risques les utilisateurs sont-ils exposés ?

Les modèles d’IA apprennent, en fait, par cœur, un jeu d’entraînement com­po­sé de don­nées. Au fil de cet appren­tis­sage, l’IA gagne en per­ti­nence et devient meilleure. Dans ce cadre, des pro­blé­ma­tiques de confi­den­tia­li­té peuvent se poser si des tiers uti­lisent vos don­nées pour entraî­ner leur IA. Ces IA appre­nant par cœur ces don­nées, qui peuvent être à carac­tère confi­den­tiel, des com­pé­ti­teurs peuvent poten­tiel­le­ment y avoir accès au tra­vers de requêtes qu’ils pour­raient faire à ce modèle afin d’extraire des infor­ma­tions cri­tiques. En pro­po­sant des espaces et des envi­ron­ne­ments sécu­ri­sés au sein des­quels les don­nées de nos clients ne sont pas acces­sibles ou lisibles, nous appor­tons une solu­tion per­ti­nente qui pro­tège réel­le­ment leurs don­nées confi­den­tielles et critiques.

Quelles sont les prochaines étapes ?

Récem­ment, nous avons signé un contrat avec Future of Life Ins­ti­tute autour de notre acti­vi­té de R&D et du déve­lop­pe­ment de notre tech­no­lo­gie, qui est aujourd’hui prête à être audi­tée, d’une part, et du déve­lop­pe­ment de ser­vice et de pro­duits autour de notre IA sécu­ri­sée, d’autre part. Parce que nous sommes posi­tion­nés sur une tech­no­lo­gie extrê­me­ment com­plexe, nous pen­sons qu’il est aus­si essen­tiel d’accompagner nos clients afin de les aider à mieux les com­prendre pour mieux les inté­grer et les utiliser.

Poster un commentaire