Avec Mithril Security, les entreprises peuvent utiliser l’IA en toute sécurité
Pépite technologique française, Mithril Security a développé un outil open source pour sécuriser de bout en bout la confidentialité des données envoyées aux agents conversationnels ou chatbots. Lauréate de la bourse cybersécurité d’OpenAI, la start-up poursuit son développement afin de permettre aux entreprises de capitaliser sur la puissance de l’IA tout en garantissant la confidentialité de leurs données. Le point avec Daniel Huynh (X16), CEO et cofondateur de Mithril Security.
Dans le monde de la cybersécurité, quel est le positionnement de Mithril Security ?
Mithril Security une start-up spécialisée dans la sécurité et la confidentialité autour de l’utilisation de l’intelligence artificielle. Concrètement, nous aidons les entreprises à utiliser des solutions basées sur l’IA tout en garantissant que leurs données restent privées. Aujourd’hui, les entreprises sont face à un dilemme. Elles souhaitent pouvoir utiliser ces solutions basées sur l’IA pour gagner en productivité, en performance et en efficacité, à condition que leurs données, souvent confidentielles, ne soient pas exposées aux entreprises, souvent américaines, qui proposent ces solutions. L’idée de Mithril Security est donc née de ce constat et de la nécessité stratégique pour les entreprises qui utilisent l’IA, notamment l’IA générative, de sécuriser et protéger leurs données.
Dans cette logique, nous avons développé une solution qui permet de garantir la protection des données lors de l’utilisation de solutions basées sur l’IA. On parle alors de protection de bout en bout. Notre expertise réside, en effet, dans cette capacité à créer des solutions d’IA qui vont analyser les données des utilisateurs tout en garantissant que personne ne puisse y accéder, y compris Mithril Security ! Concrètement, nous fournissons et rendons un service à nos clients sans avoir la capacité technique à lire leurs données qui sont chiffrées et donc protégées pendant tout le cycle de l’utilisation.
Quel produit propose Mithril Secuirty ? Et quelle est sa valeur ajoutée par rapport aux solutions actuellement sur le marché ?
Nous avons développé la solution Blind Chat, une IA conversationnelle avec laquelle il est possible de discuter tout en ayant la garantie que les données ne sont pas exposées. Aujourd’hui, Mithril Security est le seul acteur de la cybersécurité à proposer une solution qui apporte ce niveau de sécurisation et de confidentialité sur le marché. Notre solution est accessible depuis un navigateur web. Aucun téléchargement ou installation n’est requis grâce à notre technologie et notre plateforme cloud.
Aujourd’hui, pour ne pas exposer ses données dans le cloud, les entreprises peuvent déployer les modèles « en local » dans leur infrastructure. Si cela leur permet de garantir un haut niveau de confidentialité, les modèles utilisés sont généralement peu performants. Grâce à notre solution, nous permettons à ces entreprises d’utiliser les solutions et les modèles d’IA accessibles dans le cloud de manière totalement sécurisée. Pour ce faire, nous avons développé des enclaves, qui permettent d’assurer la non-exposition des données durant leur analyse, qui est le seul moment où les données ne peuvent pas être chiffrées. Ces enclaves sont des environnements sécurisés où même si la donnée est claire, personne ne va pouvoir y accéder ou la lire. Concrètement, les données à l’entrée et à la sortie de cette « boîte noire » sont chiffrées. Quand le chiffrement n’est pas possible sur le plan technologique, nous garantissons que personne ne puisse y accéder. Mithril Security propose ainsi des niveaux de sécurité et de confidentialité inégalés sur le marché à date ! Au-delà, pour créer et renforcer la confiance avec les utilisateurs de nos solutions, notre code est open source et peut donc être vérifié par des tiers. En ce sens, nous avons été audités par Quarkslab, un expert reconnu à une échelle internationale dans le domaine de la cybersécurité.
“En proposant des espaces et des environnements sécurisés au sein desquels les données de nos clients ne sont pas accessibles ou lisibles, nous apportons une solution pertinente qui protège réellement leurs données confidentielles et critiques.”
Pouvez-vous donner quelques cas d’usage mettant en exergue les gains de ces nouvelles solutions à base d’IA générative ?
Pour les développeurs, le recours à l’IA générative est particulièrement pertinent pour automatiser des tâches mécaniques. Elle permet aussi aux data scientists qui doivent nettoyer d’importants jeux de données d’automatiser ce volet chronophage et à très faible valeur ajoutée.
Le fort développement de l’IA générative et des modèles de langage, qui vont analyser du texte, le résumer, extraire des informations, faire des suggestions de saisie automatique…, permet de faciliter considérablement le travail des développeurs et des data scientists et leur permet également de gagner du temps. Ces solutions n’ont pas vocation à venir remplacer l’humain, mais doivent l’augmenter en lui permettant de gagner en productivité et du temps.
À quels risques les utilisateurs sont-ils exposés ?
Les modèles d’IA apprennent, en fait, par cœur, un jeu d’entraînement composé de données. Au fil de cet apprentissage, l’IA gagne en pertinence et devient meilleure. Dans ce cadre, des problématiques de confidentialité peuvent se poser si des tiers utilisent vos données pour entraîner leur IA. Ces IA apprenant par cœur ces données, qui peuvent être à caractère confidentiel, des compétiteurs peuvent potentiellement y avoir accès au travers de requêtes qu’ils pourraient faire à ce modèle afin d’extraire des informations critiques. En proposant des espaces et des environnements sécurisés au sein desquels les données de nos clients ne sont pas accessibles ou lisibles, nous apportons une solution pertinente qui protège réellement leurs données confidentielles et critiques.
Quelles sont les prochaines étapes ?
Récemment, nous avons signé un contrat avec Future of Life Institute autour de notre activité de R&D et du développement de notre technologie, qui est aujourd’hui prête à être auditée, d’une part, et du développement de service et de produits autour de notre IA sécurisée, d’autre part. Parce que nous sommes positionnés sur une technologie extrêmement complexe, nous pensons qu’il est aussi essentiel d’accompagner nos clients afin de les aider à mieux les comprendre pour mieux les intégrer et les utiliser.