Canaliser la puissance de l’IA pour le développement humain
En marge de son interview, nous avons demandé à Karim Beguir (X97), fondateur d’InstaDeep et signataire de la lettre invitant à réguler l’intelligence artificielle, son point de vue de spécialiste de l’IA sur ces questions très actuelles de risques, d’opportunités et de régulation de l’IA.
Lire aussi : Karim Beguir (X97) de Polytechnique à l’entrepreneuriat à succès dans l’IA
Aujourd’hui, tout le monde parle de l’IA et elle fait en même temps peur. Quels sont selon toi les faux procès ou les faux problèmes liés à l’IA ?
Je pense que l’IA est une technologie très puissante. Comme toute technologie, elle est neutre, tout dépend de l’usage qu’on en fait. Avec du recul historique, il me semble que l’IA suscite les mêmes réactions que l’énergie nucléaire au XXᵉ siècle. C’est une technologie qui peut être extraordinaire en termes de production d’électricité, notamment d’électricité propre, qui est un sujet important aujourd’hui et sur laquelle la France est un leader. Mais c’est aussi ce qui crée les bombes nucléaires. Tout dépend de l’usage qu’on fait de l’IA.
C’est pour ça que j’ai décidé de lancer InstaDeep avec mon équipe ; le but était de promouvoir les usages bénéfiques de l’IA, l’idée étant que l’IA est une technologie tellement puissante qu’il faut qu’on en fasse partie, qu’il faut qu’il y ait beaucoup de gens qui aient des intentions positives qui travaillent sur le sujet. Par ailleurs, je suis impressionné par la vitesse d’évolution de l’IA. Pendant des années, j’ai dit publiquement que l’IA était une triple exponentielle, que ça allait bouger très vite. Malgré ça, je reste impressionné par la vitesse de développement qu’on a vue sur les cinq dernières années.
« Je reste impressionné par la vitesse de développement de l’IA sur les cinq dernières années. »
Je pense qu’il faut être optimiste, mais il faut construire l’avenir. C’est-à-dire qu’il faut en même temps progresser mais aussi être prudent et ne pas croire en des lendemains utopiques qui vont nécessairement avoir lieu. Il faut un mélange d’optimisme et de prudence en allant de l’avant. J’ai signé en tant qu’expert IA la lettre qui demandait de ralentir les progrès extrêmes en termes de modèle de langage et autres, vu les risques potentiellement significatifs à moyen-long terme. Mais en même temps je suis un avocat de l’utilisation de l’IA dans beaucoup plus de cas, car l’IA peut sauver des vies comme dans la conduite autonome, dans le domaine médical.
Encore une fois, tout dépend de l’usage qu’on en fait. Et donc la meilleure approche à mon sens, c’est une approche où on multiplie les usages positifs tout en faisant attention. On offre l’opportunité à beaucoup de gens d’avoir une contribution positive et, en même temps, les gouvernements entrent dans le domaine de la régulation. Il y a certains usages de l’IA qui doivent être régulés, donc c’est une position nuancée. Par exemple, tout dépend de la taille de ce que vous faites.
« Il y a certains usages de l’IA qui doivent être régulés. »
Si vous lancez parmi les plus grands runs de l’histoire de l’humanité, en utilisant des milliards d’heures de GPU (graphics processing unit) pour entraîner un modèle à une taille jamais utilisée auparavant, une autorité de régulation devrait être impliquée. Si vous faites des choses à plus petite échelle, il n’y a pas besoin d’avoir une régulation lourde qui empêche la créativité et l’entrepreneuriat. Il serait bon de privilégier une approche intelligente. Je passe du temps avec certains gouvernements européens sur la définition de cette feuille de route. Et on peut apporter beaucoup à travers notre expertise, notamment sur la compétitivité des entreprises grâce à l’IA et les risques et les opportunités qu’elle apporte.
Selon toi, la prudence passe par la question de l’autorité de régulation ?
Oui, il faut être prudent quand on touche des choses qui ont un impact potentiellement très grand. Comme on l’a dit, pour les développements de modèle de langage avec des tailles jamais explorées, l’autorité de régulation devrait au minimum être informée. En même temps, il faut vraiment avoir une vision très granulaire et précise pour ne pas freiner les start-up dynamiques en France et ailleurs et préserver l’innovation open source parce que ça serait dommage de créer des régulations lourdes qui n’ont pas lieu d’être. Mais, même en disant ça, je suis en faveur d’un minimum de régulation.
Quel est le risque s’il n’y a pas de régulation ?
Le risque, finalement, c’est de développer des systèmes qui vont faire des choses qui vont être très difficiles à arrêter. Un risque évident, c’est dans le risque de cyber-attaques. Il existe aujourd’hui des modèles de langage qui savent écrire du code aussi bien qu’un très bon ingénieur humain et qui pourraient créer des virus d’un type nouveau beaucoup plus difficiles à arrêter, de type auto-répliquant et autres. Donc ça c’est un risque très concret qui est un risque connu, un known unknown. C’est un risque sur lesquels les autorités de régulation, que ce soit en France et ailleurs, se penchent.
Il y a aussi la possibilité de risques de type inconnu, les unknown unknowns, comme il avait été dit dans le passé ; il y a toujours le danger de voir émerger quelque chose auquel on n’a pas pensé. Je parle ici de risques d’une nature qui sont potentiellement plus problématiques que les risques classiques, tels que les risques de biais ou de manipulation de l’information de type fake news et autres, auxquels nous sommes exposés depuis beaucoup d’années. C’est difficile d’empêcher certains acteurs de développer l’IA à des fins négatives donc on doit réfléchir aux contre-mesures.
« Il existe aujourd’hui des modèles de langage qui savent écrire du code aussi bien qu’un très bon ingénieur humain. »
Est-ce un combat inégal ? La régulation n’est-elle pas vouée à l’échec ?
C’est une bonne question. En fait, il faut voir ça comme une course de vitesse. Et la bonne nouvelle, c’est qu’aujourd’hui le facteur limitant principal de l’IA, c’est le talent et la puissance de calcul.
En termes de talent et de puissance de calcul, ce sont les pays développés qui sont aujourd’hui les plus avancés. Et donc comment arrêter des acteurs négatifs tels que les hackers de capitaliser sur l’IA ? En développant des systèmes encore plus avancés, encore plus intelligents et encore plus sûrs. Moi, je suis optimiste parce que je vois que, par exemple, depuis qu’il y a eu cette lettre qui a eu un effet détonateur en demandant une pause sur les expérimentations de l’IA à un très haut niveau, elle a attiré l’attention des autorités et des gouvernements sur la nécessité de commencer à réfléchir sur la manière de réguler l’IA et de voir l’IA comme un risque et une opportunité émergente.
En réalité, on n’arrête jamais le progrès, c’est un fait. Le bon scénario, c’est que les pays et les acteurs qui veulent faire des choses positives soient à la pointe de l’IA, et créent des systèmes plus puissants que des systèmes offensifs venant d’ailleurs et en même temps des systèmes plus sûrs. C’est ce dont il faut se rappeler. La recherche qui a lieu en ce moment est encourageante. Si je devais résumer, je dirais que, jusqu’à présent, nous nous sommes focalisés sur la performance pure. Mais, si on commence à se pencher un peu sur l’aspect alignement et sécurité à long terme de l’IA, on peut certainement faire de très grands progrès ; et pourquoi pas créer des systèmes à la fois très puissants et très fiables, qui soutiennent le développement économique et humain et qui permettent de répondre à des risques émergents.