La révolution de l’apprentissage machine autonome
L’intelligence artificielle a bien progressé grâce au deep learning qui permet un apprentissage autonome dans les cas simples. Les performances restent en deçà des attentes dans les cas plus complexes où il faut impliquer le concepteur du système pour optimiser le processus. La prochaine étape est de donner les moyens à l’utilisateur de contrôler l’apprentissage de la machine.
L’intelligence artificielle a connu des progrès continus depuis des décennies. Ces progrès s’appuient sur des techniques d’apprentissage automatique élaborées, notamment celles qualifiées d’apprentissage profond ou deep learning, qui permettent d’exploiter des quantités de données disponibles sans cesse croissantes.
Ils bénéficient également de l’organisation d’expérimentations coordonnées qui permettent de comparer différentes approches et de guider les développements.
L’ÉVALUATION DES SYSTÈMES INTELLIGENTS
À l’instar des examens d’étudiants, l’évaluation des systèmes intelligents suppose d’organiser des tests communs dont le sujet général est convenu au préalable, mais dont le contenu exact n’est communiqué qu’au dernier moment.
L’organisation de ce type de tests au service de la communauté scientifique et technologique est un facteur de progrès essentiel dans le domaine.
Ces progrès ont déjà conduit à de multiples applications concrètes, dont certaines d’usage courant. La détection de visage est intégrée dans la plupart des appareils photos, la traduction automatique en ligne rend des services indéniables et parler à une machine n’étonne plus grand monde.
Dans le cas particulier des jeux, où les règles définissent des univers facilement accessibles à la machine et où l’affrontement entre joueurs se prête bien à la mise en scène, les avancées ont été spectaculaires.
Ainsi, les succès médiatisés de Deep Blue contre Kasparov aux échecs en 1997 et de Watson contre les champions du jeu télévisé « Jeopardy ! » en 2011 ont frappé les esprits. Celui d’AlphaGo contre Lee Sedol au jeu de go en 2016 a même contribué à remettre en avant le terme d’intelligence artificielle.
Pour autant, dans bien des domaines, les performances restent en deçà des attentes. Même des problèmes apparemment simples, du moins pour un être humain, sont loin d’être résolus. Par exemple, les robots sont encore incapables de se déplacer dans un environnement naturel comme le fait un enfant.
Et pour reprendre les exemples précédents de technologies pourtant déjà déployées, la détection automatique de visage est loin d’être infaillible et les erreurs de traduction automatique ou des interfaces vocales sont parfois cocasses.
REPÈRES
En 2017, le logiciel AlphaGo Zero a atteint un niveau inédit au jeu de go sans autre donnée que les règles du jeu, simplement en jouant avec lui-même, grâce à de nouvelles techniques d’apprentissage.
UN BESOIN D’AUTONOMIE AU SERVICE DES UTILISATEURS
En particulier, les utilisateurs non experts n’ont actuellement pas les moyens de faire progresser eux-mêmes les systèmes, ou alors de manière très limitée.
Par exemple si un robot ne reconnaît pas un objet ou un mot donné, il est tentant de vouloir lui expliquer directement, mais en pratique, quand on souhaite une telle adaptation à un besoin particulier, il faut impliquer le concepteur du système et attendre qu’il en produise une nouvelle version.
Cela empêche que l’adaptation soit instantanée, voire qu’elle ait simplement lieu, et plus généralement crée une situation de dépendance.
Les robots sont encore incapables de se déplacer dans un environnement naturel comme le fait un enfant © ROBERT KNESCHKE
Cette limitation est liée au fait qu’avec les techniques actuelles, l’apprentissage dit automatique ne l’est en fait pas complètement.
En pratique, la performance des systèmes dépend non seulement des données utilisées pour l’apprentissage automatique mais aussi de choix de conception et de paramètres qui sont optimisés de manière heuristique.
Cette optimisation reste ainsi un art, qui suppose une grande expérience, et le simple fait d’ajouter des données n’est pas une garantie absolue d’amélioration, d’autant plus que ces données peuvent être de qualité variable.
Les déboires de l’agent conversationnel Tay de Microsoft, qu’un petit groupe d’utilisateurs a pu influencer pour lui faire tenir des propos répréhensibles, illustrent bien le risque de dérive qu’il peut y avoir à intégrer des données supplémentaires sans revalider le système.
Il y a donc un besoin de capacités d’apprentissage autonome par rapport au concepteur du système. Il ne s’agit pas de supprimer tout apprentissage initial effectué sous son contrôle, mais de permettre au système de continuer à s’améliorer au-delà.
Il ne s’agit pas non plus d’exclure toute supervision humaine lors de cet apprentissage complémentaire, mais de faire en sorte qu’elle ne requière pas d’expertise particulière en intelligence artificielle.
Au contraire, une supervision par l’utilisateur est même bienvenue dans de nombreuses applications, dans la mesure où l’effort associé reste raisonnable.
L’ÉMERGENCE DE L’APPRENTISSAGE AUTONOME
L’idée n’est pas nouvelle. Elle est même intuitive, puisqu’elle correspond à notre propre mode de pensée, et l’article fondateur d’Alan Turing sur l’intelligence artificielle présentait déjà l’apprentissage machine sous cet angle en 1950.
QUELLE ÉVALUATION DE L’APPRENTISSAGE AUTONOME ?
Dans le cas particulier où on peut figer des données d’apprentissage, la capacité d’un système à apprendre de manière autonome peut être évaluée objectivement en effectuant l’apprentissage en amont d’un test classique et en mesurant si le système en a profité pour s’améliorer.
Dans le cas général, où l’apprentissage dépend du comportement du système et ne peut donc être figé, il faut recourir à des protocoles plus élaborés. On peut par exemple demander au système de résoudre un ensemble de problèmes plus ou moins liés en ayant la possibilité d’obtenir la solution de certains d’entre eux.
On mesure alors le niveau de supervision nécessaire pour résoudre l’ensemble des problèmes, qui est un indicateur de la capacité du système à apprendre d’une solution pour résoudre un autre problème.
Mais elle n’est pas évidente à mettre en œuvre, d’autant plus que jusqu’à récemment elle n’était pas clairement formalisée, et en pratique les efforts se sont focalisés sur l’exploitation de masses de données au détriment de l’automatisation complète du processus d’apprentissage.
Néanmoins, les solutions pour répondre à ce besoin sont en train d’émerger. Dans le cas particulier des jeux, une percée impressionnante a déjà été obtenue avec la mise au point d’AlphaGo Zero, qui a dépassé en peu de temps tous les autres logiciels de jeu de go sans aucune donnée autre que les règles du jeu, en jouant simplement avec lui-même.
Dans le cas général, les techniques nécessaires sont pour l’essentiel disponibles mais nécessitent encore d’être intégrées et optimisées. Pour cela, il est important de bien définir l’objectif visé au travers de protocoles d’évaluation rigoureux. Or, de tels protocoles ont été proposés récemment (voir encadré) et de premières campagnes d’expérimentations coordonnées sont en préparation dans le cadre de projets soutenus par le programme de recherche européen CHIST-ERA.
L’expérience montre que de telles campagnes jouent un rôle de catalyseur et permettent des progrès cumulatifs. Les conditions sont donc aujourd’hui réunies pour une accélération des progrès et on peut s’attendre à ce que les capacités d’apprentissage autonome deviennent courantes dans les années à venir.
UNE ÉVOLUTION AUX CONSÉQUENCES MAJEURES
Ces nouvelles capacités permettront non seulement une adaptation plus facile et immédiate aux besoins de l’utilisateur, mais aussi de le faire localement et donc d’offrir des solutions plus respectueuses de la vie privée et de la confidentialité des données.
La machine bat désormais les meilleurs joueurs de go. © SERGEY
On peut ainsi imaginer des objets connectés intelligents qui ne communiquent à l’extérieur que le strict nécessaire, tout en évoluant avec leurs utilisateurs. De plus, chaque système pouvant ainsi évoluer selon un parcours qui lui est propre, on assistera à une individualisation de ces systèmes alors qu’ils sont aujourd’hui très standardisés.
Une conséquence plus indirecte est liée au fait qu’à partir du moment où une adaptation par un tiers autre que le concepteur est possible, cette adaptation peut se faire en cascade. Cela conduit à une organisation de la filière de l’intelligence artificielle plus diversifiée qu’aujourd’hui, avec l’apparition d’un nouveau métier qui consiste à sélectionner et adapter des systèmes intelligents pour répondre au mieux aux besoins d’utilisateurs tiers.
Certains parlent déjà de coach pour robots. Et comme il ne sera plus nécessaire de centraliser les données pour obtenir des performances optimales, l’organisation de cette filière sera aussi plus décentralisée, ce qui peut conduire à une concurrence économique plus équilibrée qu’aujourd’hui.
Cette évolution crée ainsi de nouvelles opportunités, mais pose aussi de nouveaux défis. En donnant plus de contrôle aux utilisateurs, elle leur donne aussi de nouvelles responsabilités. En conduisant à une bien plus grande variété de systèmes, elle rend les risques de dérive plus variés, même s’ils seront plus locaux.
Pour résumer, en démocratisant le contrôle, elle le complexifie.
“ Une organisation de la filière de l’intelligence artificielle plus diversifiée et décentralisée qu’aujourd’hui ”
Il faudra prévenir, détecter et corriger les dérives non seulement lors de la conception des systèmes, mais aussi de leur formation et de leur éducation. Les solutions sont à la fois techniques et organisationnelles. La mise en place d’un cadre de confiance impliquant un large spectre d’acteurs est probablement nécessaire, en s’appuyant sur les réflexions déjà engagées sur les questions d’éthique en intelligence artificielle.
En résumé, après l’apprentissage automatique, qui est au cœur des progrès de ces dernières décennies mais n’est en pratique pas si automatisé que le terme peut le laisser croire, l’arrivée de l’apprentissage autonome va probablement représenter une rupture majeure pour l’intelligence artificielle.
Ces nouvelles capacités vont démocratiser l’apprentissage machine en donnant plus de contrôle aux utilisateurs, décentraliser l’organisation de la filière, l’enrichir de nouveaux types d’acteurs, et démultiplier les possibilités.
C’est une révolution qui s’annonce. Il faut l’anticiper pour en tirer le meilleur parti tout en en maîtrisant les risques.
POUR ALLER PLUS LOIN :
-
Alan M. Turing, « Computing Machinery and Intelligence », Mind, vol. 59, p. 433–460, 1950.
-
Rodney Douglas and Terry Sejnowski, NSF Workshop on « Future Challenges for the Science and Engineering of Learning », Arlington, Virginia, July 23–25, 2007.
-
Édouard Geoffrois, « Evaluating Interactive System Adaptation », Proceedings of the Tenth International Conference on Language Resources and Evaluation (LREC), 2016.
-
David Silver et al., « Mastering the game of Go without human knowledge », Nature, vol. 550, p. 354–359, 2017.