Construire l’IA : des données, des algorithmes, des ressources et des hommes
Après deux vagues d’échecs, les calculs de l’intelligence artificielle peuvent maintenant transformer notre société. Il ne faut pas en craindre les risques, car si les développements sont permis par la profusion de données traitées avec des calculateurs haute performance, il s’avère qu’il faut intégrer le facteur humain tant dans la conception que dans la perception des usages à venir.
La révolution annoncée de l’IA résulte de la convergence de trois facteurs. D’une part, la profusion de données numérisées via l’Internet, les outils internes des entreprises et des centres de recherche scientifique, les plateformes numériques, les réseaux de capteurs, l’Internet des objets, etc.
D’autre part, la maturité des communautés scientifiques en mathématiques et en informatique sur le thème de l’apprentissage automatique, avec les avancées de la modélisation statistique de données complexes, le développement et l’analyse d’algorithmes sophistiqués focalisés sur l’optimisation de règles prédictives.
Et enfin, la disponibilité de ressources matérielles et d’environnements logiciels ouvrant des perspectives pratiquement illimitées pour le stockage, le calcul et le développement logiciel sur un mode collaboratif.
Il s’agit de la troisième vague que connaît le grand public sur le thème de l’IA, les deux premières n’ayant pas eu l’impact attendu – ou craint – sur l’humanité.
En réalité, cette transformation est déjà en cours, mais à des rythmes très disparates selon les domaines d’application : très rapide dans l’Internet, le marketing numérique, le tourisme, et le transport, plus poussif dans l’industrie traditionnelle, et presque au départ dans la santé, la formation et la gestion des compétences.
REPÈRES
Chaque seconde, 29 000 gigaoctets (Go) d’informations sont publiés dans le monde, soit 2,5 exaoctets1 par jour, soit 912,5 exaoctets par an.
Ces données représentent un gisement de ressources considérable : ainsi, l’International Data Corporation (IDC) estime que le marché du cloud (stockage, exploitation des données) atteindra 554 milliards de dollars en 2021, doublant sa valeur de 2016.
LES CLÉS DE L’APPRENTISSAGE AUTOMATIQUE, MOTEUR DE L’IA MODERNE
La fièvre du big data est quelque peu retombée suite au constat que la masse ne suffit pas : l’ordre et le sens ont aussi leur importance.
En effet, la notion d’information dans ce contexte mérite d’être développée ici. Elle relève de trois niveaux : la mesure (signal), la répétition statistique (régularité du phénomène) et l’appréciation experte (labellisation ou annotation par l’expert humain).
LES NOUVEAUX ALGORITHMES D’APPRENTISSAGE
Les algorithmes modernes d’apprentissage n’échappent pas aux prérequis des méthodes statistiques : il faut observer suffisamment les configurations d’intérêt pour un ensemble de variables avant de pouvoir les détecter et les prévoir.
La nouveauté vient de la capacité à prendre en compte un très grand nombre de variables explicatives et également les données dites structurées (patterns caractéristiques dans des signaux, des images, des vidéos, du texte, etc.).
Les espoirs portés dans les masses de données accumulées sont parfois déçus lorsque la valeur informationnelle de ces données n’a pas été évaluée en amont et que leur organisation dans les bases de données ne permet pas des accès souples et rapides pour extraire les échantillons pertinents pour la modélisation et l’apprentissage.
Les méthodes d’apprentissage se scindent en deux selon le caractère supervisé ou non supervisé des données, c’est-à-dire selon la disponibilité ou non de données annotées par un expert humain.
Or, le succès des méthodes d’apprentissage dans les applications internet, notamment l’indexation d’images, de musique et de vidéo, repose sur un travail considérable d’annotation réalisé en grande partie par des opérateurs humains (voir, par exemple, la place de marché Amazon Mechanical Turk2, ou le principe du captcha pour identifier les utilisateurs humains et filtrer les robots sur certaines pages web).
Dans le domaine industriel, notamment dans les systèmes critiques ou les applications biomédicales, il est peu probable que l’apprentissage non supervisé conduise à des réalisations majeures autres que dans l’analyse exploratoire de données.
Il est alors crucial de disposer de données qualifiées et annotées. Or, ce travail laborieux présente un coût important et mobilise des experts qui peuvent se sentir dépossédés de leur savoir-faire dans cette étape. C’est pourtant une clé de la réussite.
DES ALGORITHMES POUR L’APPRENTISSAGE
Les experts peuvent se sentir dépossédés de leur savoir-faire.
© JAKUB JIRSÁK
SOUS-APPRENTISSAGE ET SURAPPRENTISSAGE
Il faut trouver la courbe en U et résoudre le compromis biais-variance : la relation entre performance statistique et complexité, et une courbe en forme de U qui illustre le fait que des modèles trop simples peuvent ne pas rendre compte d’un mécanisme de dépendance complexe (sous-apprentissage), alors que des modèles trop complexes par rapport à la cible vont surinterpréter les données (surapprentissage).
Il faut distinguer deux niveaux dans la résolution algorithmique du problème d’apprentissage automatique : (1) la phase d’apprentissage d’une règle de décision à partir d’une famille de règles candidates, (2) l’exécution de la règle de décision qui se présente sous une forme analytique explicite sur une nouvelle donnée pour produire une prédiction pertinente.
Ces deux niveaux peuvent satisfaire à des exigences radicalement différentes en termes de temporalité et de calcul. Ainsi, la phase d’apprentissage correspond à l’exécution d’un programme d’optimisation couplé avec une base de données, alors que le calcul de la règle de décision consiste à appliquer une formule qui peut contenir un grand nombre d’opérations.
On peut considérer généralement que l’apprentissage s’effectue hors-ligne et l’application de la règle de décision doit être réalisée en ligne et en temps réel.
Il existe trois points clés pour une mise en œuvre réussie pour l’apprentissage automatique.
CONCILIER PERFORMANCE STATISTIQUE ET ACCEPTABILITÉ
Un algorithme d’apprentissage opère généralement comme un programme d’optimisation d’un certain critère de performance à partir d’un jeu de données existant, la validité du critère ayant un sens avant tout statistique (exemple de critère objectif pour une tâche de reconnaissance : le taux d’objets correctement classés).
Or, l’acceptabilité de la règle de décision établie peut dépendre d’autres aspects :
- la conformité opérationnelle (par exemple, contrainte de temps réel pour l’évaluation du résultat par la règle de décision sur une nouvelle donnée, cf. cas des enchères en ligne sur les bannières publicitaires ou trading algorithmique, les décisions doivent être rendues en quelques millisecondes) ;
- la qualité de l’expérience-utilisateur (par exemple, en reconnaissance des formes, le système reconnaît parfaitement tous les objets sauf ceux qui intéressent l’utilisateur) ;
- l’alignement avec les objectifs économiques (par exemple, dans le marketing numérique, équilibre entre le taux de clics qui rend compte de la performance du système de ciblage et la valorisation économique qui peut être réalisée via différents modèles) ;
- enfin, le respect de l’éthique (par exemple, l’IA « raciste » de Microsoft/Tay).
Pour finir, il faut assurer le suivi de la règle de décision pendant tout son cycle de vie : suivi continu de la performance, adaptation au changement dans les données, gestion de la nouveauté… L’enjeu de ce point est de s’assurer que la qualité du système ne se dégradera pas significativement au cours du temps.
Dans certains domaines, l’ensemble des garanties à fournir sur l’environnement d’un algorithme d’apprentissage devra faire l’objet de procédures de certification.
L’ACCÈS AUX RESSOURCES EST CRUCIAL
Dans cette période d’émergence de l’apprentissage automatique, la priorité est donnée aux études dites de faisabilité, sur des modèles réduits (périmètre restreint des données en espace et en temps, et non prise en compte des contraintes d’opération).
Dans le domaine de l’IA, la formation d’excellence est le master MVA (Mathématiques-Vision- Apprentissage) de l’ENS Paris-Saclay qui, en 2017, a accueilli plus de 150 étudiants dont 60 polytechniciens. © ENS PARIS-SACLAY
Or, cette démarche permet au mieux de réaliser un état des lieux sur les données disponibles, mais ne permet pas réellement de rendre compte de ce qui est atteignable dans un fonctionnement industriel.
La question du passage à l’échelle (en espace et en temps) doit être intégrée dans la réflexion dès les premières étapes d’un projet.
Ainsi, l’accès à des moyens de calcul relevant du calcul de haute performance (HPC) peut se révéler critique pour certaines applications mais le dimensionnement de ces moyens est sans aucun doute très varié selon la nature et l’organisation des données, les choix algorithmiques (par exemple, nature du principe d’optimisation sous-jacent) et la résolution du compromis biais-variance, les contraintes opérationnelles portant sur l’actualisation et le déploiement de la règle de décision résultant de l’apprentissage.
Le lien entre apprentissage automatique et HPC est particulièrement intéressant puisque les infrastructures pour le HPC sont elles-mêmes des systèmes complexes qui produisent des données à appréhender et sujettes à la valorisation par apprentissage (contrôle d’expériences, maintenance préventive, etc.).
Enfin, les approches hybrides mêlant modélisation physique et exploitation des données expérimentales ou des relevés du terrain vont vraisemblablement se développer en interaction avec l’utilisation des grands calculateurs.
UN ENJEU DE TAILLE : LE FACTEUR HUMAIN
UN RÔLE POUR LES EXPERTS ?
La mise à contribution ou non d’experts « métier » (quand le sujet s’y prête) peut radicalement changer la complexité de la résolution algorithmique puisque cela revient à réduire drastiquement la dimension du problème (par exemple, en reconnaissance des formes, l’apprentissage sur les caractéristiques géométriques d’une forme est de bien moindre complexité que l’apprentissage sur la base des pixels de l’image).
Si les briques technologiques actuelles dans le domaine de l’IA présentent, sous réserve d’intégration, un potentiel quasiment illimité, les acteurs traditionnels, publics ou privés, tous secteurs d’activité confondus, peinent à trouver la voie pour s’équiper et se prémunir ainsi du risque d’intermédiation.
Il convient de s’intéresser aux évolutions attendues dans les postures et les métiers liés d’une manière ou d’une autre à l’intégration d’outils et de systèmes relevant de l’IA. Ainsi, on peut imaginer qu’un certain nombre de rôles vont émerger à l’occasion de la mise en place de tels systèmes.
- Il y a d’une part le sponsor, manager ou politique qui perçoit les enjeux stratégiques de l’IA pour son organisation, dimensionne le coût de développement, motive son organisation et facilite l’acceptabilité de la solution envisagée ;
- puis, le concepteur, expert en science des données, algorithmie de l’apprentissage, ingénierie des systèmes complexes, qui va construire et spécifier une solution ;
- l’intégrateur, l’expert informaticien capable d’implémenter le système dans une instanciation spécifique ;
- l’entraîneur, ingénieur spécialisé dans la gestion des données qui peut actualiser le système en couplage avec une base de données ;
- le superviseur, expert « métier » pouvant ajuster le comportement du système selon les retours d’expérience ;
- l’utilisateur, expert « métier » ou grand public qui interagit au quotidien avec le système, familier des capacités et des limites du système ;
- enfin, le juge, autorité morale ou légale qui apporte la garantie que le système respecte un certain code de conduite.
L’IA AU SECOURS DE L’HUMAIN FAILLIBLE ?
Par ailleurs, l’interaction croissante de l’humain avec des interfaces numériques aux aptitudes grandissantes va soulever des questions intéressantes sur l’ergonomie de cette relation.
LE PROCHAIN REMBRANDT
Le projet The next Rembrandt3 rend compte de la réalisation d’un nouveau tableau dans la continuité des œuvres du grand maître hollandais, mais qui n’aurait certainement pas vu le jour si Rembrandt n’avait pas réellement existé.
Faut-il passer le volant à l’homme pour gérer les 5 % des situations à risque ? Des faits récents montrent que les conséquences peuvent être désastreuses (voir, par exemple, les causes du crash du vol Paris-Rio). Il faut rechercher les mécanismes de cette tension au plus profond de la neurophysiologie du corps humain et des boucles sensorimotrices qui en régissent le comportement.
Outre les questions liées au pilotage des systèmes automatisés ou semi-automatisés, il y a également la question de l’impact à plus long terme de cette interaction : comment préserver un certain patrimoine intellectuel dans un monde sans experts et une capacité d’inventivité dans un univers où les technologies numériques risquent d’appauvrir notre expérience du monde sensible ?
L’humain sera-t-il remplacé ou augmenté par les technologies qu’il va créer ? © PICT RIDER
Par ailleurs, les systèmes dotés d’intelligence artificielle peuvent certes créer de la nouveauté mais uniquement dans la continuité de ce que l’humain a déjà créé.
En conclusion, les questions de fond subsistent : l’humain sera-t-il remplacé ou augmenté par les technologies qu’il va créer ? Les vieilles entreprises seront-elles remplacées par les jeunes entreprises opérant sur Internet, telles des pieuvres géantes ? L’histoire n’est pas encore écrite mais elle sera certainement très différente selon que le développement de l’IA intégrera ou non le facteur humain tant dans sa conception que dans la perception de ses usages à venir.
__________________________________
1. 1 exaoctet = 1 milliard de milliards d’octets.
2. Service de microtravail par crowdsourcing conçu pour accélérer l’annotation d’images sur le Web notamment.
3. https://www.nextrembrandt.com/