L’urgente nécessité d’une réappropriation publique de la régulation de l’IA
Dès lors que l’usage de l’intelligence artificielle devient massif, l’intervention publique est nécessaire pour imposer une certaine transparence et s’assurer que l’impact de ces outils reste conforme aux objectifs de politiques définis par la nation. Il faut, en particulier, éviter d’accroître les inégalités et la concentration des richesses.
Les adolescents américains regardent aujourd’hui davantage Youtube que la télévision ; Facebook est aussi devenu leur premier média d’information. Les contenus délivrés à chaque utilisateur sont choisis par un algorithme sophistiqué de recommandation, qui suggère des vidéos ou des informations proches de celles qu’il a déjà regardées.
Demain une intelligence artificielle (IA) plus sophistiquée encore pourra leur proposer proactivement ces contenus « personnalisés », dans une cohérence informationnelle parfaite – mais éminemment réductrice et partiale. Or, les chaînes de télévision ont des obligations en France de quotas de diffusion de programmes français ou européens ainsi que des limites en volume de publicité diffusée.
Le secteur de l’information télévisuelle ou écrite obéit à des règles déontologiques précises (celles du journalisme). Comment penser des objectifs de politiques publiques ou des règles « éthiques » pour ces algorithmes de recommandation de plus en plus complexes, aujourd’hui conçus par des ingénieurs et demain peut-être autodéfinis par une IA en fonction d’un simple objectif de volume de consommation ?
REPÈRES
La question de la maîtrise de la machine par l’homme revient régulièrement sur le devant de la scène avec les progrès de l’IA : les cris d’alarme d’entrepreneurs comme Elon Musk ou de scientifiques comme Stephen Hawking montrent que les problèmes imaginés ne sont pas qu’un fantasme.
La question sera notamment posée très vite avec les applications militaires (robots et drones militaires tueurs autonomes).
UN USAGE DE PLUS EN PLUS MASSIF
Aux algorithmes de recherche en ligne (comme celui de Google) s’ajoutent des algorithmes de recommandation (comme celui de Youtube ou de Waze) ou ceux de tri/filtre de l’information quotidienne (comme celui de Facebook ou de Twitter).
Facebook est devenu le premier média d’information des jeunes Américains. © ALESIAKAN / SHUTTERSTOCK.COM
Tant que ces nouveaux outils, plébiscités par les consommateurs, ne constituent qu’une alternative supplémentaire pour atteindre un objectif personnel donné, le rôle des pouvoirs publics ne peut être que d’accompagner leur développement, pour faire bénéficier de l’innovation à tous.
Mais dès lors que leur usage devient massif voire quasi incontournable, en raison d’effets sociaux de réseau (« Je privilégie l’outil que mes pairs utilisent car mon bénéfice immédiat y est plus grand ») et de captivité (« Je ne vais pas changer d’outil car il connaît mon historique personnel et peut me faire de meilleures recommandations »), alors la question d’une intervention publique se pose, pour assurer que l’impact sociétal et économique de ces outils reste conforme aux objectifs de politiques publiques définis par la nation.
Cette réflexion s’étend sans peine à d’autres applications à base d’IA plus ou moins sophistiquées, existantes ou à venir.
LE SECTEUR PUBLIC CONCERNÉ
Les administrations publiques elles-mêmes sont d’ailleurs confrontées de plus en plus à ces questions. Les algorithmes publics – encore relativement simples et surtout déterministes sans mécanismes d’apprentissage – se développent dans de nombreux domaines.
“ Les inégalités et la concentration des richesses pourraient être accrues à cause d’applications à base d’IA ”
Ainsi, feu admission postbac (APB) utilise des règles de priorité pour attribuer aux étudiants candidats les places disponibles à l’université. Des algorithmes de scoring (ou cotation des demandes) se développent au niveau local, par exemple pour l’attribution des logements sociaux (Paris) ou des crèches (Lyon, Nantes…).
Les caisses de Sécurité sociale ou l’administration fiscale ont recours au data mining pour détecter d’éventuels abus et utilisent des algorithmes pour repérer automatiquement les cas de fraudes les plus probables.
Certaines administrations mettent en place des chatbots (robot logiciel qui peut mener une conversation en ligne avec l’usager pour répondre à ses interrogations).
BESOIN DE TRANSPARENCE
Ces exemples d’algorithmes publics illustrent le besoin de transparence sur leur usage, qui a déjà émergé dans le débat public. Le débat deviendra d’autant plus vif que ces algorithmes seront plus sophistiqués.
Il existe à plus long terme un risque crédible de perte de contrôle d’une IA « forte » (consciente et autoapprenante), qui rendra nécessaire une régulation. L’accroissement possible des inégalités et de la concentration des richesses à cause d’applications à base d’IA est également mis en lumière par des équipes scientifiques britanniques.
La faible diversité culturelle et sociale des experts en IA, recrutés en très grande majorité par le secteur privé, pourrait, selon ces experts, introduire, même inconsciemment, de sérieux biais sociaux de comportement d’intelligence artificielle.
Waze peut aider les conducteurs à s’échapper des embouteillages mais en créer d’autres ailleurs. © ANNACOVIC
ITINÉRAIRE BIS
Quand, alors que je suis retenu par des embouteillages sur l’autoroute, Waze me propose d’en sortir par un itinéraire bis qui traverse nombre de petits villages proches, le bénéfice est évident pour tous (je libère de la place sur l’autoroute et j’optimise mon trajet).
Mais si la majorité des conducteurs fait de même, une externalité négative est également créée : les habitants des villages concernés voient défiler un trafic dense sur des petites routes communales, ce qui détériore une chaussée entretenue et financée en vue d’un trafic faible.
UNE RÉFLEXION ÉTHIQUE ET JURIDIQUE
Si les applications à base d’IA sont naturellement prometteuses en termes de bénéfices d’usage pour le plus grand nombre, les problèmes sociaux, éthiques et politiques soulevés sont réels. Freiner ou empêcher leur développement semble autant voué à l’échec que dommageable pour la société, mais une démarche publique proactive de réflexion éthique et juridique est nécessaire pour permettre une régulation pertinente et socialement juste de ces applications.
“ À partir d’octobre 2018, les administrations auront l’obligation de publier d’elles-mêmes les principaux codes sources de leurs logiciels ”
Le secteur privé, conscient des risques à long terme et des enjeux d’acceptabilité sociale, s’est déjà emparé du sujet, à l’image de l’initiative OpenAI d’Elon Musk. Mais la décision publique ne peut s’alimenter seulement de travaux menés et financés par des acteurs privés du secteur.
La réponse publique à ces problèmes a commencé à prendre forme en France : la loi pour une République numérique du 7 octobre 2016 a ébauché une forme de régulation de certaines plateformes numériques. Elle oblige notamment à une transparence accrue des critères de classement de l’information, en s’appuyant sur le cadre existant du droit de la consommation.
Néanmoins, ces premiers pas doivent venir nourrir une ambition plus forte au niveau européen. Le programme du candidat Emmanuel Macron prévoyait d’ailleurs la création d’une Agence européenne de régulation des plateformes : elle reste aujourd’hui à concrétiser.
UN PREMIER CADRE LÉGAL
Puisqu’il faut toujours commencer par balayer devant sa propre porte, un cadre légal a été instauré pour rendre transparents les algorithmes publics, et doit désormais être mis en œuvre.
BIAIS SOCIAL
Le dépôt en 2015 par Facebook d’un brevet visant à permettre au secteur bancaire de qualifier automatiquement la solvabilité d’un client (et donc le taux minimum de ses emprunts) à partir de celle de ses amis sur le réseau social, ou l’IA de Microsoft, Tay, qui reproduisait en 2016 des comportements sexistes et racistes après apprentissage sur Twitter, mettent en évidence des risques de reproduction d’inégalités par l’IA.
L’article 4 de cette loi oblige ainsi à ce qu’« une décision individuelle prise sur le fondement d’un traitement algorithmique comporte une mention explicite en informant l’intéressé » et que « les règles définissant ce traitement […] sont communiquées à l’intéressé s’il en fait la demande ». Cela couvre par exemple l’attribution d’une place à l’université ou d’un logement social.
L’article 2 étend aussi le principe d’open data aux codes sources produits ou reçus par une administration publique, sous réserve des secrets protégés par la loi. À partir d’octobre 2018, les administrations auront l’obligation de publier d’elles-mêmes les principaux codes sources de leurs logiciels (principe d’open data par défaut).
DES IDÉES À CONCRÉTISER
Il reste énormément à faire néanmoins sur l’ensemble des applications de l’IA, et la récente prise de conscience des pouvoirs publics en France est encourageante :
L’attribution de logements sociaux fait de plus en plus appel à des algorithmes sophistiqués. © SÉBASTIEN DURAND / SHUTTERSTOCK.COM
La loi pour une République numérique a confié à la Cnil la mission de conduire une réflexion sur les enjeux éthiques soulevés par l’évolution des technologies numériques, les parlementaires de l’OPECST ont produit en mars 2017 un rapport sur l’IA (au moment même où le Parlement européen demandait une législation éthique sur les robots), le précédent gouvernement a mené l’initiative #FranceIA début 2017 (en cours d’approfondissement par le nouveau gouvernement), le Conseil d’État vient de sortir son étude annuelle sur le thème « Puissance publique et plateformes numériques », le Conseil national du numérique de lancer une consultation publique sur la « loyauté des plateformes »…
Ce foisonnement de réflexions doit aujourd’hui être rapidement concrétisé par une ligne d’action précise et coordonnée (faute de quoi les acteurs privés décideront de facto de ce qui est acceptable ou non, de par le déploiement des applications produites), tout en prenant en compte les réelles opportunités économiques qu’offre ce secteur, sur lequel la France a de nombreux atouts pour se positionner parmi les pays leaders.