Vers un changement de paradigme en recherche pharmaceutique
REPÈRES
Les projets qui arrivent au marché sont grevés du poids du coût des projets qui échouent en route. Ces taux n’ont cessé d’augmenter comme le souligne une étude réalisée en 2005 par le Département économique de l’université de Vérone. La Great World Pharma Co lance maintenant 600 projets pour en réussir un, alors que 100 suffisaient en 2004 et 10 en 1990.
REPÈRES
Les projets qui arrivent au marché sont grevés du poids du coût des projets qui échouent en route. Ces taux n’ont cessé d’augmenter comme le souligne une étude réalisée en 2005 par le Département économique de l’université de Vérone. La Great World Pharma Co lance maintenant 600 projets pour en réussir un, alors que 100 suffisaient en 2004 et 10 en 1990.
Ce qui est particulièrement frappant est la proportion grandissante d’abandon des projets les plus avancés, en « phase 2 » et pire en « phase 3 », à des stades où les frais engagés sont les plus importants. Cf. tableau.
50 % des projets chutant en » phase 3 » le font pour non-démonstration d’une supériorité au placebo ; 16 % supplémentaires échouent pour non-supériorité à un comparateur. Les autres échecs sont dus à des non-supériorités sur le plan toxicologique.
L’industrie pharmaceutique est dans une impasse. La crise de productivité est criante, le nombre de nouvelles entités chimiques ou biochimiques enregistrées subit depuis 1996 une décrue spectaculaire. Le coût « complet », c’est-à-dire la somme des budgets annuels de R&D des vingt » majors » pour les nouvelles entités enregistrées, a crû de façon spectaculaire, de 500 millions de dollars en 1990 à plus de 4 milliards de dollars en 2008.
Une politique de « mégafusions » dont le manque de créativité est avéré
De nombreux facteurs y ont contribué, complexité des études cliniques, augmentation de barrières de sécurité toxicologiques, etc.
La parade des grands groupes de 1995 à 2008 fut de supposer que plus de produits en développement conduiraient plus sûrement à l’enregistrement d’un ou deux blockbusters qui paieraient l’effort global. Cette stratégie, encouragée par les investisseurs et les agences de notation, a conduit la profession dans une politique de « mégafusions », dont le manque de créativité est avéré. On ne peut s’empêcher de penser aux célèbres essais de fusées interplanétaires des Shadoks : plus ça rate, plus ça a des chances de réussir.
Un problème scientifique
Cette situation préoccupante amène à se poser la question : comment se fait-il que des molécules sélectionnées pour leur activité extrêmement élevée sur une cible pharmacologique clairement impliquée dans la pathologie visée, ainsi que pour une sélectivité élevée vis-à-vis de cette cible, se révèlent, lors de grandes études cliniques mettant en jeu des milliers de patients, statistiquement inefficaces sur le plan thérapeutique ?
Pour quelques auteurs, la réponse est claire : il ne s’agit pas de problèmes sociétaux, ou organisationnels, ou économiques, mais clairement de problèmes scientifiques. Si l’on est contraint à démarrer à risque un projet sur lequel pèsent de lourdes incertitudes, c’est parce que le corpus scientifique sur lequel il est fondé reste largement incomplet et fragile.
Efficacité douteuse et toxicité
Quelques publications relativement récentes pointent du doigt le problème des bases scientifiques. Pour le lecteur pressé je n’en citerai qu’une, celle d’Andrew Hopkins, dont voici le résumé en traduction libre :
« Le paradigme dominant, en découverte de nouveaux médicaments, est la conception de ligands à sélectivité maximale pour agir sur des cibles individuelles. Or, déjà de nombreux médicaments ont comme mode d’action la modulation de protéines nombreuses plutôt que d’une cible unique. Les progrès en biologie des systèmes nous révèlent une robustesse phénotypique ainsi qu’une structuration en réseaux qui font plus que suggérer pourquoi des composés chimiques, pourtant d’une exquise sélectivité, montrent de faibles efficacités cliniques, inférieures à celles de médicaments aux cibles multiples. Cette nouvelle appréciation du rôle de la polypharmacologie a des conséquences pour confronter les deux facteurs majeurs d’échec lors du développement d’un nouveau médicament – une efficacité douteuse, et sa toxicité. L’élargissement de la voie d’accès à des cibles « médicamentalisables » passe par l’intégration tant de la polypharmacologie que de la biologie des réseaux. Cependant, la conception rationnelle des diverses polypharmacologies bute sur la nécessité de nouvelles méthodes de validation des cibles, qu’il importe d’associer. Et sur l’optimisation simultanée de multiples relations structureactivité, tout en maintenant les propriétés d’un médicament. Les progrès en ces domaines creusent les fondations de l’activation de réseaux, un nouveau paradigme pour la pharmacologie. »
La pharmacologie des réseaux biologiques
Les associations médicamenteuses ont été utilisées de façon empirique depuis longtemps
La pharmacologie des réseaux a commencé à s’engager sur deux pistes convergentes : la première, celle des « pléothérapies » qui associent en un même produit pharmaceutique plusieurs principes actifs visant quelques nœuds du réseau biologique, choisis pour leur participation à la manifestation de la pathologie visée.
Ces principes actifs peuvent être des composés déjà utilisés, éventuellement dans d’autres pathologies (repositionnement). Les doses de chaque principe actif sont en général inférieures à celles recommandées pour chaque composé utilisé seul. L’utilisation d’associations médicamenteuses a été préconisée de façon empirique depuis longtemps, ne serait-ce que dans les médecines traditionnelles, ou plus récemment en thérapeutique moléculaire (HIV, hypertension, diabète, etc.). Une variante, souvent pratiquée en oncologie, met en jeu l’association entre une nouvelle molécule, ou éventuellement une molécule abandonnée pendant un projet de développement, et des molécules anciennes. Plus rare est l’association entre deux molécules nouvelles.
Une seconde piste
Un brillant avenir pour la chimie médicinale
La seconde piste est celle des molécules multicibles. Il y a là un défi posé aux chimistes :
– obtenir par modulation chimique une molécule d’affinité et de sélectivité très élevée pour une cible, disposant en plus des propriétés pharmacocinétiques satisfaisantes ;
– changer le fusil d’épaule et obtenir des molécules d’affinités modérées sur une collection de cibles différentes.
Hopkins fait justement remarquer, dans l’article cité en encadré, que seules des molécules de masse moléculaire réduite auront la plasticité nécessaire. On est là très loin des anticorps monoclonaux visant exclusivement une seule cible.
L’apport de la génétique des populations
Faire parler l’ADN pour circonscrire les gènes incriminés. © ISTOCKPHOTO |
À la question « Comment déterminer ce réseau biologique des macromolécules impliquées dans une pathologie ? », on a répondu d’abord par la mise en oeuvre longue et délicate de l’étude des interactions protéine-métabolite, protéine-protéine ou protéine-acides nucléiques. Puis les études de transcription dans une famille de cellule déterminée utilisant des puces à ADN ont permis des progrès plus rapides.
Finalement, les méthodes de la génétique des populations permettent de « faire parler l’ADN ». Un article d’Éric Schadt explicite bien cette méthode ainsi qu’une conférence et un brevet de Daniel Cohen. La comparaison des variations alléliques des SNP (Single Nucleotide Polymorphism) des génomes complets des sujets d’une population de malades atteints d’une pathologie à celles des sujets d’une population « saine » permet de circonscrire un réseau de quelques centaines de gènes dont le niveau d’expression contribue à la pathologie visée. Les personnes intéressées peuvent rentrer dans la bibliographie sur le mot-clef GWAS (Genome- Wide Association Studies).
Ces approches vont se concrétiser dans les années à venir, et elles permettent, à rebours de l’engouement actuel pour les médicaments biologiques, de prédire un brillant avenir pour la chimie médicinale.