La théorie économique à l’épreuve de la crise financière
La crise a amené une remise en cause des théories économiques dominantes. L’économie bancaire a un rôle préventif faible ; la modélisation monétaire reste trop idéalisée ; et la finance de marché fait encore une utilisation abusive de la notion de marché efficient. De nouvelles approches théoriques et pratiques sont à inventer.
REPÈRES
L’économie bancaire, ou plus généralement l’économie de l’intermédiation, est la branche de l’économie qui étudie les institutions nécessaires au bon fonctionnement des marchés financiers. L’économie monétaire étudie l’influence de la monnaie sur l’économie d’un pays ou d’un ensemble de pays. Quant à la finance de marché, elle est essentiellement l’application du cadre microéconomique néoclassique à la valorisation des actifs financiers.
Les chocs économiques et financiers engendrent souvent – mais pas systématiquement – une remise en question profonde des théories économiques dominantes. Les théories dominantes sont celles sur lesquelles les gouvernements et les entreprises fondent leurs analyses et décisions économiques. Ils sont souvent bien davantage influencés par la théorie économique qu’ils ne le réalisent ou ne l’admettent.
L’épreuve des faits
Une situation enviable
Cette modération des chercheurs est-elle justifiée ? Reflète-t-elle au contraire l’incapacité à se remettre en question d’une communauté scientifique qui bénéficie d’une situation enviable, grisée par son influence significative sur la conduite des affaires, en particulier dans le monde anglo-saxon ?
Comme l’a écrit Keynes : « Les hommes d’action qui se croient parfaitement affranchis des influences doctrinales sont d’ordinaire les esclaves de quelque économiste passé. » Au cours des années soixante-dix par exemple, plusieurs des grands principes en vigueur à l’époque n’ont pas résisté à l’épreuve des faits.
La matière première de la finance est l’information
Le mélange de stagnation et d’inflation qui caractérisait alors de nombreuses économies occidentales a conduit à remettre en question le keynésianisme. Plusieurs des cadres théoriques qui structurent aujourd’hui fortement l’organisation de nos économies se sont ainsi imposés durant cette période.
Une recherche fondamentale en économie
La récente crise mondiale, bancaire puis économique, a donné lieu à une forte remise en question de ces cadres théoriques dans la presse généraliste. Pour la première fois depuis plusieurs décennies, des organes de presse tels que The Economist ou The Financial Times ont consacré de nombreuses pages à des débats méthodologiques sur la recherche fondamentale en économie. Ces débats ont mis en lumière des points de vue radicaux, allant jusqu’à invoquer la nécessité d’une refondation complète de la discipline.
La grande majorité de la communauté scientifique ne prend pas au sérieux ces critiques les plus radicales. Un grand nombre d’économistes reconnaissent toutefois que la crise a mis en évidence la nécessité de repousser rapidement les limites des théories actuellement en application en matière de régulation financière et de politique monétaire.
Après une expérience de régulateur prudentiel en France, j’ai mené des recherches sur la stabilité financière dans les départements de finance de l’université Carnegie Mellon, berceau de la nouvelle macroéconomie dans les années soixante-dix, puis à la London Business School où je suis arrivé lors de l’apogée de la City, qui attribuait alors sa supériorité sur Wall Street à son choix d’un modèle de régulation light touch.
À la lumière de cette expérience, il me semble probable que la crise aura un impact profond sur les théories bancaire et monétaire. Je crains cependant que la finance de marché ne soit pas en mesure d’effectuer un aggiornamento pourtant souhaitable.
Asymétrie de l’information
Prenons l’exemple de la titrisation. La banque à l’origine des créances titrisées dispose d’informations privilégiées par rapport aux autres parties prenantes à la transaction. La banque est en effet la seule partie en contact direct avec les emprunteurs. Elle est donc seule à même de contrôler leur qualité moyenne ex ante et de gérer efficacement les incidents de paiement ex post. Donc, si les banques vendent purement et simplement la quasi-intégralité de leurs prêts aux emprunteurs à risque immédiatement après les avoir accordés, on peut s’attendre à ce qu’elles perdent toute incitation à produire des prêts de qualité acceptable.
Anticipant cela, les investisseurs demandent des primes de risque plus importantes, ce qui conduit les banques à ne pas titriser la meilleure partie de leurs portefeuilles. Cela dégrade la qualité moyenne des créances titrisées, ce qui contribue à accroître encore les primes de risque. Ce cercle vicieux entre les croyances des acheteurs et les décisions des vendeurs conduit à la « prophétie autoréalisatrice » d’un effondrement du marché de la titrisation.
Économie bancaire : quantifier pour convaincre
Des phénomènes prévisibles
Les phénomènes de friction informationnelle sont bien connus des économistes de l’intermédiation. Les meilleurs économistes de la banque, tels Douglas Diamond à Chicago ou Jean-Charles Rochet à Toulouse, d’ordinaire peu diserts dans la presse généraliste, n’ont eu qu’à dérouler des analyses relativement classiques dans le monde académique pour expliquer les phénomènes observés en 2007- 2008 au grand public. Rien de nouveau sous le soleil !
Dans les modèles économiques élémentaires, les agents échangent des promesses de consommation future (des actifs financiers) contre des biens de consommation courants aussi facilement que le boulanger et le savetier d’Adam Smith échangent leurs produits.
En réalité, les marchés financiers sophistiqués et liquides (la plupart du temps!) des économies développées reposent sur une infrastructure lourde et complexe de normes juridiques et comptables, de contrats et d’institutions.
En particulier, les institutions financières telles que les banques ou les compagnies d’assurances prennent des risques importants compte tenu des différences entre les promesses qu’elles donnent et celles qu’elles reçoivent. Par exemple, les banques acceptent des promesses illiquides (des remboursements de prêts) mais émettent des promesses liquides (des dépôts à vue). Pourquoi une infrastructure financière aussi lourde et fragile est-elle nécessaire pour permettre aux agents d’échanger de la consommation future contre de la consommation courante ?
La cupidité excessive et l’opportunisme politique ont indéniablement joué un rôle
Les économistes de l’intermédiation s’accordent sur l’hypothèse que cette infrastructure permet de remédier à des imperfections de marché qui seraient plus coûteuses encore si elles n’étaient pas traitées. La matière première de la finance est l’information. L’imperfection qui prévaut principalement dans les marchés financiers est, selon cette théorie, la répartition inégale de l’information entre les agents. Les frictions informationnelles fournissent un cadre d’analyse puissant de la plupart des aspects de la crise, notamment des problèmes de coordination tels que la course au guichet sur Northern Rock, ou les spirales au cours desquelles la baisse des prix des actifs rend leur financement plus difficile, ce qui conduit à des baisses ultérieures plus importantes.
Des modèles trop abstraits
Développer une nécessaire quantification
Les économistes de l’intermédiation comprennent très bien ce qui peut se passer si le système financier ignore, comme il l’a fait avant la crise, les questions d’information imparfaite et d’incitation. Mais pour l’instant ils n’ont pas su développer des approches qui permettent de quantifier la fréquence et la gravité de ces problèmes potentiels : d’où le peu d’écho donné à leurs travaux.
Comme les assureurs utilisent des systèmes de franchise pour discipliner leurs assurés et les inciter à révéler leur information, le système financier dans son ensemble doit mettre en oeuvre des mécanismes d’incitation optimaux pour réduire l’impact de l’information asymétrique. L’économie de l’intermédiation élabore de tels mécanismes.
Cette gestion asymétrique crée des incitations perverses pour le secteur financier
Dès lors, pourquoi cette théorie bien établie a‑t-elle eu aussi peu d’impact avant la crise ? Pourquoi n’at- elle pas été utilisée comme cadre de référence par les régulateurs et l’industrie pour limiter les excès sur le marché du crédit ? La cupidité excessive et l’opportunisme politique des uns ou des autres ont indéniablement joué un rôle.
Je crois néanmoins qu’il y a également des raisons profondes, liées à la nature même de la théorie, et auxquelles les économistes de l’intermédiation peuvent et doivent remédier à moyen terme. Parce qu’elle utilise des outils microéconomiques relativement complexes de théorie des jeux et de théorie des contrats, l’économie bancaire s’est développée autour de modèles trop abstraits pour qu’il soit possible de quantifier leurs prédictions. C’est la raison pour laquelle la théorie de l’intermédiation n’a qu’un impact en pratique limité sur les choix en matière de régulation financière.
Convergences monétaires
La conduite de la politique monétaire diffère encore largement d’une Banque centrale à l’autre, et le débat sur les politiques optimales reste ouvert et vif. Il est toutefois largement admis que l’énoncé d’objectifs clairs en matière d’inflation par une Banque centrale indépendante a été un facteur de stabilisation macroéconomique important.
En somme, l’économie bancaire permet de faire des autopsies intéressantes, mais ne joue guère de rôle prophylactique sous sa forme actuelle trop qualitative. Développer des approches quantitativement plus convaincantes en théorie de l’intermédiation est un défi de théorie économique important et difficile. Il paraît toutefois réalisable à moyen terme, d’autant plus que la crise a sans doute convaincu davantage de praticiens du rôle crucial en finance des problèmes d’incitation et d’asymétrie d’information
Une avancée indéniable de la macroéconomie depuis les années soixante-dix, tant sur le plan de la recherche qu’en matière de politique économique, est la mise en oeuvre de politiques monétaires qui garantissent une plus grande stabilité macroéconomique et permettent un meilleur lissage du cycle économique.
Économie monétaire : la stabilité en question
Depuis la baisse soudaine des taux d’intérêt en 1998 par Alan Greenspan (pour prévenir une crise de liquidité majeure suite aux difficultés du hedge fund LTCM) jusqu’à la généralisation actuelle de politiques monétaires dites non conventionnelles, ce satisfecit accordé à l’économie monétaire en termes de stabilisation économique s’accompagne toutefois de critiques de plus en plus sévères quant à son rôle dans l’accroissement de l’instabilité financière.
Une vision asymétrique
Éviter la contraction du crédit
Ben Bernanke, avant d’être président de la Réserve fédérale, a été l’un des meilleurs analystes des phénomènes d’amplifications des chocs économiques par le biais de la contraction du crédit. Ses travaux sur la crise de 1929 ont notamment conclu que l’absence d’assouplissement de la politique monétaire a joué un rôle majeur dans l’ampleur et la durée de la crise. Vers la fin des années 1990, alors qu’il était encore économiste à Princeton, Bernanke a également cosigné plusieurs articles académiques tentant d’établir l’effet globalement négatif d’une politique monétaire qui s’emploierait à contenir les bulles par des hausses de taux d’intérêt.
Alan Greenspan a développé une vision très asymétrique de la stratégie optimale d’une Banque centrale face à de larges fluctuations des prix d’actifs. D’une part, il estime dangereux d’essayer de prévenir la formation de bulles avec l’instrument du taux d’intérêt, car même si c’était souhaitable en théorie, il serait de toute façon trop difficile d’identifier les bulles suffisamment tôt en pratique.
D’autre part, lorsque les valeurs d’actifs et la liquidité chutent brutalement, il y a lieu de baisser agressivement les taux d’intérêt pour combattre l’impact récessif d’une contraction excessive du crédit.
De nombreuses voix, initialement extérieures au monde de la recherche, et plus récemment également en son sein, soulignent maintenant que cette gestion asymétrique de l’instabilité financière par la Banque centrale crée des incitations perverses pour le secteur financier.
Elle incite effectivement les opérateurs à se coordonner pour prendre des positions très risquées et fortement corrélées. Celles-ci apportent de larges profits lorsqu’elles ont des résultats positifs. Elles offrent des conditions de refinancement artificiellement avantageuses lorsqu’elles génèrent des pertes.
Une modélisation difficile, raisonnable et consensuelle
Le développement d’un cadre théorique permettant de traiter cette question me paraît être une évolution nécessaire de l’économie monétaire mise en lumière par la crise.
La finance de marché se trouve dans une impasse conceptuelle
Il y a lieu de proposer des objectifs de stabilité financière et de les coordonner avec les objectifs macroéconomiques. Il y a également lieu de définir les modalités de leur mise en oeuvre. C’est une tâche théorique difficile car les modèles de macroéconomie monétaire les plus largement appliqués utilisent une représentation très idéalisée des marchés financiers. Nous sommes donc assez loin d’être en mesure d’introduire une modélisation raisonnable et consensuelle de l’instabilité des marchés financiers dans les modèles monétaires. Il me paraît malheureusement illusoire d’espérer la formulation prochaine d’un tel modèle par les spécialistes de la finance de marché.
Finance de marché : une poussée d’aversion au risque
Valorisation des actifs financiers
La finance de marché est essentiellement l’application du cadre microéconomique néoclassique à la valorisation des actifs financiers, c’est-à-dire à la détermination du prix en termes de consommation courante de promesses incertaines de consommation future. L’hypothèse fondamentale de cette approche est que pour chaque actif il existe un prix de marché qui reflète toute l’information publique pertinente, et auquel il est possible d’échanger sans frictions des quantités arbitrairement larges.
La finance de marché se trouve dans une situation exactement symétrique de celle de l’économie de l’intermédiation. Son influence sur la marche des affaires a été plus importante que celle de toute autre branche de l’économie au cours des vingt dernières années. Les concepts qu’elle a développés sont aujourd’hui la lingua franca dans laquelle les gestionnaires d’actifs expriment leurs stratégies d’investissement.
Toutefois, la crise a révélé, si besoin était, que la finance de marché se trouve aujourd’hui dans une impasse conceptuelle dans laquelle je crains qu’elle ne reste longtemps. La finance de marché repose sur l’hypothèse dite d’efficience des marchés : le prix de marché tient compte de l’information publique.
Dans ce cadre, ce sont seulement les préférences des investisseurs, c’est-à-dire leur attitude générale vis-à-vis du risque et de l’incertitude, qui déterminent les rendements des actifs. Par hypothèse, il ne peut y avoir d’instabilité financière. Si le prix d’un actif fluctue largement alors qu’il n’y a aucune information nouvelle sur les cash-flows futurs auxquels il donne droit, c’est simplement parce que les préférences des agents et leur appétit pour le risque fluctuent largement au cours du temps. L’instabilité financière reflète simplement le fait que nous confions notre épargne à de grands cyclothymiques.
Marché efficient et marché réel
Mais, sans doute victime de son succès, la finance néoclassique a joué à mon avis un rôle néfaste dans le développement de la crise, dû à une interprétation abusive de la notion de marché efficient.
Il est toujours tentant de prétendre que ce que l’on comprend mal n’existe pas
La notion de marché efficient est, à l’origine, un simple choix de modélisation. Il s’agit d’une approximation qui permet de simplifier grandement les questions de valorisation d’actifs et de développer des modèles que les praticiens peuvent mettre en oeuvre aisément. Un glissement spectaculaire s’est opéré, qui confère à la notion de marché efficient non plus le statut d’hypothèse de travail, mais celui de loi fondamentale et universelle de la finance aux yeux de nombreux praticiens et professeurs de business schools.
Il est vrai qu’une large littérature empirique a établi qu’un investisseur qui ne dispose que de l’information accessible au public n’a guère de chances de trouver des stratégies d’investissement lui permettant de » battre le marché ».
Outre le lobbying d’une partie de l’industrie financière, deux facteurs liés à l’état de la science favorisent à mon avis cette dérive de la notion de marché efficient. D’abord, nous ne disposons pas d’un modèle théorique simple et consensuel de dynamiques spéculatives au cours desquelles des périodes de juste prix succèdent à des phénomènes de bulles et krachs.
Il est toujours tentant de prétendre que ce que l’on comprend mal n’existe pas. Ensuite, il n’est pas possible de tester l’existence de bulles puisque le résultat d’un tel test a toujours deux interprétations : soit il y a une bulle, soit le modèle » sans bulles » sous-jacent est incorrect.
Des préférences qui ne sont pas observables
En d’autres termes, il est toujours possible de faire des hypothèses sur les préférences des investisseurs qui justifient n’importe quel niveau de valorisation puisque ces préférences ne sont pas observables : les hypothèses sur les préférences sont difficilement testables.
J’ai malheureusement le sentiment que la majorité des leaders scientifiques de la finance de marché vont s’arc-bouter sur cette version extrémiste et stérile de la notion de marché efficient pendant encore longtemps.
Descendre de sa tour d’ivoire
La crise a mis en lumière les limites actuelles de deux branches de l’économie, la finance de marché et la macroéconomie monétaire, qui ont connu des avancées et une influence sans commune mesure lors des trente dernières années.
La crise montre surtout que l’économie de l’information appliquée à la finance doit descendre de sa tour d’ivoire et exercer une influence grandissante, tant théorique que pratique, sur l’économie monétaire et financière.
La Toulouse School of Economics, leader mondial en économie de l’information, jouera, je l’espère, un rôle déterminant dans ces évolutions !
BIBLIOGRAPHIE
Emmanuel Farhi (Harvard) et Jean Tirole (Toulouse) offrent un modèle simple et clair des incitations à la prise de risque excessive dans Collective Moral Hazard, Maturity Mismatch, and Systemic Bailouts.