Durant les années soixante-dix, les monétaristes lancèrent les premières attaques contre les keynésiens orthodoxes, mais ce sont les nouveaux classiques (avec pour chef de file Robert Lucas) et les théoriciens des cycles d’affaires réels (notamment Finn Kydland et Edward Prescott), qui lui assénèrent les coups fatals en parvenant à imposer une nouvelle approche, d’inspiration walrasienne, qui met l’accent sur les fondements microéconomiques des modèles. Par la suite, une nouvelle génération d’économistes, qualifiés de « nouveaux keynésiens », continua de poursuivre d’une certaine façon le programme des vieux keynésiens orthodoxes, mais en veillant à microfonder leurs modèles et en utilisant une partie de la méthodologie de la nouvelle école classique et de la théorie des real business cycles, notamment le recours aux anticipations rationnelles. La théorie des cycles d’affaires réels a suscité de fortes critiques de la part de certains nouveaux keynésiens, par exemple de Larry Summers (1986), mais cela n’a pas empêché ultérieurement une certaine convergence entre ces deux courants, notamment à travers le développement des modèles dynamiques stochastiques d’équilibre général (DSGE).
Comme le rappelle Kevin Hoover (2021), un modèle DSGE se compose d’un ensemble d’équations reliant une poignée de variables macroéconomiques, comme le PIB, l’emploi, la consommation, l’investissement et le taux d’intérêt. Il cherche à mimer le comportement de l’économie en utilisant un « agent représentatif », modélisé comme un microéconomiste modéliserait le comportement d’un individu : celui-ci a des préférences, incarnées par sa fonction d’utilité, et il maximise son utilité en fonction de son budget, en l’occurrence le PIB. Il prend ses décisions pour la période courante et les suivantes en s’appuyant sur l’information courante et en formant des anticipations rationnelles. Il peut commettre des erreurs, mais celles-ci sont aléatoires et il élabore ses anticipations en cohérence avec sa compréhension, parfaite, du fonctionnement de l’économie. Ou, pour reprendre Hoover, « l’agent représentatif n’est pas seulement à la fois un consommateur, un travailleur et un investisseur, il est également économiste ».
Les modèles DSGE sont directement inspirés des modèles d’équilibre général walrasiens et plus exactement des modèles de la théorie des cycles réels, dont ils gardent des éléments comme l’approche dynamique et stochastique, l’optimisation intertemporelle, les anticipations rationnelles et l’ajustement des marchés, mais ils incorporent aussi des éléments « keynésiens » comme la concurrence imparfaite et des rigidités nominales rendant les prix visqueux (1). Ainsi, à partir des années quatre-vingt-dix, le développement d’une telle classe de modèles laissait suggérer une véritable convergence des nouveaux classiques et des nouveaux keynésiens, non pas forcément en termes de conclusions et de recommandations en matière de politique économique, mais dans l’usage d’une même méthodologie : libre à un économiste d’ajouter telle ou telle perturbation à un modèle DSGE pour en voir les implications macroéconomiques. Certains évoquèrent une « nouvelle synthèse néoclassique » [Goodfriend et King, 1997] en référence à la « synthèse néoclassique » des décennies de l’immédiat après-guerre ; keynésiens orthodoxes et monétaristes pouvaient alors utiliser le même cadre théorique, voire le même modèle, comme le modèle IS-LM. C’est dans un tel contexte qu’Olivier Blanchard (2008) jugeait que « l’état de la macroéconomie est bon ».
La crise financière mondiale semblait pour beaucoup avoir ébranlé l’idée d’une nouvelle synthèse. Les modèles DSGE ont en l’occurrence fait l’objet de critiques virulentes, notamment de la part d’économistes comme Anton Korinek (2015) et Joseph Stiglitz (2017). En raison de l’irréalisme de leurs hypothèses et de leur usage répandu au sein du monde universitaire et des banques centrales, les modèles DSGE ont été accusés d’avoir amenés les économistes et les institutions en charge de la politique économique à ignorer l’accumulation des déséquilibres macrofinanciers qui finirent par entraîner la crise et de ne leur avoir été qu’un piètre guide lors de celle-ci. En effet, dans leur version de base, les modèles DSGE sont dénués de secteur financier, si bien qu’ils ne sont pas appropriés pour étudier le risque d’instabilité financière, observer les effets d’une crise financière sur l’économie réelle ou déterminer comment devraient réagir les autorités pour contenir une crise financière et ses répercussions réelles. L’hypothèse d’un agent représentatif aux anticipations rationnelles et à la durée de vie infinie permet difficilement de faire émerger des phénomènes de bulles spéculatives ou de prendre en compte le fait qu’une partie de la population puisse être contrainte en termes de liquidité. L’absence de toute borne inférieure sur laquelle pourrait buter les taux d’intérêt nominaux amène à surestimer la capacité de la politique monétaire à stabilité l’activité économique et l’inflation, etc.
Malgré ces critiques, les modèles DSGE n’ont pas été abandonnés. Il faut dire que certaines critiques ont été exagérées ou qu’elles n’ont plus vraiment lieu d’être. Par exemple, Hoover juge que les détracteurs des modèles DSGE exagèrent leur importance dans la mise en œuvre des politiques économiques. En effet, les institutions en charge de la politique économique, notamment les banques centrales, n’utilisent pas seulement des modèles de type DSGE. Surtout, les décideurs ne s’appuient pas seulement sur les modèles pour prendre leurs décisions ; ils utilisent d’autres sources d’analyses et d’informations. Et leurs décisions ne sont pas le fruit d’une pure analyse économique ; elles sont en partie politiques.
D’autre part, les partisans du modèle DSGE reconnaissent qu’il n’est pas adéquat pour étudier les crises financières s’il n’intègre pas un secteur financier. Surtout, ils ne sont guère restés passifs face à l’inadaptation de leurs modèles lors de la crise et à la montée des critiques : ils les ont améliorés. Par exemple, comme l’ont montré Christiano et alii (2018) et Jordi Galí (2018) à travers leur passage en revue de la littérature, ils ont plus fréquemment intégré un système financier et introduit des frictions financières dans leur modélisation ; afin de rendre compte de l’hétérogénéité des agents, certains ont inclus dans leur modèle DSGE deux ou trois agents représentatifs ; les modèles DSGE ont plus souvent pris en compte l’existence de la borne inférieure pour étudier les effets de la politique monétaire ; leurs concepteurs se sont inspirés des observations de l’économie comportementale et de la neuroéconomie pour modifier la fonction d’utilité de l’agent représentatif, etc. Hoover souligne que les concepteurs de modèles DSGE proposaient déjà de telles modifications avant même qu’éclate la crise financière mondiale et tendaient déjà à les utiliser plus fréquemment ; la crise a accéléré cette tendance. En fait, la crise n’a guère modifié l’attitude des concepteurs de modèles DSGE : lorsque leur modèle peine à expliquer à un fait observé, ils le modifient, en l’occurrence en adoptant de nouvelles hypothèses ou en modifiant certaines déjà retenues. Hoover ne juge pas en soi problématique une telle stratégie ; ce qu’il juge préoccupant est le rapport que les concepteurs de modèles DSGE entretiennent avec les données empiriques ou avec les économistes développant une approche alternative.
Pour Hoover, les critiques dont les modèles DSGE ont fait l’objet dans le sillage de la crise financière mondiale et les répliques qu’elles suscitèrent de la part de leurs concepteurs ravivent une vieille controverse en science économique, celle opposant les économistes qui donnent la priorité à la théorisation a priori et ceux qui donnent la priorité aux données empiriques. Cette controverse a par exemple atteint un point d’orgue à la fin du dix-neuvième siècle avec la « querelle des méthodes » qui opposa l’école autrichienne naissante avec l’école historique allemande ou encore avec le débat entre la Commission Cowles et le National Bureau of Economic Research (NBER) qui marqua la fin des années quarante ; c’est à ce dernier que Hoover pense particulièrement. Contrairement à l’image que l’on peut en avoir, le paradigme néoclassique n’était pas dominant aux Etats-Unis avant la Seconde Guerre mondiale ; il y était notamment concurrencé par le courant institutionnaliste. Certains institutionnalistes, notamment Wesley Clair Mitchell, créèrent en 1920 le NBER avec pour objectif de rendre compte le plus fidèlement possible des faits empiriques concernant l’économie américaine, notamment en mesurant le revenu national et en observant sa répartition. La Commission Cowles fut quant à elle créée au début des années trente, mais elle prit véritablement son essor dans le sillage de la Seconde Guerre mondiale, lorsqu’elle développa une nouvelle méthodologie s’appuyant étroitement sur la modélisation mathématique. Arthur Burns et Wesley Clair Mitchell (1946) publièrent un ouvrage qui fit ultérieurement date dans l’observation et la datation du cycle d’affaires. Tjalling Koopmans (1947), qui allait être d’ici peu le directeur du NBER, saisit l’occasion que lui offrit la publication de l’ouvrage de Burns et Mitchell pour s’attaquer, dans le compte-rendu critique qu’il en fit, à la « mesure sans théorie » que proposait selon lui le NBER et tenter de démontrer la supériorité de l’approche de la Commission Cowles. C’est Rutledge Vining (1949a, 1949b), l’un des membres du NBER, qui prit le plus ardemment défense de ce dernier. Aux yeux des économistes mainstream, c’est Koopmans qui sortit vainqueur de ces échanges. La Commission Cowles parvint dans tous les cas à supplanter l’approche du NBER et elle contribua non seulement à la mathématisation de la science économique, mais également à l’essor du paradigme néoclassique [Mirowski, 2002 ; Assous, 2017] (2).
Pour Hoover, la position que les théoriciens des cycles réels et les concepteurs de modèles DSGE ont adoptée est précisément celle que défendait Koopmans au sortir de la guerre : il leur apparaît nécessaire de partir d’un modèle et de privilégier sa validité interne à sa validité externe. A leurs yeux, le fait que les hypothèses d’un modèle soient peu réalistes n’est guère un problème tant que les résultats de ce modèle peuvent être confrontés aux données empiriques. Par exemple, les modèles DSGE supposent une fixation des prix à la Calvo (1983), c’est-à-dire imaginent qu’une fraction seulement des entreprises se voient donner par un système de loterie la possibilité de modifier leurs prix au cours d’une période ; un tel mécanisme ne correspond pas à ce qui est observé empiriquement, mais les concepteurs de modèles DSGE l’ont adopté simplement dans la mesure où elle leur permet de reproduire la viscosité des prix qui, elle, est empiriquement observée. Plus important, ils donnent tellement d’importance à la validité interne de leurs modèles qu’ils sont peut-être prêts à sacrifier leur validité externe : ils soulignent certes la nécessité de pouvoir tester empiriquement un modèle, mais ils ne remettent pas forcément en cause ce dernier lorsque ses résultats empiriques divergent des observations empiriques. Ce fut précisément le cas d’Edward Prescott (1986) lorsqu’il donna la proéminence de « la théorie sur la mesure » : selon lui, si les résultats de ses modèles ne collaient guère avec les observations empiriques, la faille se situerait certainement du côté de la mesure des phénomènes empiriques.
Les défenseurs des modèles DSGE soulignent l’importance de la validité interne, mais Hoover estime qu’il est finalement difficile de prétendre que leurs modèles soient microfondés. Par exemple, les théoriciens en microéconomie ont démontré que les conditions sous lesquelles les choix agrégés pouvaient être dérivés des choix individuels s’avéraient si contraignantes qu’elles ne pouvaient guère être observées dans la réalité. Sur ce plan, Hoover déplore une certaine hypocrisie parmi les principaux promoteurs des modèles DSGE : ils passent sous silence plusieurs impasses méthodologiques auxquelles ils ont été confrontés en les concevant et qu’ils n’ont pas résolus [Sergi, 2015].
Enfin, tout comme Koopmans au sortir de la guerre, les plus grands défenseurs des modèles DSGE dénient toute légitimité aux économistes qui ne partagent pas leur approche théorique aprioriste ; dans la version préliminaire de leur défense des modèles DSGE, Christiano et alii (2018) allaient même jusqu’à déclarer que « ceux qui n'aiment pas les modèles DSGE sont des dilettantes ». Ils rejoignent les théoriciens des cycles réels en jugeant que les économistes doivent partir d’un modèle respectant un ensemble de contraintes, en l’occurrence des agents représentatifs, des anticipations rationnelles et une optimisation dynamique dans un cadre d’équilibre général ; c’est ce qui constitue le cœur des modèles DSGE et leurs concepteurs ne le révisent guère lorsqu’ils les modifient pour les améliorer. Jamais ils ne remettent en cause cet ensemble de contraintes. Mais en l’imposant comme condition nécessaire à la modélisation, Christiano et ses coauteurs écartent d’autres approches possibles, par exemple celle des modèles vectoriels autorégressifs (VAR) ou celle des expériences naturelles, qui cherchent davantage à partir des données empiriques. Surtout, ils disqualifient ainsi toute éventuelle critique émanant d’économistes n’utilisant pas leur approche en la présentant de facto comme illégitime. C’est cette attitude qui apparaît aux yeux de Hoover comme particulièrement dangereuse pour la science économique ; cette dernière ne perd guère en scientificité si elle reste ouverte à la critique. Au contraire.
Comme le concluait déjà Vining au terme de ses échanges avec Koopmans, il n’y a peut-être guère de méthodologie qui soit parfaite, si bien que les économistes doivent avoir la possibilité de recourir à différentes méthodologies, différentes classes de modèles et donc non nécessairement les seuls modèles DSGE [Rodrik, 2015 ; Blanchard, 2017]. Et les critiques, qu’elles émanent ou non d’approches alternatives, contribuent à faire avancer une science. Mais de tels progrès ne sont possibles que si les scientifiques acceptent de considérer l’idée qu’ils puissent se tromper.
(1) Il est douteux que la concurrence imparfaite et la viscosité des prix suffisent pour permettre à un modèle de reproduire certaines intuitions de la Théorie générale, mais elles permettent de retrouver aux nouveaux keynésiens de retrouver un résultat qui leur est cher : montrer que la politique monétaire affecte l’activité économique, du moins à court terme. Mais sur ce point, les nouveaux keynésiens s’avèrent peut-être plus proches des monétaristes que des keynésiens.
(2) Tous les membres de la Commission Cowles n’étaient toutefois pas des néoclassiques. Plusieurs de ses membres, en particulier Lawrence Klein, lauréat du Nobel en 1980, ont particulièrement contribué à l’élaboration de modèles keynésiens et à la diffusion du keynésianisme orthodoxe. Il y a quelque chose de très ironique ici. Aux Etats-Unis, les keynésiens (orthodoxes) ont peut-être dû se résoudre à recourir la mathématisation pour ne pas être suspectés d’idéologie et parvenir à s’imposer après-guerre, mais les travaux auxquels ils participèrent dans cet effort finirent par aboutir à une nouvelle approche, celle de Lucas et des théoriciens du cycle réel, qui les détrônèrent [Assous, 2017].
Références
ASSOUS, Michaël (2017), La Pensée économique depuis 1945, Armand Colin.
BLANCHARD, Olivier J. (2008), « The state of macro », NBER, working paper, n° 14259.
BLANCHARD, Olivier J. (2017), « On the need for (at least) five classes of macro models », in PIIE, Realtime Economic Issues Watch (blog), 10 avril.
BURNS, Arthur F., & Wesley C. MITCHELL (1946), Measuring Business Cycles, NBER.
CALVO, Guillermo (1983), « Staggered prices in a utility maximizing framework », in Journal of Monetary Economics, vol. 12.
CHRISTIANO, Lawrence J., Martin S. EICHENBAUM & Mathias TRABANDT (2018), « On DSGE models », in Journal of Economic Perspectives, vol. 32, n° 3.
GALÍ, Jordi (2018), « The state of new Keynesian economics: A partial assessment », NBER, working paper, n° 24845.
GOODFRIEND, Marvin, & Robert G. KING (1997), « The new neoclassical synthesis and the role of monetary policy », in NBER Macroeconomics Annual 1997, vol. 12.
HOOVER, Kevin D. (2021), « The struggle for the soul of economics », Center for the History of Political Economy, working paper, n° 2021-04.
KOOPMANS, Tjalling C. (1947), « Measurement without theory », in Review of Economic Statistics, vol. 29, n° 3.
KOOPMANS, Tjalling C. (1949), « Koopmans on the choice of variables to be studied and the methods of measurement: A reply », in Review of Economics and Statistics, vol. 31, n° 2.
KORINEK, Anton (2015), « Thoughts on DSGE macroeconomics: Matching the moment, but missing the point? ».
MIROWSKI, Philip (2002), Machine Dreams. Economics Becomes A Cyborg Science, Cambridge University Press.
PRESCOTT, Edward C. (1986), « Theory ahead of business cycle measurement », in Federal Reserve Bank of Minneapolis Quarterly Review, vol. 10, n° 4.
RODRIK, Dani (2015), Economics Rules: The Rights and Wrongs of the Dismal Science, W. W. Norton & Company. Traduction française, Peut-on faire confiance aux économistes ? Réussites et échecs de la science économique, De Boeck .
SERGI, Francesco (2015), « L’histoire (faussement) naïve des modèles DSGE ».
STIGLITZ, Joseph E. (2017), « Where modern macroeconomics went wrong », NBER, working paper, n° 23795.
SUMMERS, Lawrence H. (1986), « Some skeptical observations on real business cycle theory », in Federal Reserve Bank of Minneapolis Quarterly Review, vol. 10, n° 4.
VINING, Rutledge (1949a), « Koopmans on the choice of variables to be studied and the methods of measurement », in Review of Economics and Statistics, vol. 31, n° 2.
VINING, Rutledge (1949b), « Koopmans on the choice of variables to be studied and the methods of measurement: A rejoinder », in Review of Economics and Statistics, vol. 31, n° 2.