Overblog
Suivre ce blog Administration + Créer mon blog
29 juillet 2018 7 29 /07 /juillet /2018 22:44
Modèles DSGE : quels développements depuis la crise ?

Les années quatre-vingt-dix ont été marquées par une convergence entre, d’un côté, la littérature issue de la théorie des cycles d’affaires réels (real business cycles) et, d’autre part, les travaux des nouveaux keynésiens, au point que certains ont pu y voir l’apparition d’une « nouvelle synthèse néoclassique » [Goodfriend et King, 1997]. Cette convergence s’est notamment manifestée à travers le développement de modèles dynamiques stochastiques d’équilibre général (dits modèles DSGE). En effet, ces derniers contiennent des ingrédients propres à la théorie des cycles d’affaires réels : ils supposent une information transparente et se focalisent sur le comportement d’un agent représentatif, caractérisé par un comportement optimisateur, une durée de vie infinie et des anticipations rationnelles. Les modèles de la nouvelle synthèse intègrent en outre des éléments issus de la littérature nouvelle keynésienne : ils incorporent des variables nominales ; ils adoptent un cadre de concurrence imparfaite où les entreprises jouissent d’un pouvoir de marché et ont ainsi une certaine latitude pour fixer leurs prix ; ils introduisent des rigidités nominales, notamment en adoptant la règle de Calvo (1993), selon laquelle, durant chaque période, seule une fraction des entreprises est à même de modifier ses prix.

Si les modèles de cycle d'affaires réels constituent la première génération de modèles DSGE à proprement parler, les modèles de la deuxième génération, ceux qui se sont développés à partir des années quatre-vingt-dix, sont qualifiés de « nouveaux keynésiens ». Dans leur version de base, ces derniers reposent typiquement sur trois relations clés. Premièrement, ils intègrent une équation (rappelant la relation IS, mais dynamique) faisant dépendre l’écart de production (output gap) actuel avec, d’une part, l’écart de production anticipé et, d’autre part, l’écart entre le taux d’intérêt réel et le taux d’intérêt naturel. Deuxièmement, ils intègrent ce que l’on qualifie de « courbe de Phillips nouvelle keynésienne » qui fait dépendre l’inflation courante, d’une part, de l’inflation anticipée et, d’autre part, de l’écart de production. Troisièmement, ils incluent une règle de taux d’intérêt, souvent une règle de Taylor (1993), qui décrit comment est fixé le taux d’intérêt nominal, en fonction du taux d’inflation courant et de l’écart de production. Avec ces trois relations, la politique monétaire n’est pas neutre. En effet, comme les prix sont visqueux à court terme, un resserrement de la politique monétaire se traduit par une hausse des taux d’intérêt nominaux et réels. Comme seule une fraction des entreprises peut baisser ses prix, les autres réagissent en réduisant leur production, ce qui se traduit au niveau agrégé par une baisse de la production et un ralentissement de l’inflation. Ainsi, ce type de modèles est qualifié de « nouveau keynésien » précisément parce que la politique monétaire y présente des effets réels et non plus seulement nominaux. Cette étiquette est toutefois quelque peu trompeuse : le résultat correspond davantage à l’optique friedmanienne qu’à celle keynésienne.

Les modèles DSGE se sont très rapidement répandus. Lorsque la crise financière mondiale a éclaté, ils étaient assez largement utilisés dans le monde universitaire et au sein des banques centrales, notamment pour analyser les fluctuations de l’activité et l’inflation ou encore pour évaluer et prévoir l’impact des politiques conjoncturelles sur celles-ci. Ils ont fait de nombreuses critiques dans le sillage de la crise, dans la mesure où ils n’ont pas permis à leurs concepteurs de prévoir cette dernière [Blanchard, 2017 ; Stiglitz, 2017]. L’échec des modèles DSGE à anticiper cet événement s’explique par leur tendance à ignorer la sphère financière et à l’irréalisme de certaines de leurs hypothèses, notamment celles des anticipations rationnelles, de l’information parfaite et de l’agent représentatif. La crise n’a toutefois pas conduit à l’abandon des modèles DSGE : leurs concepteurs ont réagi en étendant leurs modèles, par exemple en y intégrant davantage de « frictions financières », et en modifiant leurs hypothèses de base. Ce sont ces récents développements que trois analyses ont passés en revue : Lawrence Christiano, Martin Eichenbaum et Mathias Trabandt (2018) se sont penchés sur l’ensemble des modèles DSGE ; Jordi Galí (2018) s’est focalisé sur leurs variantes « nouvelles keynésiennes » ; enfin, Mark Gertler et Simon Gilchrist (2018) ont montré comment ils ont cherché à mieux prendre en compte la sphère financière.

Avant la crise financière mondiale, les modèles nouveaux keynésiens avaient tendance à ignorer la contrainte qu’exerce la borne inférieure zéro (zero lower bound) sur la politique monétaire : cette dernière semblait ainsi capable de contrer n’importe quel choc de demande, ce qui confirmait aux yeux de certains que la politique budgétaire n’avait pas à être utilisée pour stabiliser l’activité. Or, lors de la Grande Récession, les banques centrales ont fortement réduit leurs taux directeurs sans pour autant ramener rapidement l’économie au plein emploi. Cela suggérait pour certains que le choc avait été si puissant que le taux d’intérêt naturel avait été poussé en territoire négatif. Or, la borne inférieure empêchant les banques centrales de ramener les taux à leur niveau naturel, la politique monétaire se retrouvait alors incapable de clore l’écart de production. Dans une telle situation de trappe à liquidité, l’écart de production constitue une source persistante de déflation, or les pressions déflationnistes accroissent le taux d’intérêt réel, ce qui éloigne davantage la production de son niveau potentiel et l’économie du plein emploi, aggravant la récession initiale. L’expérience du Japon lors des années quatre-vingt-dix avec ce qui s’apparentait à une trappe à liquidité avait toutefois amené plusieurs nouveaux keynésiens, notamment Gauti Eggertsson et Michael Woodford (2003), à prendre en compte la borne inférieure zéro et à en déduire la politique optimale. La Grande Récession a donné un nouvel essor à ce type de travaux.

Les travaux sur la borne inférieure zéro ont notamment conduit à réévaluer le rôle de la politique budgétaire. Lors d’une récession, une relance budgétaire risque d’être peu efficace si la banque centrale resserre parallèlement sa politique monétaire pour en compenser les éventuels effets inflationnistes, mais si le taux bute sur sa borne inférieure et, par conséquent, si la politique monétaire est excessivement restrictive (c’est-à-dire insuffisamment expansionniste pour ramener l’économie au plein emploi), alors la banque centrale ne relèvera pas son taux directeur face à la relance budgétaire. Par exemple, Gauti Eggertsson (2011) a montré que lorsqu’un choc de demande négatif pousse le taux d’intérêt naturel en territoire négatif, une hausse des dépenses publiques stimule l’activité, tandis qu’une baisse des impôts sur les revenus du travail ou du capital tend au contraire à nuire à celle-ci ; en effet, une baisse des impôts, tout comme d’autres politiques d’offre, alimente les pressions déflationnistes, ce qui pousse le taux d’intérêt réel à la hausse et déprime davantage la demande. Christiano et alii (2011) ont quant à eux cherché à déterminer la taille du multiplicateur des dépenses publiques en fonction de la borne inférieure zéro. Leur modèle DSGE suggère que le multiplicateur est d’autant plus élevé que les agents s’attendent à ce que la borne inférieure contraindra longuement la politique monétaire.

Les modèles DSGE se focalisent habituellement sur un agent représentatif immortel, censé mimer le comportement de l’ensemble des agents économiques. Une telle hypothèse est bien problématique : elle ne permet pas de concevoir la coexistence d’emprunteurs et de prêteurs, de prendre en compte l’impact des inégalités… ce qui les empêche d’expliquer l’accumulation des déséquilibres qui ont donné lieu à la crise financière et les conséquences de celle-ci. Leurs récentes versions ont commencé à tenir compte de l’hétérogénéité des agents. Les récents modèles DSGE, en l’occurrence ceux estampillés « modèles HANK » ont davantage pris en compte l’hétérogénéité des agents. Ils ont notamment supposé, d’une part, que les agents essuyaient des chocs idiosyncratiques et, d’autre part, qu’ils faisaient face à une limite en termes d’emprunt, si bien qu’ils ne peuvent pleinement s’assurer contre les chocs idiosyncratiques. Par conséquent, les agents ont beau être identiques avant que le choc se produise, ils peuvent présenter différentes propensions à consommer après celui-ci. Ainsi, en fonction de l’impact du choc sur la répartition des revenus et des richesses, les effets de ce choc sur l’activité peuvent aussi bien être amplifiés qu’atténués. Par exemple, la prise en compte de l’hétérogénéité des agents a permis à Adrien Auclert (2017) et à Kaplan et alii (2018) de mieux identifier les canaux via lesquels la politique monétaire se transmet à l’activité. En partant de l’hypothèse qu’une partie des ménages étaient susceptibles d’être contraints en termes de liquidité, Galí et alii (2007) ont de leur côté montré que de telles contraintes amplifiaient l’impact des dépenses publiques sur le PIB.

Pour Galí (2018), l’hypothèse de l’agent représentatif à durée de vie infinie pose deux autres problèmes. D’une part, elle implique un lien étroit entre taux d’intérêt réel et taux d’escompte temporel du consommateur le long d’une trajectoire de croissance équilibrée, or une telle relation ne permet pas de rendre compte de la possibilité d’un taux d’intérêt naturel durablement négatif. D’autre part, cette hypothèse ne permet pas non plus de rendre compte de la possibilité de bulles rationnelles à l’équilibre. Par conséquent, plusieurs nouveaux keynésiens ont cherché à développé des modèles à générations imbriquées qui comportent des rigidités nominales. C’est par exemple le cas d’Eggertsson et alii (2017), qui ont cherché à comprendre pourquoi le taux d’intérêt naturel a baissé dans l’économie américaine et à en déterminer les implications pour l’orientation de la politique monétaire. Dans deux modèles à générations imbriquées avec concurrence monopolistique et prix visqueux, Galí (2014, 2017) a de son côté montré que les bulles peuvent émerger comme équilibres ; ces deux modélisations suggèrent qu’il est plus efficace que les banques centrales se content de chercher à stabiliser la seule inflation plutôt qu’à chercher également à contrer le gonflement de bulles spéculatives. 

Malgré ces diverses avancées, Galí (2018) estime que les modèles DSGE ne parviennent toujours pas à saisir l’un des aspects cruciaux derrière les crises financières, en l’occurrence l’accumulation progressive de déséquilibres finissant par se dénouer avec une multiplication des défauts de paiement, une fuite des capitaux et un effondrement des prix d’actifs, puis par entraîner une chute de la demande, de la production et de l’emploi. Tout comme leurs prédécesseurs et notamment le modèle d’accélérateur financier de Bernanke et alii (1999), les récents modèles rendent compte de fluctuations stationnaires impulsées par des chocs exogènes : généralement, ils se contentent d’introduire des frictions financières qui amplifient les effets de chocs générés en dehors de la sphère financière. Autrement dit, les modèles DSGE n’expliquent la crise financière que comme résultant d’un choc exogène surprenant les agents. Leurs plus récentes variantes n’ont pas réussi à faire émerger de façon endogène les crises financières.

 

Références

AUCLERT, Adrien (2017), « Monetary policy and the redistribution channel », NBER, working paper, n° 23451.

BERNANKE, Ben S., Mark GERTLER & Simon GILCHRIST (1999), « The financial accelerator in a quantitative business cycle framework », in John B. Taylor & Michael Woodford (dir.), Handbook of Macroeconomics, vol. 1C, Elsevier.

BLANCHARD, Olivier (2017), « Sur les modèles macroéconomiques », in Revue de l’OFCE, n° 153.

CALVO, Guillermo (1983), « Staggered prices in a utility maximizing framework », in Journal of Monetary Economics, vol. 12.

CHRISTIANO, Lawrence, Martin EICHENBAUM & Sergio REBELO (2011), « When is the government spending multiplier large? », in Journal of Political Economy, vol. 119, n° 1.

CHRISTIANO, Lawrence J., Martin S. EICHENBAUM & Mathias TRABANDT (2018), « On DSGE models », NBER, working paper, n° 24811, juillet.

EGGERTSSON, Gauti (2011), « What fiscal policy is effective at zero interest rates? », in NBER Macroeconomics Annual, vol. 2010.

EGGERTSSON, Gauti, Neil MEHROTA & Jacob ROBBINS (2017), « A model of secular stagnation: Theory and quantitative evaluation », NBER, working paper, n° 23093.

EGGERTSSON, Gauti, & Michael WOODFORD (2003), « The zero bound on interest rates and optimal monetary policy », in Brookings Papers on Economic Activity, vol. 2003, n° 1.

GALÍ, Jordi (2014), « Monetary policy and rational asset price bubbles », in American Economic Review, vol. 104, n° 3.

GALÍ, Jordi (2017), « Monetary policy and bubbles in a new Keynesian model with overlapping generations », CREI, working paper,

GALÍ, Jordi (2018), « The state of new Keynesian economics: A partial assessment », NBER, working paper, n° 24845, juillet.

GALÍ, Jordi , J David LÓPEZ-SALIDO & Javier VALLÉS (2007), « Understanding the effects of government spending on consumption », in Journal of the European Economic Association, vol. 5, n° 1.

GERTLER, Mark, & Simon GILCHRIST (2018), « What happened: Financial factors in the Great Recession », NBER, working paper, n° 24746.

GOODFRIEND, Marvin, & Robert G. KING (1997), « The new neoclassical synthesis and the role of monetary policy », in NBER Macroeconomics Annual 1997, vol. 12.

KAPLAN, Greg, Benjamin MOLL & Giovanni L. VIOLANTE (2018), « Monetary policy according to HANK », in American Economic Review, vol. 108, n° 3.

STIGLITZ, Joseph E. (2017), « Where modern macroeconomics went wrong », NBER, working paper, n° 23795.

TAYLOR, John B. (1993), « Discretion versus policy rules in practice », Carnegie-Rochester Series on Public Policy, vol. 39.

Partager cet article

Repost0
11 juillet 2018 3 11 /07 /juillet /2018 10:28
Gordon et l’hypothèse du taux de chômage naturel

Il y a soixante ans, Albin W. Phillips (1958) décelait une relation décroissante entre variation des salaires et taux de chômage en étudiant près d’un siècle de données empiriques relatives à l’économie britannique : plus le taux de chômage augmentait, moins les salaires augmentaient rapidement. En faisant l’hypothèse d’une croissance de la productivité constante, les keynésiens en déduisaient une relation décroissante entre inflation et taux de chômage : plus le taux de chômage augmente, moins les prix auraient tendance à augmenter, ce qui amena Paul Samuelson et Robert Solow (1960) à suggérer que les autorités monétaires pouvaient choisir un « menu » entre inflation et chômage. Les keynésiens adoptèrent ainsi la courbe de Phillips, non seulement parce qu’elle leur permit de confirmer l’idée de rigidité des salaires et de dynamiser leur cadre théorique en reliant l’évolution du chômage à celle des prix, mais aussi parce qu’ils pouvaient ainsi continuer de justifier l’adoption de politiques conjoncturelles : il suffisait a priori que les autorités laissent l’inflation s’accélérer pour réduire le chômage.

Lors de son allocution présidentielle à l’American Economic Association, le monétariste Milton Friedman (1968) assena il y a un demi-siècle ce qui semble être le premier coup sérieux porté au keynésianisme en avançant l’hypothèse du taux de chômage naturel. A court terme, il y a effectivement une courbe de Phillips, c’est-à-dire une relation décroissante entre inflation et chômage : une accélération de l’inflation réduit le chômage en amenant les travailleurs à  sous-estimer leur pouvoir d’achat, si bien que leurs salaires réels diminuent et que les entreprises sont incitées à accroître leur demande de travail. Mais une fois que les travailleurs ont pris conscience de leur erreur et qu’ils corrigent en conséquence leurs anticipations, ils réclament une hausse de leurs salaires nominaux, si bien que les entreprises réduisent leur demande de travail et le chômage revient à son niveau initial, celui-là même que Friedman qualifie de « naturel », mais l’inflation reste supérieure à ce qu’elle était initialement : c’est l’hypothèse accélérationniste. A long terme, la courbe de Phillips serait donc verticale : qu’importe le niveau d’inflation, le taux de chômage est à son niveau naturel. Friedman en concluait que la politique monétaire était neutre à long terme : elle ne peut durablement réduire le chômage en-deçà de son niveau naturel (à moins de générer une inflation insoutenable) et ce d’autant plus que ce dernier est déterminé par des facteurs du côté de l’offre.

Cette première attaque lancée contre la citadelle keynésienne ouvrit la voie à un second assaut, mené cette fois-ci par les nouveaux classiques. Robert Lucas et ses adeptes affirmèrent que la courbe de Phillips était verticale aussi bien à long terme qu’à long terme : dès lors que les agents ont des anticipations rationnelles, ils ne se trompent dans leurs anticipations d’inflation que si des chocs aléatoires touchent la politique monétaire. Même si les nouveaux classiques délaissent la question du chômage, les enseignements tirés de leurs modélisations sont clairs : le chômage en vigueur ne serait autre qu’un chômage naturel et ne pourrait donc refluer qu’à travers l’adoption de politiques structurelles. De leur côté, des keynésiens comme Robert Solow et James Tobin cherchèrent à répliquer, mais cela n’empêcha pas le concept de taux de chômage d’équilibre d’être largement accepté dans la profession, au point que, très rapidement, même des keynésiens comme Rudiger Dornbusch et Stanley Fischer ou Robert J. Gordon (1978) évoquèrent la courbe de Phillips verticale dans leurs manuels de macroéconomie respectifs. 

Plusieurs historiens de la pensée ont remis en question le récit habituellement fait de la diffusion de l’hypothèse du taux de chômage naturel [Cherrier et Goutsmedt, 2017]. Par exemple, James Forder (2014) a noté que Samuelson et Solow avaient eux-mêmes remarqué que la courbe de Phillips était instable et conclu que les autorités monétaires ne pouvaient s’appuyer dessus de façon assurée. Ainsi, Friedman aurait délibérément passé sous silence ces réserves lors de son allocution présidentielle. Récemment, Aurélien Goutsmedt et Goulven Rubin (2018) ont noté que ce ne sont pas les monétaristes et les nouveaux classiques qui contribuèrent le plus à la diffusion du concept de chômage naturel, mais les keynésiens eux-mêmes. 

Pour comprendre pourquoi et comment les keynésiens ont pu reprendre un concept qui avait initialement été introduit pour les ébranler, Goutsmedt et Rubin se alors sont concentrés sur la trajectoire intellectuelle de l’un d’entre eux, en l’occurrence Robert Gordon, l’économiste du MIT qui gagna en célébrité ces dernières années de ce côté-ci de l’Atlantique avec sa thèse d’une « fin de la croissance ».

Au début des années soixante-dix, Gordon s’opposait à l’hypothèse du taux de chômage naturel au motif qu’elle ne serait pas vérifiée par les données empiriques : les estimations que Solow (1969) (son directeur de thèse) et lui-même avaient réalisées chacun de leur côté indiquaient que le paramètre associé à l’inflation anticipée était inférieur à l’unité, ce qui suggérait que l’inflation ne s’ajustait pas totalement par rapport aux salaires. Gordon (1971a, 1971b) en concluait que la thèse accélérationniste de Friedman n’était pas valide et qu’il y avait bien un arbitrage entre inflation et chômage à long terme. Pour autant, il ne pensait pas que la courbe de Phillips était stable : comme Samuelson et Solow, il estimait qu’elle était susceptible de se déplacer, aussi bien à gauche qu’à droite. Ainsi, pour expliquer l’accélération de l’inflation que connaissait alors l’économie américaine, Gordon privilégiait l’explication qu’avançait George Perry (1970) : les pressions inflationnistes résulteraient des changements dans la composition de la population active, notamment avec l’arrivée massive des femmes et des jeunes sur le marché du travail dans les années soixante, qui aurait déplacé la courbe de Phillips sur la droite.

La conversion de Gordon commença vers 1972. Cette année-là, il introduisit un modèle intermédiaire incorporant un taux de chômage naturel au-delà d’un certain niveau d’inflation, mais où la pente de la courbe de Phillips à long terme était variable en-deçà de ce seuil, tout en soulignant que l’approche accélérationniste n’était pas valide dans le cadre d’une déflation. A partir de 1973, les nouvelles données empiriques amènent peu à peu Gordon à adopter l’hypothèse du taux de chômage naturel : au fil des années, la pente de la courbe de Phillips à long terme, telle qu’elle se dessinait à travers les données, se rapprochait de la verticale. En 1977, Gordon indiqua explicitement avoir adopté l’hypothèse du taux de chômage naturel. En 1978, dans son manuel, il abandonna son modèle intermédiaire en proposant un modèle plus simple, sûrement pour des raisons pédagogiques. 

La critique du nouveau classique Thomas Sargent (1971) a sûrement contribué à convaincre Gordon d’utiliser une courbe de Phillips verticale à long terme. Mais si cette critique montra que les tests utilisés par les keynésiens ne pouvaient pas rejeter l’hypothèse du taux de chômage naturel, ils ne la validaient pas non plus. Goutsmedt et Rubin notent que Gordon a adopté l’hypothèse du taux de chômage nature alors même que les données empiriques ne suggéraient toujours pas que le paramètre estimé sur l’inflation anticipée était proche de l’unité. Pour eux, le revirement de Gordon s’explique essentiellement par deux choses. D’une part, celui-ci subit directement l’influence de Friedman, qu’il côtoya à l’Université de Chicago. D’autre part, l’adoption de l’hypothèse du taux de chômage naturel ne l’empêchait pas de justifier l’adoption de politiques conjoncturelles en vue de stabiliser l’activité. En effet, il l’introduisit dans un modèle de concurrence imparfaite où les rigidités salariales empêchaient l’apurement des marchés et faisaient apparaître du chômage involontaire.

Ainsi, la diffusion du concept de taux de chômage naturel ne semble pas avoir été synonyme de défaite pour les keynésiens. Quelques décennies plus tôt, plusieurs d’entre eux cherchaient déjà à donner des fondements microéconomiques à la macroéconomie keynésienne. Don Patinkin (1956) tenta notamment de montrer que le keynésianisme n’était pas incompatible avec l’hypothèse d’un auto-ajustement de l’économie ; par contre, il estimait que le retour vers le plein-emploi était tellement lent que cela justifiait l’usage des politiques conjoncturelles pour stabiliser l’activité. Le raisonnement de Gordon était à peine différent : le taux de chômage tend peut-être vers son niveau naturel, mais il le fait si lentement que l’assouplissement des politiques conjoncturelles apparaît nécessaire. Mais alors que les keynésiens comme Patinkin jugeaient que la relance budgétaire était plus efficace que l’assouplissement monétaire, les nouveaux keynésiens comme Gordon jugent au contraire que cette dernière est plus efficace que la première pour éliminer la composante conjoncturelle du chômage.

Pour conclure, Goutsmedt et Rubin soulignent à quel point le récit habituellement fait des débats autour de la courbe de Phillips lors des années soixante-dix ignore la richesse des échanges et en particulier des réactions de la part des keynésiens. Les travaux empiriques que ces derniers réalisaient à l’époque constataient que le coefficient associé aux anticipations d’inflation était variable, si bien qu’ils concluaient que la courbe de Phillips à long terme était susceptible de varier. La conversion de Gordon et des autres keynésiens n’a pas été sans coûts. Si Gordon n’avait pas abandonné son modèle à coefficient variable et si ce dernier avait été largement diffusé, les économistes n’auraient pas été surpris par l’absence d’inflation lors de la Grande Récession. Les dernières modélisations ont cherché à estimé le paramètre sur les anticipations d’inflation au lieu de considérer qu’elle est égale à l’unité. Elles trouvent une faible élasticité de l’inflation courante vis-à-vis de l’inflation passée, ce qui amène certains comme Olivier Blanchard (2016) à se demander si’ l’économie américaine ne s’est pas libérée de la « malédiction accélérationniste ». 

 

Références

BLANCHARD, Olivier (2016), « The US Phillips curve: Back to the 60s? », PIIE, policy brief, n° 16-1.

CHERRIER, Beatrice, & Aurélien GOUTSMEDT (2017), « The making and dissemination of Milton Friedman’s 1967 AEA presidential address », in The Undercover Historian (blog), le 27 novembre. Traduction française, « L’élaboration et la réception du discours présidentiel de Friedman », in Annotations (blog).

DORNBUSCH, Rudiger, & Stanley FISCHER (1978), Macroeconomics, McGraw-Hill Companies.

FORDER, James (2014), Macroeconomics and the Phillips Curve Myth, Oxford University Press.

FRIEDMAN, Milton (1968), « The role of monetary policy », in American Economic Review, vol. 58, n° 1.

GORDON, Robert J. (1971a), « Inflation in recession and recovery », in Brookings Papers on Economic Activity, vol. 1971, n° 1.

GORDON, Robert J. (1971b), « Steady anticipated inflation: Mirage or oasis? », in Brookings Papers on Economic Activity, vol. 1971, n° 2.

GORDON, Robert J. (1972), « Wage-price controls and the shifting Phillips curve », in Brookings Papers on Economic Activity, vol. 1972, n° 2.

GORDON, Robert J. (1977), « Can the inflation of the 1970s be explained? », in Brookings Papers on Economic Activity, vol. 1977, n° 1.

GORDON, Robert J. (1978), Macroeconomics, Little, Brown and Company.

GOUTSMEDT, Aurélien, & Goulven RUBIN (2018), « Robert J. Gordon and the introduction of the natural rate hypothesis in the Keynesian framework », Centre d’Economie de la Sorbonne, document de travail, n° 2018.13.

PATINKIN, Don (1956), Money, Interest and Prices.

PERRY, George L. (1970), « Changing labor markets and inflation », in Brookings Papers on Economic Activity, vol. 1970, n° 3.

PHILLIPS, Albin William (1958), « The relation between unemployment and the rate of change of money wage rates in the United Kingdom, 1861–1957 », in Economica, vol. 25, n° 100. 

SAMUELSON, Paul A. & Robert M. SOLOW (1960), « Problem of achieving and maintaining a stable price level: Analytical aspects of anti-inflation policy », in American Economic Review, vol. 50, n° 2.

SARGENT, Thomas J. (1971), « A note on the “accelerationist” controversy », in Journal of Money, Credit and Banking, vol. 3, n° 3.

SOLOW, Robert M. (1969), Price Expectations and the Behavior of the Price Level, Manchester University Press.

Partager cet article

Repost0
1 avril 2018 7 01 /04 /avril /2018 14:46
Les keynésiens et la critique de Lucas

Les années soixante ont brutalement mis un terme à l’hégémonie du keynésianisme orthodoxe aussi bien dans le champ universitaire qu’au sein des institutions en charge de la politique économique. Selon les comptes-rendus généralement dressés de cette période cruciale de la pensée économique, le keynésianisme se serait trouvé ébranlé sur plusieurs fronts. D’un côté, les politiques de gestion de la demande globale se sont révélées incapables de sortir les pays développés de la stagflation où se retrouvèrent piégées dans les années soixante-dix ; pire, elles auraient précisément contribué à alimenter les pressions inflationnistes. De l’autre, les monétaristes, puis les nouveaux classiques se sont attaqués aux keynésiens sur le plan théorique. Mais si les monétaristes s’en sont pris aux conclusions des keynésiens (orthodoxes) tout en partageant leur appareillage méthodologique, les nouveaux classiques ont privilégié des assauts sur un plan méthodologique (1).

C’est précisément une remise en cause de la méthodologie des économètres keynésiens que Robert Lucas (1976), le chef de file de la nouvelle école classique, a délivré lorsqu’il a formulé sa fameuse « critique ». Selon lui, la structure d’un modèle économique se ramène à des relations qui décrivent le comportement des agents économiques ; or ce comportement change lorsque les décideurs modifient la politique économique ; donc la structure du modèle se modifie suite aux décisions en matière de politique économique. Par conséquent, un bon modèle économétrique ne pourra donner une évaluation quantitative fiable de politiques économiques alternatives que s’il repose sur des équations qui prennent en compte les réponses des agents aux modifications de la politique économique. Dans la mesure où, selon lui, les keynésiens ne prennent pas en compte le fait qu’un changement de politique économique est susceptible de modifier les paramètres de leurs modèles économétriques, ces derniers seraient incapables de prévoir les effets d’un tel changement de politique économique. C’est donc une remise en cause de la cohérence interne des modèles keynésiens que propose Lucas. Les modèles de nouveaux classiques seraient par contre immunisés contre une telle critique, si bien que leur utilisation marquerait une réelle avancée méthodologique.

Beaucoup considèrent le raisonnement de Lucas comme inattaquable, y voyant un véritable « syllogisme » et un coup fatal assené au keynésianisme orthodoxe. C’est cette vision des choses qu’Aurélien Goutsmedt, Erich Pinzon-Fuchs, Matthieu Renault et Francesco Sergi (2017) ont remis en question. Ils soulignent tout d’abord que la critique de Lucas présente deux dimensions, une première méthodologique et une seconde positive : du point de vue méthodologique, elle remet en question la stabilité des paramètres structurels des modèles macroéconométriques de grande échelle ; du point de vue positif, elle suggère que la stagflation des années soixante-dix aurait résulté d’un changement dans le comportement des agents, un changement qui aurait lui-même été provoqué par un changement de politique économique.

Sur le plan méthodologique, Goutsmedt et ses coauteurs notent que les récits de la contre-révolution menée par les nouveaux classiques passent généralement sous silence la réaction des keynésiens face à la critique de Lucas, alors même qu’ils en sont explicitement la cible ; or, ceux-ci ne sont pas restés inertes. D’un côté, de vieux keynésiens comme Franco Modigliani, James Tobin, Robert Solow et Edmond Malinvaud ont vu dans la critique de Lucas un postulat dont la pertinence empirique restait à démontrer. En l’occurrence, ils considéraient que la charge de la preuve revenait aux nouveaux classiques eux-mêmes. De l’autre, une nouvelle génération de keynésiens, comprenant notamment Alan Blinder, Stanley Fischer, Olivier Blanchard, Robert Gordon et Stephen R. King, a cherché à tester directement la pertinence empirique de la critique de Lucas. Ces économistes ont étudié la stabilité des paramètres dans leurs modèles via plusieurs tests économétriques. Ces derniers les ont amenés à conclure que le type d’instabilité des paramètres que suggérait Lucas peut ne pas être observé, si bien que sa critique s’en trouverait empiriquement réfutée.

Concernant la dimension positive de la critique de Lucas, Goutsmedt et ses coauteurs notent que cette dernière est loin de constituer un simple syllogisme. Lawrence Klein, Stanley Fischer, Robert Gordon, Otto Eckstein et Robert Solow ont reconnu que les performances des modèles keynésiens n’ont pas été terribles durant la Grande Stagflation, mais, prenant au sérieux la critique de Lucas, ils se sont demandé si celle-ci a fourni une explication alternative pour comprendre le contexte économique des années soixante-dix. Les keynésiens sont arrivés à la conclusion que les nouveaux classiques ne proposaient pas de véritable explication de la stagflation. Par contre, il suffisait tout simplement aux keynésiens d’introduire les chocs d’offre dans leurs modèles (et la Grande Stagflation semblait effectivement résulter de chocs d’offre) pour améliorer leurs performances. Bref, le paradigme keynésien était loin de constituer un programme de recherche dégénératif. C’est malheureusement l’image qu’il renvoya aux nouvelles générations de macroéconomistes…

La réaction des (vieux et nouveaux) keynésiens orthodoxes n’a pas suffi pour entraîner un abandon de la critique de Lucas et déjouer la contre-révolution menée par les nouveaux classiques. Séduits par la méthodologie des nouveaux classiques et son apparente scientificité, les nouvelles générations de macroéconomistes l’adoptèrent. Au final, les idées des nouveaux classiques ont beau avoir manqué de soutien empirique, elles ont conduit, d’un côté, à un relatif déclin des keynésiens dans le champ orthodoxe et, de l’autre, au développement de la théorie du cycle d’affaire réel, puis des modèles DSGE. Les « nouveaux keynésiens » n’ont pas été étrangers à cette tournure des événements en embrassant également la méthodologie des nouveaux classiques et certains de leurs concepts, comme celui des anticipations rationnelles.

 

(1) En fait, les monétaristes, et en premier lieu Milton Friedman, n’ont pas rejeté le cadre d’analyse qu’adoptaient les keynésiens orthodoxes (par exemple, le modèle IS-LM ou la relation de Phillips) ; ils rejetaient surtout les interprétations et les conclusions que ces derniers en tiraient. Lorsque les nouveaux classiques menèrent à son terme l’assaut contre la citadelle des keynésiens et imposèrent leur point de vue méthodologique, beaucoup de monétaristes comprirent à leur grand dam qu’ils avaient bien plus de points en commun avec les seconds qu’avec les premiers…

 

Références

GOUTSMEDT, Aurélien, Erich PINZON-FUCHS, Matthieu RENAULT & Francesco SERGI (2017), « Reacting to the Lucas critique: The Keynesians’ pragmatic replies », Centre d’économie de la Sorbonne, working paper, n° 2017.42.

LUCAS, Robert (1976), « Econometric policy evaluation: A critique », Carnegie-Rochester Conference Series on Public Policy, vol. 1.

Partager cet article

Repost0
25 novembre 2017 6 25 /11 /novembre /2017 20:53
Quel est l’héritage du discours présidentiel de Friedman ?

L’article de Milton Friedman (1968), « The role of monetary policy », qui reprend un discours qu’il avait prononcé l’année précédente lors de son investiture en tant que président l’American Economic Association, a beau ne tenir que sur 17 pages, il a eu un énorme impact aussi bien au niveau théorique, sur le paysage de la macroéconomie et la lutte entre les différentes écoles de pensée, que dans le domaine pratique, celui de la politique monétaire. Google Scholar recense plus de 7.500 citations de cet article. Il est certes moins cité que son livre Capitalisme et liberté, publié en 1962, mais il est aussi cité que le célèbre livre qu’il a coécrit avec Anna Schwartz et publié en 1963, Une Histoire monétaire des Etats-Unis.

Greg Mankiw et Ricardo Reis (2017) sont récemment revenus sur l’importance de cette allocution, un demi-siècle après son occurrence. Ils rappellent tout d’abord son contexte, celui d’un keynésianisme triomphant. La Grande Dépression avait fortement déstabilisé l’économie américaine, mais les analyses néoclassiques semblaient dans les années trente incapables d’expliquer sa sévérité. En publiant sa Théorie générale en 1936, Keynes a non seulement avancé une explication des fluctuations de l’activité, mais aussi montré pourquoi et comment les autorités pouvaient intervenir pour atténuer ces fluctuations : les récessions trouvent leur source dans une insuffisance de la demande globale, mais l’économie peut rester piégée dans une telle situation ; face à cette défaillance de marché, les autorités peuvent ramener l’économie au plein emploi en stimulant la demande globale.

Plusieurs économistes ont cherché à modéliser les idées de Keynes. John Hicks et Alvin Hansen contribuèrent notamment le modèle IS-LM (au prix de l’abandon de certaines intuitions de la Théorie générale), qui devint le cadre d’analyse privilégié pour comprendre l’action des politiques conjoncturelles. Il se focalisait toutefois sur le seul court terme en supposant une fixité des prix et sans expliquer celle-ci. Pendant longtemps, les keynésiens ont donc cherché à intégrer la dynamique des prix dans leur édifice théorique. C’est la courbe de Phillips qui fournit l’équation manquante : en décelant une relation inverse entre l’inflation salariale et le taux de chômage au Royaume-Uni, Alban W. Phillips (1958) a suggéré aux keynésiens qu’il existait une relation inverse entre inflation des prix et taux de chômage. Autrement dit, il semblait possible pour les autorités publiques de réduire le chômage en laissant l’inflation s’accroître, ou inversement.

C’est dans un article où ils se penchent sur les causes de l’inflation que Paul Samuelson et Robert Solow (1960) suggèrent que la courbe de Phillips offre des possibilités d’arbitrage entre inflation et chômage. Pour autant, ils soulignaient aussi que cette relation n’était pas stable au cours du temps. Ils décelaient plusieurs façons par lesquelles une économie à faible pression, marquée par une faible inflation et un chômage élevé, pouvait conduire à un déplacement de la courbe de Phillips. Ils ont anticipé non seulement l’idée d’une courbe de Phillips augmentée des anticipations en suggérant qu’une révision des anticipations pouvait déplacer la courbe de Phillips, mais aussi celle des effets d’hystérèse, en suggérant que la persistance d’une faible demande puisse se traduire par l’accroissement d’un chômage de nature structurelle, c’est-à-dire puisse accroître le taux de chômage associé à la stabilité des prix.

Les keynésiens ayant adopté la courbe de Phillips, c’est en remettant en cause cette dernière que Friedman (1968) espère faire effondrer l’édifice keynésien ; Samuelson et Solow avaient émis quelques réserves quant à la stabilité de la courbe de Phillips, mais Friedman les passa sous silence [Rubin, 2012]. Alors que Samuelson et Solow tendent à considérer le long terme comme une succession de situations de court terme, Friedman distingue court terme et long terme. Ce dernier apparaît dans son analyse comme le laps de temps où les principes de l’économie néoclassique sont vérifiés et où, notamment, la monnaie retrouve sa neutralité. Friedman réintroduit alors un concept essentiel de la Théorie générale que les keynésiens de la synthèse avaient eu tendance à négliger : les anticipations. Si la distinction entre court terme et long terme est importante dans sa critique de la courbe de Phillips, c’est notamment parce que les agents peuvent se tromper à court terme dans leurs anticipations. A long terme, par contre, les anticipations sont vérifiées.

Friedman suppose en l’occurrence que les travailleurs forment des anticipations adaptatives : ils déduisent de l’évolution passée de l’inflation le taux d’inflation future. Les entreprises connaissent le niveau général des prix, mais les ménages ne l’observent pas immédiatement, si bien qu’ils peuvent se tromper sur le niveau courant de l’inflation. Selon Friedman, c’est cette asymétrie d’informations et la nature adaptative des anticipations qui expliquent pourquoi il existe à court terme une courbe de Phillips, c’est-à-dire une possibilité d’arbitrage entre inflation et chômage, mais que cette relation disparaît à long terme. En l’occurrence, si la banque centrale assouplit sa politique monétaire pour réduire le taux de chômage, le taux d’inflation sera supérieur à celui qu’anticipent les travailleurs. Ces derniers vont considérer que la hausse des salaires nominaux correspond à une hausse des salaires réels : ils vont alors accroître leur offre de travail, ce qui réduira le chômage. Cette baisse du chômage est toutefois temporaire : les travailleurs vont finir par prendre conscience de leur erreur, c’est-à-dire comprendre que l’inflation a été plus importante qu’ils ne l’ont anticipé. Ils vont corriger leurs anticipations et réduire leur offre de travail, si bien qu’à long terme, le chômage retourne à son niveau initial, mais pas le taux d’inflation. Friedman qualifie ce taux de chômage incompressible du taux de chômage naturel ; il suppose que celui-ci est déterminé du côté de l’offre et c’est pour cette raison qu’il le juge insensible à la conjoncture. 

Friedman concluait de son analyse que la banque centrale ne peut durablement maintenir le chômage à un niveau inférieur à son niveau naturel, si ce n’est en générant un taux d’inflation toujours plus important, ce qui est insoutenable à long terme. Les événements donnèrent raison à Friedman face aux keynésiens : à partir des années soixante-dix, l’inflation ne cessait d’augmenter, sans pour autant que reflue le chômage. Le monétaire pensait en outre que la banque centrale ne peut pas non plus cibler un taux d’intérêt : comme nous ne pouvons savoir avec précision à quel niveau s’élève le taux d’intérêt naturel, le ciblage d’un taux d’intérêt risque également de pousser l’inflation hors de tout contrôle. Par contre, la banque centrale peut veiller à ce que la monnaie ne constitue pas une source de perturbations pour l’économie, comme elle le fut lors de la Grande Récession : la sévérité de cette dernière s’explique par l’incapacité de la Fed à contenir la contraction de la masse monétaire [Friedman et Schwartz, 1963]. L’objectif premier des banques centrales doit porter sur quelque chose qu’elles peuvent contrôler à long terme, en l’occurrence une variable nominale. Friedman considère alors trois candidats possibles : le taux de chômage nominal, le niveau des prix et les agrégats monétaires. Or, le taux de change n’est pas assez important dans la mesure où le commerce ne joue qu’un petit rôle dans l’économie américaine ; le niveau des prix est la plus importante des trois variables considérées, mais l’effet de la politique monétaire sur le niveau des prix est trop long et imprévisible, si bien que la politique monétaire risque d’amplifier les déséquilibres, plutôt que de les atténuer ; par conséquent, Friedman en conclut que la croissance régulière d’un certain agrégat monétaire constitue le meilleur point de départ pour la politique monétaire.

Les macroéconomistes sont aujourd’hui en désaccord avec ce dernier point. En effet, l’économie peut être sujette à des chocs aussi divers que des chocs pétroliers, des crises financières ou des esprits animaux changeants. Notamment pour cette raison, la banque centrale risque de ne pas réagir suffisamment face à un choc si elle se contente de maintenir un agrégat monétaire sur une trajectoire régulière. En outre, dans la mesure où les instruments financiers sont de plus en plus complexes, il est difficile de déterminer un indicateur approprié de la quantité de monnaie à cibler. La vitesse de circulation de la monnaie, que Friedman suppose stable, s’est au contraire révélée instable ces dernières décennies, si bien que le ciblage des agrégats monétaires s’est traduit par d’amples fluctuations des prix et des revenus.

Si les idées de Friedman ont eu un impact majeur sur la pratique de la politique monétaire, celui-ci n’a été que temporaire. Aujourd’hui, non seulement les grandes banques centrales ciblent l’inflation, mais elles ciblent en l’occurrence le même taux d’inflation (une inflation de 2 %). Cette pratique semble efficace, dans le sens où l’inflation annuelle est restée dans une bande comprise entre 0 et 4 % d’inflation. En outre, la macroéconomie moderne se focalise davantage sur le taux d’intérêt nominal, aussi bien en tant qu’instrument que comme guide pour juger de l’état de l’économie. Pour autant, beaucoup considèrent, comme Friedman, que les autorités doivent s’attacher à suivre une règle prédéfinie, mais c’est davantage en raison des problèmes d’incohérence temporelle mis en évidence par les nouveaux classiques, qu’en raison des arguments avancés par Friedman. Cela n’empêche pas les banques centrales d’adopter des mesures discrétionnaires : elles continuent à suivre les politiques contracycliques que Friedman jugeait vaines. Certes, en empêchant les faillites bancaires, la Réserve fédérale a montré qu’elle a bien saisi les enseignements que Friedman avait tirés de son analyse de la Grande Dépression. Mais c’est aussi en assouplissant agressivement leur politique monétaire que les banques centrales ont empêché que se répète la Grande Dépression il y a dix ans : lors de la Grande Dépression, la production industrielle s’était contractée de 52 % et cette contraction dura 43 mois ; lors de la Grande Récession, la production industrielle chuta de 17 % et cette contraction dura 19 mois.

Mankiw et Reis ont également jugé de l'héritage que le discours de Friedman a laissé pour la théorie économique. Ils notent par exemple que la focalisation sur le long terme, comme point de référence, et les anticipations continuent d’être au centre des analyses macroéconomiques, même après la crise financière mondiale : les analyses de l’inflation continuent de donner un rôle important aux anticipations d’inflation, les analyses du chômage continuent de faire jouer un rôle important au taux de chômage naturel, etc. Malgré cela, ce ne sont pas les anticipations adaptatives de Friedman que les économistes introduisent dans leurs modélisations, mais le concept d’anticipations rationnelles que les nouveaux classiques ont avancé dans les années soixante-dix. C’est d'ailleurs cette hypothèse d’anticipations rationnelles que les nouveaux keynésiens ont adoptée pour contrer la révolution des nouveaux classiques. Certes, les keynésiens n'ont jamais réussi à pleinement réhabiliter la courbe de Phillips, tandis que le concept de taux de chômage naturel continue d'être utilisé dans les travaux universitaires et comme indicateur pour la politique économique. Mais beaucoup ont affirmé que celui-ci n'est pas insensible à la conjoncture et donc au taux de chômage courant en raison des effets d’hystérèse ; ce sont d’ailleurs ces derniers qui sont évoqués pour légitimer le retour de la politique budgétaire.

 

Références

FRIEDMAN, Milton (1968), « The role of monetary policy », in American Economic Review, vol. 58, n° 1.

FRIEDMAN, Milton, & Anna Jacobson SCHWARTZ (1963), A Monetary History of the United States, 1867-1960. Traduction française, Une histoire monétaire des Etats-Unis.

MANKIW, N. Gregory, & Ricardo REIS (2017), « Friedman’s presidential address in the evolution of macroeconomic thought », NBER, working paper, n° 24043.

PHILLIPS, Alban W. (1958), « The relation between unemployment and the rate of change of money wage rates in the United Kingdom, 1861-1957 », in Economica, vol. 25, n° 100.

RUBIN, Goulven (2012), « Robert Solow de la courbe de Phillips à la question des fondements de la macroéconomie: 1960-1981 ».

SAMUELSON, Paul A. & Robert M. SOLOW (1960), « Problem of achieving and maintaining a stable price level: Analytical aspects of anti-inflation policy », in American Economic Review, vol. 50, n° 2.

Partager cet article

Repost0
5 novembre 2017 7 05 /11 /novembre /2017 18:41
La stagflation et la lutte des méthodologies en macroéconomie

Les historiens de la pensée économique et les macroéconomistes continuent de débattre des bouleversements que la macroéconomie a connu dans les années soixante-dix. Beaucoup en donnent le récit suivant : la pensée universitaire et la politique étaient dominées par le keynésianisme dans l’immédiat après-guerre. La courbe de Phillips, adoptée par les keynésiens, suggérait que les décideurs politiques pouvaient arbitrer entre inflation et chômage via l’usage des politiques de demande. Le keynésianisme connut toutefois un déclin dans les années soixante-dix pour deux raisons. D’une part, au niveau empirique, les pays connaissaient une situation de stagflation, c’est-à-dire la conjonction du chômage et de l’inflation, un phénomène que les modèles keynésiens n’avaient pas su prévoir, ni ne parvenaient à expliquer. Au niveau théorique, les monétaristes, puis les nouveaux classiques expliquaient (contrairement aux keynésiens) pourquoi les économies développées étaient plongées dans une situation de stagflation. Selon les monétaristes, parce que les agents ont des anticipations adaptatives, une hausse de l’inflation conduit à une baisse des salaires réels, donc à une baisse du chômage, mais celle-ci est temporaire, car les travailleurs vont finir par se rendre compte de leurs erreurs d’anticipations et réclamer une hausse des salaires, ce qui ramènera le chômage à son niveau initial, le fameux « taux de chômage naturel ». Bref, il y a peut-être une courbe de Phillips à court terme, mais celle-ci devient instable à long terme. Les décideurs politiques pourraient chercher à maintenir le chômage en-deçà de son niveau naturel, mais cela ne pourrait se faire qu’au prix d’une inflation croissante : c’est la thèse accélérationniste. Les nouveaux classiques, menés par Robert Lucas, radicalisèrent cette thèse en supposant que les agents ont des anticipations rationnelles et ne peuvent ainsi être systématiquement floués par les décideurs publics : il n’y a possibilité d’arbitrage entre inflation et chômage ni à court terme, ni à long terme.

Les choses n’ont peut-être pas été aussi simples. Au cours de l’été 2014, plusieurs macroéconomistes débattirent dans la blogosphère autour de la révolution menée par les nouveaux classiques. Simon Wren-Lewis (2014a) pensait que celle-ci était avant tout de nature méthodologique. Elle proviendrait selon lui de l’insatisfaction que les économistes ressentaient face au fossé entre la méthodologie qui dominait à l’époque dans la plupart des travaux microéconomiques et celle qui dominait dans la macroéconomie orthodoxe. Paul Krugman (2014) pensait quant à lui que le succès de la révolution des nouveaux classiques s’expliquait par la stagflation. Mais Wren-Lewis notait que les keynésiens avaient rapidement adapté leurs modèles en combinant l’idée d’une courbe de Phillips accélérationniste avec l’idée que les décideurs politiques puissent sous-estimer le taux de chômage naturel pour expliquer la stagflation. Cette réaction prouverait selon lui que la victoire des nouveaux classiques sur les keynésiens était davantage théorique qu’empirique. Pour le montrer, Wren-Lewis (2014b) s’est alors penché sur ce qui constitue à ses yeux comme le véritable manifeste des nouveaux classiques : un article que Robert Lucas et Thomas Sargent (1979) présentèrent à la conférence organisée par la Réserve fédérale de Boston en juin 1978, conférence qui s’intitulait « After the Phillips Curve: the Persistence of High Inflation and High Unemployment ». Selon Wren-Lewis, cet article porte essentiellement sur des questions méthodologiques : il s’agissait pour ses auteurs de critiquer les modèles macroéconométriques keynésiens sur un plan méthodologique, mais ils n’ont pas relié leur critique à la stagflation.  

Aurélien Goutsmedt (2017) a alors étudié en détails les travaux qui ont été présentés lors de la conférence afin de préciser la place que tenaient la stagflation et la méthodologie dans les débats qui se tenaient alors et ainsi mieux comprendre les bouleversements que le paysage de la macroéconomie a connus dans les années soixante-dix. Il note tout d’abord que, lors de la conférence, la question de la méthodologie était souvent intimement liée à la question de la stagflation : la préférence d’un économiste pour une explication de la stagflation était associée à une préférence pour une certaine méthodologie dans la modélisation. Une première explication de la stagflation considéraient que l’inadéquation des politiques économiques et les changements dans le comportement des agents constituaient les causes fondamentales de la stagflation ; il s’agissait essentiellement de la thèse des nouveaux classiques. Selon une seconde explication, la stagflation résultait principalement de chocs externes, notamment le choc pétrolier ; c’était celle qu’avançaient les keynésiens et les utilisateurs de modèles macroéconomiques structuraux. Par contre, l’article de Lucas et Sargent n’a pas cherché à expliquer la stagflation, ni à la lier à l’échec du consensus keynésien.

En outre, le conflit entre, d’une part, Lucas et Sargent et, d’autre part, les partisans des modèles macroéconométriques structurels  ne se ramenait pas à une opposition entre la modélisation microfondée (à laquelle les premiers appelleraient) et la modélisation non-microfondée (que privilégieraient les seconds). En effet, Goutsmedt note par exemple que les modèles défendus par Lawrence Klein et Ray Fair, deux concepteurs de modèles macroéconométriques structurels, étaient microfondés.

En fait, l’opposition entre les macroéconomistes portait plutôt sur la nature des microfondations à privilégier. D’un côté, Lucas et Sargent appelaient à construire les modèles sur la base d’équations tirées de ce qui constituait selon eux le cadre le plus robuste en économie, en l’occurrence le modèle walrasien d’équilibre général. Ce qui doit primer avant tout, selon eux, c’est la cohérence interne du modèle. C’est ce programme qu’appliquèrent les premiers nouveaux classiques, les théoriciens de cycles d’affaires réels (real business cycles), puis les tenants de la nouvelle synthèse néoclassique qui proposèrent à partir des années quatre-vingt-dix les modèles d’équilibre général stochastiques dynamiques (DSGE) : ceux-ci sont fondamentalement des modèles de cycles d’affaires réels qui incorporent des éléments nouveaux keynésiens, en l’occurrence la concurrence imparfaite et l’hypothèse d’un ajustement progressif des prix et salaires. Ceux qui s’opposèrent à cette « discipline » le firent au motif qu’ils estimaient que les microfondations devaient résulter aussi bien de l’interaction des théories microéconomiques et macroéconomiques que de celle des données microéconomiques et macroéconomiques. Dans leur optique, si les données ne collaient pas avec le modèle, c’était peut-être en raison d’une erreur de la théorie microéconomique : ainsi, si les modèles structuraux des années soixante-dix ne parvenaient pas à établir des prévisions correctes, il n’était pas nécessaire de les abandonner, mais il était de les améliorer en prenant en compte les données.

Enfin, Goutsmedt note que la conférence marqua une rupture croissante entre la macroéconomie universitaire et la modélisation macroéconométrique des décideurs politiques. Les idées des nouveaux classiques se sont diffusées lentement et qu’elles ne se sont pas totalement imposées dans l’ensemble des grandes institutions économiques. De nombreuses banques centrales et plusieurs ministères des Finances continuent d’utiliser des modèles hybrides, qui ne sont pas de purs modèles DSGE. Goutsmedt estime que ces modèles hybrides ne résultent pas de la nouvelle synthèse néoclassique ; ils sont plutôt l’héritage direct des modèles utilisés dans les années soixante et soixante-dix.  

 

Références

GOUTSMEDT, Aurélien (2017), « Stagflation and the crossroad in macroeconomics: The struggle between structural and New Classical macroeconometrics », Centre d’économie de la Sorbonne, document de travail, n° 2017.43.

KRUGMAN, Paul (2014), « Stagflation and the fall of macroeconomics », 28 juin.

LUCAS, Jr., Robert E., & Thomas J. SARGENT (1979), « After keynesian macroeconomics », In After the Phillips Curve: the Persistence of High Inflation and High Unemployment.

WREN-LEWIS, Simon (2014a), « Understanding the New Classical revolution? », in Mainly Macro (blog), 28 juin. Traduction française, « Comment expliquer la révolution des nouveaux classiques », in Annotations (blog).

WREN-LEWIS, Simon (2014b), « Rereading Lucas and Sargent 1979 », in Mainly Macro (blog), 11 juillet. Traduction française, « Relire Lucas et Sargent », in Annotations (blog).

Partager cet article

Repost0

Présentation

  • : D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher