Overblog
Suivre ce blog Administration + Créer mon blog
6 février 2020 4 06 /02 /février /2020 11:58
Quel est le coût politique des réformes structurelles ?

Depuis les années quatre-vingt, les gouvernements, aussi bien dans les pays développés que dans les pays en développement, sont régulièrement appelés à adopter des « réformes structurelles » pour stimuler la croissance et l’emploi à long terme : celles-ci désignent diverses mesures allant de la déréglementation des marchés des produits et du secteur financier à la flexibilisation des marchés du travail, en passant par l’ouverture des économies au commerce mondial ou aux flux de capitaux étrangers. 

Toute une littérature tend à considérer que ces réformes, en l’occurrence les déréglementations, ont pour principal effet de réduire et de redistribuer les rentes [Blanchard et Giavazzi, 2003]. Par exemple, si les marchés des produits sont fortement réglementés, les entreprises en place jouiront de profits élevés et s’inquièteront peu à l’idée d’être concurrencées par de nouvelles rivales ; une déréglementation des marchés des produits les pousse alors à réduire leurs prix, à diversifier leur offre et notamment à innover, ce qui bénéficie à court terme au consommateur et à long terme à l’ensemble de l’économie en stimulant le progrès technique et la croissance économique. De même, si le marché du travail est fortement réglementé, c’est-à-dire s’il est complexe et coûteux pour les entreprises d’embaucher et de licencier, les travailleurs jouiront d’un pouvoir de négociation élevé, mais celui-ci ne bénéficiera en définitive qu’aux « insiders », c’est-à-dire aux travailleurs en emploi, qui négocieront des salaires élevés au détriment des chômeurs, les « outsiders », dont  les rangs grossiront et dont les chances d’être embauchés diminueront ; dans cette optique, une déréglementation du marché du travail inciterait les entreprises à embaucher et donc à produire davantage, notamment parce qu’elles gagneraient ainsi en compétitivité. Dans les deux cas, la réduction des rentes permet à l’économie de gagner en efficacité et la croissance s’en trouve stimulée. 

Mais même si une réforme se révèle bénéfique à long terme pour la collectivité sans son ensemble, elle risque de nuire à certains et notamment d’augmenter le chômage à court terme. Andrea Bassanini et Federico Cingano (2018) constatent, en observant des pays de l’OCDE, que les réformes réduisant les barrières à l’entrée sur les marchés des produits et les coûts de licenciement sur le marché du travail réduisent à court terme l’emploi, en particulier lors des récessions : la déréglementation des marchés des produits pousse certainement les firmes à vouloir réduire leurs coûts, notamment leur masse salariale, si bien qu’elles peuvent profiter de la baisse des coûts de licenciement, non pas pour embaucher, mais bien pour licencier. De leur côté, en étudiant les réformes des marchés des produits et du travail dans 26 pays développés, Romain Duval et Davide Furceri (2018) concluent que les réformes des marchés des produits accroissent à long terme la productivité et la production, mais que ce gain ne se matérialise que graduellement. Quant à l’impact des réformes du marché du travail, il dépend particulièrement du cycle d’affaires : la réduction de la protection de l’emploi et de la générosité de l’indemnisation du chômage nuit particulièrement à l’activité lorsque cette dernière est déprimée, dans la mesure où la réduction de l’indemnisation du chômage comprime davantage la consommation et où le manque de débouchés incite, de nouveau, les entreprises à profiter de la baisse des coûts de licenciement pour licencier. Les réductions des coins fiscaux et les programmes de formation semblent particulièrement stimuler l’activité, mais peut-être parce qu’ils s’accompagnent généralement d’une relance budgétaire. Les études portant sur les autres types de réformes aboutissent également à des résultats nuancés : par exemple, les réformes libéralisant les mouvements de capitaux semblent avoir des gains limités, mais creusent significativement les inégalités [Furceri et alii, 2019]. En définitive, il apparaît donc opportun d’adopter des réformes structurelles lorsque l’économie est en expansion, voire d’accompagner leur mise en œuvre d’une relance budgétaire ou monétaire, non seulement pour en réduire les effets négatifs sur l’activité et l’emploi à court terme, mais aussi par là même pour mieux les faire accepter par la population.

En effet, dès lors que les gains et les coûts d’une réforme sont inégalement répartis dans la population, ceux qui se perçoivent comme perdants peuvent se mobiliser pour faire pression sur les gouvernements afin qu’ils abandonnent ou allègent leurs réformes [Olson, 1971]. Ils risquent en outre de sanctionner les gouvernements réformateurs lors des élections. Les réformes structurelles peuvent donc avoir un coût politique pour le gouvernement en place, ce qui influence par conséquent certainement le rythme et le contenu des réformes, or ce lien a été très peu exploré par la littérature. De nombreux travaux ont cherché à relier les résultats électoraux à l’état de la conjoncture et ceux-ci ont suggéré que les gouvernements en place tendaient à être réélus lorsque l’économie est en expansion et à perdre les élections lors des récessions. Mais il y a par contre très peu de travaux cherchant précisément à déterminer les répercussions électorales des réformes structurelles.

Dans les études qui font exception, Marco Buti et alii (2010) ont cherché à identifier les conséquences politiques des réformes structurelles en observant un échantillon de 21 pays de l’OCDE sur la période allant de 1985 à 2003. Leur analyse suggère que les chances de réélection des gouvernements en place ne sont pas significativement affectées par les libéralisations qu’ils ont pu mettre en œuvre. Pour autant, l’impact électoral d’une réforme dépend de sa nature : par exemple, les réformes semblent d’autant plus coûteuses pour le gouvernement en place que le nombre d’« insiders » auxquels elles nuisent est important. Buti et ses coauteurs suggèrent que certains pays pourraient être d’ailleurs piégés dans une « trappe à rigidité » : les gouvernements procédant à des réformes de libéralisations dans des pays où la réglementation des marchés des produits et du travail est très stricte tendraient à être particulièrement sanctionnés lors des élections, ce qui pourrait en définitive désinciter les gouvernements à assouplir la réglementation. 

Dans deux nouvelles études, Gabriele Ciminelli et alii (2019) et Alberto Alesina et alii (2020) ont cherché à identifier les répercussions électorales des réformes des marchés du travail, des déréglementations des marchés des produits, des ouvertures du commerce extérieur, des déréglementations financières et des ouvertures financières dans 90 pays développés en en développement sur la période allant de 1973 à 2014. Leur analyse suggère qu’en termes de coût politique, le calendrier des réformes structurelles apparaît important à deux niveaux : leurs répercussions électorales dépendent de la position dans le cycle d’affaires où se situe l’économie lorsqu’elles sont mises en œuvre, mais aussi de la position dans le cycle électoral. Malgré leur apparent bénéfice économique, les réformes libérales sont coûteuses pour les gouvernements lorsque ces derniers les adoptent à la veille d’élections : la part des suffrages du principal parti au pouvoir décline dans le sillage des réformes structurelles lors des années élections, mais il n’y a pas un tel coût politique lorsque les réformes sont mises en œuvre plus tôt au cours du cycle électoral. Pour Alesina et ses coauteurs, ce coût politique pourrait s’expliquer par la lenteur avec laquelle les gains économiques se manifestent aux yeux des électeurs ou par le fait que ces derniers soient impatients : les électeurs ne prennent pas en compte le fait que les gains des réformes ne se manifestent pas immédiatement. Cela risque d’être d’autant plus le cas si les réformes ont coût économique à court terme, en se traduisant par exemple par une montée, même transitoire, du chômage.

De plus, les répercussions électorales des réformes structurelles dépendent de la conjoncture en vigueur lorsque ces dernières sont mises en œuvre : les déréglementations sont particulièrement sanctionnées lorsqu’elles sont adoptées durant des années d’élections marquées par une contraction de l’activité, mais elles ne sont pas sanctionnées et sont même parfois récompensées lorsqu’elles sont adoptées lors des expansions. Les données suggèrent à Alesina et à ses coauteurs que les électeurs attribuent en partie l’état conjoncturel de l’économie aux réformes. Autrement dit, si la conjoncture est mauvaise dans le sillage de l’adoption de réformes, ces dernières sont perçues comme en partie responsables de cette mauvaise conjoncture.

En définitive, il apparaît optimal pour un gouvernement de mettre en œuvre des réformes structurelles lorsqu’il débute son mandat et que l’économie est en expansion, afin d’en accroître le gain économique et d’en réduire le coût électoral. Or, les gouvernements adoptent l’essentiel de leurs réformes lorsque l’économie est en récession et le chômage élevé, c’est-à-dire lorsque le gain de la réforme en termes de croissance est le plus faible et le coût électoral le plus élevé [Dias da Silva et alii, 2017]. Pour Alesina et ses coauteurs, ce mauvais choix de calendrier s’explique certainement par les contraintes auxquelles sont soumis les gouvernements. Peut-être que les gouvernements prennent conscience de la nécessité de stimuler la croissance à long terme lorsque la croissance courante est faible ; ou peut-être pensent-ils que l’opposition aux réformes sera moins importante lorsque l’activité est déprimée et le chômage élevé.

Enfin, ces deux études ont cherché à voir si ces différents constats étaient affectés par la nature du système politique, le niveau de vie du pays et le secteur sur lequel porte la réforme. Elles suggèrent que les gouvernements sont davantage punis lors des élections lorsqu’ils sont issus d’un unique parti plutôt que d’une coalition, très certainement parce que la responsabilité apparaît partagée dans le second cas. De plus, ce sont les libéralisations financières qui semblent particulièrement coûteuses pour les gouvernements en place. Les répercussions électorales ne semblent guère varier selon que le système politique est majoritaire ou proportionnel ou selon que le pays est une vieille démocratie ou qu’il s’est récemment démocratisé. Enfin, les coûts politiques lors des années d’élections semblent plus élevés pour les pays en développement que pour les pays développés, mais la différence n’est pas statistiquement significative. 

 

Références

ALESINA, Alberto F., Davide FURCERI, Jonathan D. OSTRY, Chris PAPAGEORGIOU & Dennis P. QUINN (2020), « Structural reforms and elections: Evidence from a world-wide new dataset », NBER, working paper, n° 26720.

BASSANINI, Andrea, & Federico CINGANO (2018), « Before it gets better: The short-term employment costs of regulatory reforms », in International Labor Relations Review.

BLANCHARD, Olivier, & Francesco GIAVAZZI (2003), « Macroeconomic effects of regulation and deregulation in goods and labour markets », in Quarterly Journal of Economics, vol. 118, n° 3.

BUTI, Marco, Pietro BIROLI, Mathias THOENIG, Alesandro TURRINI, Paul VAN DEN NOORD & Ekaterina ZHURAVSKAYA (2010), « Reforms and re-elections in OECD countries », in Economic Policy, vol. 25, n° 61.

CIMINELLI, Gabriele, Davide FURCERI, Jun GE, Jonathan D. OSTRY & Chris PAPAGEORGIOU (2020), « The political costs of reforms: Fear or reality? », FMI, staff discussion paper, n° 19/08.

DIAS DA SILVA, Antonio, Audrey GIVONE & David SONDERMANN (2017), « When do countries implement structural reforms? », BCE, working paper, n° 2078.

DUVAL, Romain, & Davide FURCERI (2018), « The effects of labor and product market reforms: The role of macroeconomic conditions and policies », in IMF Economic Review, vol. 66, n° 1.

FURCERI, Davide, Prakash LOUNGANI & Jonathan D. OSTRY (2019), « The aggregate and distributional effects of financial globalization: Evidence from macro and sectoral data », in Journal of Money, Credit and Banking, vol. 51.

OLSON, Mancur (1971)The Logic of Collective Action: Public Goods and the Theory of Groups, Harvard University Press. Traduction française, La Logique de l'action collective.

Partager cet article

Repost0
25 janvier 2020 6 25 /01 /janvier /2020 11:41
Quels sont les effets de la politique monétaire à long terme ?

Dans le sillage des travaux des monétaristes, puis des nouveaux classiques, la théorie orthodoxe a longuement considéré que la politique monétaire était neutre à long terme. S’il y avait débat, celui-ci portait sur les effets de la politique monétaire à court terme : à court terme, elle est active pour les monétaristes et les nouveaux keynésiens, mais neutre pour les nouveaux classiques. Dans leur raisonnement, la politique monétaire n’est supposée avoir d’effet que sur la demande globale, si bien qu’elle influence peut-être le cycle d’affaires, mais non la production à long terme ; cette dernière est supposée être déterminée par des facteurs structurels comme la technologie, la démographie et les préférences des agents. Par conséquent, les banques centrales ont peut-être la capacité d'écourter les épisodes de récession en ramenant plus vite la production sur sa trajectoire de long terme, elles n'ont pas la capacité d'affecter cette trajectoire.

Si les monétaristes et les nouveaux classiques partagent la même vision du long terme, c'est notamment parce qu'ils ont adopté la théorie quantitative de la monnaie : selon cette dernière, un assouplissement monétaire entraîne mécaniquement une hausse du niveau des prix. Mais son impact exact sur l'activité à court terme dépend de la nature des anticipations. Si les anticipations sont adaptatives, alors les agents vont dans un premier temps sous-estimer l’inflation courante [Friedman, 1958]. Les salaires réels vont alors diminuer, ce qui va inciter les entreprises à embaucher, si bien que le chômage va diminuer et la production augmenter. Mais, dans un deuxième temps, les travailleurs vont corriger leurs erreurs d’anticipations et exiger une hausse de leurs salaires nominaux, ce qui va inciter les entreprises à licencier et entraîner une baisse de la production : les salaires réels, le chômage et l'activité reviennent alors à leur niveau initial. Mais si les anticipations sont rationnelles, comme le supposent les nouveaux classiques, alors la politique monétaire perd toute capacité à influencer la production et l'emploi : si la banque centrale adopte une politique monétaire accommodante, les agents révisent immédiatement leurs anticipations, si bien qu’ils ne modifient pas leurs comportements en termes de travail et de production [Sargent et Wallace, 1975].

Les nouveaux keynésiens ont répliqué aux nouveaux classiques en montrant que l’hypothèse d’anticipations rationnelles n’impliquait pas forcément une neutralité de la politique monétaire à court terme : cette dernière influence l’activité et le chômage à court terme si les prix et salaires sont visqueux. En l’occurrence, si la banque centrale assouplit sa politique monétaire, la demande globale augmente, ce qui stimule l'activité et réduit le chômage. Mais si la viscosité des prix et salaires les empêche de s’ajuster à court terme, ils s’ajusteront tout de même à long terme : l’assouplissement monétaire entraîne en définitive une hausse des prix, ce qui ramène la demande et donc la production et l'emploi à leur trajectoire initiale. Ainsi, les monétaristes, les nouveaux classiques et les nouveaux keynésiens ne s’accordent pas sur l’effet de la politique monétaire sur l’activité à court terme, mais ils se rejoignent en concluant qu’elle n’influence pas l’activité à long terme.

Depuis les années quatre-vingt, certains nouveaux keynésiens ont toutefois parlé d’effets d’« hystérèse » (ou d’« hystérésis ») en évoquant la possibilité que le niveau de production (et du chômage) à long terme soit influencé par la conjoncture, c’est-à-dire finalement par la demande globale. Ces travaux font souvent transiter ces effets d’hystérèse par le marché du travail ; c’est notamment le cas d’Olivier Blanchard et Larry Summers (1986), de Jordi Galí (2015) ou encore d’Olivier Blanchard (2018). Par exemple, plus les chômeurs passent du temps au chômage, plus ils perdent en compétences et voient leur santé se dégrader, moins ils ont de chances d’être embauchés rapidement, plus ils risquent de se décourager et de quitter la vie active. Autrement dit, plus le taux de chômage persiste à un niveau élevé, plus il risque d’être élevé à long terme et plus le potentiel de croissance s’en trouve dégradé. C’est un tel raisonnement qui amène à plaider en faveur de l’usage agressif de politiques expansionnistes lorsque l’économie bascule dans la récession : plus vite l’économie est ramenée au plein emploi, moins les effets d’hystérèse auront l’occasion de se manifester. 

Plusieurs travaux empiriques réalisés ces deux dernières décennies ont confirmé que le niveau de production à long terme était influencé par la conjoncture et, notamment pour cette raison, par les politiques conjoncturelles : par exemple, Valerie Cerra et Sweta Saxena (2008, 2017) ont montré que les récessions entraînaient une perte du production permanente, même lorsqu’elles ne sont pas synchrones avec une crise financière, tandis qu’Antonio Fatás et Larry Summers (2017) ont mis en évidence les dommages permanents des plans d’austérités sur la production potentielle. De tels travaux pourraient ainsi suggérer que la politique monétaire est susceptible d'avoir des effets sur l'activité à long terme. Pourtant, la littérature peine à le montrer. 

Plusieurs études empiriques, souvent focalisées sur l’économie américaine, ont précisément cherché à déterminer si la politique monétaire était active ou neutre à long terme [James Bullard, 1999]. Mark Fisher et John Seater (1993) estiment que les données permettent de rejeter l’idée d’une neutralité à long terme, mais John Boschen et Christopher Otrok (1994) notent que leurs résultats sont moins robustes lorsque l’épisode de la Grande Dépression des années trente est écarté de l’échantillon. La très grande majorité des études concluent plutôt que les données sont cohérentes avec une neutralité à long terme, mais la plupart d’entre elles, notamment celle de Robert King et Mark Watson (1997), partent de l’idée que la banque centrale contrôle l’offre de monnaie, si bien que ces analyses concluent en définitive davantage en la neutralité des agrégats monétaires à long terme, plutôt qu’en la neutralité de la politique monétaire proprement dite. Les analyses de Ben Bernanke et Ilian Mihov (1998) et de Yunus Aksoy et Miguel León-Ledesma (2005) font exception en partant du fait que la banque centrale contrôle les taux d’intérêt nominaux de court terme.

Attaquant la question sous un autre angle que le faisait la littérature existante, Òscar Jordà, Sanjay Singh et Alan Taylor (2020) se sont demandé si la politique monétaire influençait la capacité productive de l’économie à long terme en étudiant 125 années de données relatives à 17 pays développés. Pour observer les effets propres à la politique monétaire, ils ont cherché à identifier des variations exogènes des taux d’intérêt. Pour ce faire, ils se sont appuyés sur le trilemme de la finance internationale : quand un pays ancre sa monnaie sur la devise d’un autre pays, en retirant toute barrière aux mouvements de capitaux, il perd le contrôle de son taux d’intérêt domestique. Les chocs touchant les taux d’intérêt dans le pays dont la monnaie sert de devise d’ancrage sont alors exogènes pour les taux d’intérêt domestiques. 

Une fois les chocs de politique monétaire identifiés, Jordà et ses coauteurs en observent les effets. Ils notent alors la présence de puissantes forces d’hystérèse : en réponse à un resserrement monétaire, la production décline et, plus d’une décennie après, elle n’est toujours pas retournée à la tendance qu’elle suivait avant le choc. En effet, une hausse d’un point de pourcentage des taux d’intérêt de court terme se traduit par un PIB inférieur de plus de 3 % douze ans après. En conclusion, il apparaît que la monnaie est active bien plus longtemps que ce qui est souvent supposé, ce qui amène à rejeter l’idée d’une neutralité monétaire à long terme.

Lorsqu’ils cherchent à déceler la source de cet effet d’hystérèse, Jordà et ses coauteurs constatent que ce dernier touche le stock de capital et la productivité totale des facteurs, mais non le travail. En effet, le capital et la productivité globale des facteurs connaissent des trajectoires similaires à la production ; à l’inverse, le nombre d’heures travaillées, le nombre d’heures par travailleur et le nombre de travailleurs retournent rapidement à la tendance qu’ils suivaient avant le choc. L’effet d’hystérèse que leur analyse met en évidence n’est donc pas le même que celui habituellement retenu dans la littérature. Dans la modélisation qu’ils proposent alors, le choc de politique monétaire réduit la production et freine temporairement la croissance de la productivité globale des facteurs. Mais ce ralentissement a beau être temporaire, le capital et la production se retrouvent sur une trajectoire tendancielle inférieure à celle qu’ils suivaient avant le choc monétaire : une faiblesse des débouchés incite ou force certainement les entreprises à moins investir, mais le retour ultérieur de la demande ne va pas pour autant les amener à lancer les projets d'investissement qu'elles n'ont voulu ou qu'elles n'ont pu réaliser.

Une telle étude confirme qu'il est nécessaire que les banques centrales réagissent aux contractions de l'activité en assouplissant leur politique monétaire. En l'occurrence, elles doivent le faire rapidement et agressivement pour éviter que des effets d'hystérèse se manifestent et réduisent le potentiel de croissance de l'économie à long terme. Réciproquement, il apparaît justifié que les banques centrales ne resserrent pas trop rapidement leur politique monétaire lorsque l'économie renoue avec l'expansion ; la laisser en légère surchauffe pourrait peut-être même contribuer à relever le potentiel de croissance à long terme.

 

Références

AKSOY, Yunus, & Miguel A. LEÓN-LEDESMA (2005), « Interest rates and output in the long-run », BCE, working paper, n° 434.

BERNANKE, Ben S., & Ilian MIHOV (1998), « The liquidity effect and long-run neutrality », in Carnegie-Rochester Conference Series on Public Policy, vol. 49, n° 1.

BLANCHARD, Olivier J. (2018), « Should we reject the natural rate hypothesis? », in Journal of Economic Perspectives, vol. 32, n° 1.

BLANCHARD, Olivier J., & Lawrence H. SUMMERS (1986), « Hysteresis and the European unemployment problem », in NBER Macroeconomics Annual 1986, vol. 1, MIT Press.

BOSCHEN, John F., & Christopher M. OTROK (1994), « Long-run neutrality and superneutrality in an ARIMA framework: Comment », in American Economic Review, vol. 84, n° 5.

BULLARD, James (1999), « Testing long-run monetary neutrality propositions: Lessons from the recent research », in Federal Reserve Bank of St. Louis Review.

CERRA, Valerie, & Sweta C. SAXENA (2008), « Growth dynamics: The myth of economic recovery », in American Economic Review, vol. 98, n° 1.

CERRA, Valerie, & Sweta C. SAXENA (2017), « Booms, crises, and recoveries: A new paradigm of the business cycle and its policy implications », FMI, working paper, n° 17/250.

FATÁS, Antonio, & Lawrence H. SUMMERS (2017), « The permanent effects of fiscal consolidations », in Journal of International Economics, vol. 112.

FISHER, Mark E., & John J. SEATER (1993), « Long-run neutrality and superneutrality in an ARIMA framework », in American Economic Review, vol. 83, n° 3.

GALÍ, Jordi (2015), « Hysteresis and the European unemployment problem revisited », NBER, working paper, n° 21430.

JORDÀ, Òscar, Sanjay R. SINGH & Alan M. TAYLOR (2020), « The long-run effects of monetary policy », Federal Reserve Bank of San Francisco, working paper, n° 2020-01.

KING, Robert G., & Mark W. WATSON (1997), « Testing long-run neutrality », Federal Reserve Bank of Richmond, Economic Quarterly, vol. 83, n° 3.

SARGENT, Thomas, & Neil WALLACE (1975), « ‘Rational’ expectations, the optimal monetary instrument, and the optimal money supply rule », in Journal of Political Economy, vol. 83, n° 2.

Partager cet article

Repost0
17 janvier 2020 5 17 /01 /janvier /2020 17:42
La décroissance démographique marquera-t-elle la fin de la croissance économique ?

Beaucoup considèrent que la population mondiale devrait se stabiliser à long terme à un niveau compris entre 8 et 10 milliards de personnes. Mais pour d’autres, notamment Darrell Bricker et John Ibbitson (2019) dans leur livre Empty Planet, il n’est pas improbable qu’elle tende en fait à décliner à long terme avec la poursuite de l’effondrement du taux de fertilité dans l’ensemble des régions du monde (cf. graphique). Dans les pays à haut revenu, le taux de fertilité est déjà inférieur au seuil de remplacement : les femmes ont moins de deux enfants en moyenne. Au Japon et dans certains pays européens comme l’Allemagne et l’Italie, le solde naturel, c’est-à-dire l’écart entre le nombre de naissances et le nombre de décès, est déjà négatif, si bien que leur population tend à réduire en l'absence d'immigration. 

GRAPHIQUE  Taux de fertilité

La décroissance démographique marquera-t-elle la fin de la croissance économique ?

source : Jones (2020)

Cette perspective n’est pas sans susciter des inquiétudes quant à la poursuite de la croissance économique à long terme. D’un point de vue néoclassique, la décroissance démographique est susceptible de freiner la croissance économique du côté de l’offre dans la mesure où elle réduit la main-d’œuvre disponible. Du point de vue keynésien, la décroissance démographique est susceptible de freiner la croissance dans la mesure où elle déprime la demande globale. John Maynard Keynes (1937) s’inquiétait déjà à l’idée que la population puisse décroître. En l’occurrence, selon lui, la décroissance démographique nuit surtout à l’activité économique via ses effets sur l’investissement : si les entreprises s’attendent à ce que la population décline, c’est-à-dire à ce qu’il y ait moins de consommateurs, elles auront moins de raisons d’accroître leurs capacités de production ; elles seront moins incitées à embaucher et à investir, ce qui déprimera en retour davantage la demande globale. En outre, si le nombre de travailleurs décline, les entreprises auront moins à investir pour les équiper. En définitive, il est de moins en moins probable que la demande globale suffise pour maintenir l’économie au plein emploi. C’est d’ailleurs la dynamique démographique qui est au cœur du raisonnement que développait Alvin Hansen (1938) autour de la Seconde Guerre mondiale et celui que développe aujourd’hui Larry Summers (2015) pour évoquer la possibilité d’une stagnation séculaire.

Mais la décroissance démographique peut ne pas nécessairement freiner la croissance des niveaux de vie. D’une part, elle peut inciter les entreprises à innover et à davantage automatiser leur production pour faire face aux pénuries de main-d’œuvre, ce qui stimule les gains de productivité [Acemoglu et Restrepo, 2017 ; 2018], à condition toutefois que la demande globale ne soit pas excessivement déprimée [Eggertsson et alii, 2018]. D’autre part, si la taille de la population diminue, cela tend à réduire son empreinte écologique : la population peut alors plus facilement accroître son niveau de vie, c’est-à-dire le niveau de production par tête, sans que la production agrégée ait à augmenter et finisse par buter sur les contraintes environnementales. 

Aujourd’hui, beaucoup de modèles considèrent que la croissance économique repose sur la découverte de nouvelles idées : c’est le cas des modèles de croissance endogène [Romer, 1990 ; Grossman et Helpman, 1991 ; Aghion et Howitt, 1992], comme celui des modèles de croissance semi-endogène [Jones, 1995 ; Kortum, 1997 ; Segerstrom ; 1998]. Ces modèles considèrent donc que le rythme de la croissance économique à long terme dépend de la taille de la population : plus la population est importante, plus elle disposera de chercheurs, plus ces derniers trouveront de nouvelles idées et plus les innovations résultantes pousseront les niveaux de vie à la hausse.

Ces modèles supposent typiquement soit une poursuite de la croissance démographique, soit une stagnation démographique ; ils ne considèrent pas l’éventualité d’une décroissance démographique. Or, si la population est davantage susceptible d’avoir de nouvelles idées qu’elle est importante, sa décroissance devrait par conséquent réduire le nombre de chercheurs et tendre à freiner le progrès technique. Une telle éventualité est d’autant plus inquiétante qu’il semble déjà en soi de plus en plus difficile de trouver de nouvelles idées [Gordon, 2012 ; Bloom et alii, 2017].

Charles Jones (2020) s’est donc récemment demandé comment se comporte la croissance économique lorsqu’elle est fondamentalement impulsée par les idées et que la croissance démographique devient négative. En utilisant un modèle de croissance endogène, puis un modèle de croissance semi-endogène, il montre que la décroissance démographique est susceptible de conduire à la réalisation du scénario dit de la « planète vide » (empty planet), en référence au livre éponyme de Bricker et Ibbitson : le savoir et les niveaux de vie stagnent pour une population qui décline graduellement. En conséquence, des politiques appropriées doivent être mises en place à temps pour que la fertilité reste supérieure au seuil de remplacement et que se concrétise le scénario du « cosmos en expansion » (expanding cosmos), celui où la population et les niveaux continuent de croître conjointement. Si ces politiques tardent à être mises en œuvre l'économie risque d'être définitivement piégée dans le scénario de la « planète vide ».

Jones conclut toutefois son analyse en notant qu’une poursuite du déclin de la fertilité ne conduit pas forcément à la réalisation du scénario de la « planète vide ». D’une part, l’automatisation peut améliorer la capacité des populations à produire suffisamment d’idées pour que la croissance des niveaux de vie se poursuive malgré le déclin de la population. D’autre part, les nouvelles découvertes peuvent finir par ramener le taux de mortalité proche de zéro, permettant à la population de continuer de croître malgré l’effondrement de la fertilité. 

 

Références

ACEMOGLU, Daron & Pascual RESTREPO (2017), « Secular stagnation? The effect of aging on economic growth in the age of automation », NBER, working paper, n° 23077.

ACEMOGLU, Daron, & Pascual RESTREPO (2018), « Demographics and Automation », NBER, working paper, n° 24421.

AGHION, Philippe, & Peter HOWITT (1992), « A model of growth through creative destruction », in Econometrica, vol. 60, n° 2.

BLOOM, Nicholas, Charles I. JONES, John Van REENEN & Michael WEBB (2017), « Are ideas getting harder to find? », NBER, working paper, n° 23782.

BRICKER, Darrell, & John IBBITSON (2019), Empty Planet: The Shock of Global Population Decline, éditions Crown Publishing Group.

EGGERTSSON, Gauti B., Manuel LANCASTRE & Lawrence H. SUMMERS (2018), « Aging, output per capita and secular stagnation », NBER, working paper, n° 24902.

GORDON, Robert (2012), « Is US economic growth over? Faltering innovation confronts the six headwinds », CEPR, policy insight, n° 63.

GROSSMAN, Gene M., & Elhanan HELPMAN (1991), Innovation and Growth in the Global Economy, MIT Press.

HANSEN, Alvin H. (1938), Full Recovery or Stagnation?

HARDING, Robin (2019), « The costs of a declining population », in Financial Times, 14 janvier.

JONES, Charles I. (1995), « R&D-based models of economic growth », in Journal of Political Economy, vol. 103, n° 4. 

JONES, Charles I. (2020), « The end of economic growth? Unintended consequences of a declining population », NBER, working paper, n° 26651.

KEYNES, John M. (1937), « Some economic consequences of a declining population », in The Eugenics Review, vol. 29.

KORTUM, Samuel S. (1997), « Research, patenting, and technological change », in Econometrica, vol. 65, n° 6.

SEGERSTROM, Paul (1998), « Endogenous growth without scale effects », in American Economic Review, vol. 88, n° 5.

SUMMERS, Lawrence (2015), « Demand side secular stagnation », in American Economic Review: Papers & Proceedings, vol. 105, n° 5.

Partager cet article

Repost0
12 janvier 2020 7 12 /01 /janvier /2020 09:20
Une stagnation supra-séculaire ?

Les taux d’intérêt réels sont évoqués dans de nombreux débats contemporains. Ils jouent un rôle important dans la conduite de la politique monétaire, puisqu’ils conditionnent la marge de manœuvre dont disposent les banques centrales pour stimuler l’activité économique : plus ils sont faibles, moins elles ont de latitude pour baisser leurs taux directeurs avant qu’ils n’atteignent zéro. Or, ces dernières décennies et notamment les années qui ont suivi la crise financière mondiale ont été marquées par de faibles taux, suggérant à certains que de tels épisodes de bornes inférieures zéro sont susceptibles d’être plus fréquents. De leur côté, les partisans de la théorie de la stagnation séculaire voient dans la faiblesse des taux la preuve d’une faiblesse structurelle de la demande globale : autrement dit, la politique monétaire perdrait de sa capacité à stimuler l’activité précisément à l’instant où l’activité aurait besoin d’être stimulée. Ce sont les mêmes tendances lourdes qui sont accusées de contribuer tant à la faiblesse des taux qu’à la stagnation séculaire : le vieillissement démographique, l’épuisement du progrès technique et le tarissement des opportunités de profit, l’excès d’épargne exporté par les pays émergents, etc.

Les taux d’intérêt n’importent pas seulement pour la politique monétaire. Par exemple, l’écart entre le coût réel du capital pour les titres publics sûrs et le taux de croissance du revenu réel joue un rôle clé dans l’évaluation de la soutenabilité de la dette publique [Blanchard, 2019]. Enfin, le taux d’intérêt réel joue un rôle important dans le débat sur les inégalités de revenu et du patrimoine : en supposant une « quasi-stabilité du rendement pur du capital sur très longue période », Thomas Piketty (2013) estime que l’écart entre le rendement réel du capital et le taux de croissance réel (rg) tend à être positif, ce qui accentue la concentration du capital et accroît mécaniquement les inégalités de revenu.

Ces débats s’appuient souvent sur des analyses des taux d’intérêt qui se focalisent sur une période restreinte. Certaines études ont cherché à adopter un point de vue de très long terme pour étudier la dynamique des taux d’intérêt réels mondiaux ; c’est notamment le cas de Barry Eichengreen (2015), de James Hamilton et alii (2016) ou encore de Pierre-Olivier Gourinchas et Hélène Rey (2019). Paul Schmelzing (2020) estime toutefois qu’elles restent fragiles sur le plan méthodologique, ne serait-ce qu’en raison de l’insuffisance des données sur lesquelles elles s’appuient. Il a alors cherché à reconstruire les taux d’intérêt réels mondiaux en s’appuyant sur une multitude de sources d’informations allant des archives municipales constituées il y a un demi-millénaire aux données de la Réserve fédérale, en passant par les documents des royautés européennes. Ce travail lui a permis de reconstruire les taux réels mondiaux annuels en remontant jusqu’au quatorzième siècle et en couvrant 78 % des pays développés en termes de PIB au cours du temps (cf. graphique).

GRAPHIQUE  Taux d'intérêt réel mondial pondéré selon le PIB (en %)

Une stagnation supra-séculaire ?

Au terme de cette reconstitution, Schmelzing constate que les taux d’intérêt ne sont pas stables : ils ont baissé ces dernières décennies, mais de telles baisses n’ont pas été rares au cours de l’Histoire. Surtout, mis à part quelques périodes de stabilisation, entre 1550 et 1640, entre 1820 et 1850 ou encore entre 1950 et 1980, les taux d’intérêt réels mondiaux ont eu tendance à diminuer au cours des cinq derniers siècles, en l’occurrence depuis la fin du quinzième siècle, à un rythme annuel moyen compris entre 0,009 et 0,016 point de pourcentage. Et cette tendance apparaît dans une variété de classes d’actifs. D’autre part, la volatilité du taux d’intérêt réel a eu tendance à décliner ces cinq derniers siècles, rendant le taux réel de plus en plus visqueux. En conséquence, depuis le quatorzième siècle, les taux d’intérêt réels se sont de plus en plus fréquemment retrouvés en territoire négatif. Schmelzing identifie 46 épisodes de taux négatifs, en l’occurrence 29 au cours du vingtième siècle. Les taux négatifs ont affecté environ les 20 % du PIB des économies développés au cours du temps et cette part augmente en moyenne de 0,012 point de pourcentage par an.

La tendance baissière a été à l’œuvre malgré la succession de différents régimes politiques et de différents régimes monétaires (bâtis alternativement autour de l’or, de l’argent, du bimétallisme et de la monnaie scripturale). Schmelzing ne croit pas qu’elle soit directement impulsée par des facteurs liés à la croissance économique ou à la démographie. Il la relie à l’écrasement des primes de risque, un phénomène qu’il explique notamment par le reflux des conflits militaires au fil des siècles. 

Les constats de Schmelzing ont plusieurs implications. Tout d’abord, si la même tendance se poursuivait à l’avenir, les taux réels devraient continuer de s’enfoncer en territoire négatif et bientôt s’y retrouver définitivement. A partir de la fin des années 2020, les taux réels de court terme mondiaux devraient se retrouver piégés à jamais en territoire négatif. D’ici le milieu du siècle, les taux réels de long terme devraient aussi les y rejoindre définitivement.

Ensuite, cette étude amène Schmelzing à remettre en question les conclusions de Piketty. En reconstruisant les séries historiques de l’écart entre le rendement réel du capital et le taux de croissance réel (rg), Schmelzing en conclut que, loin de faire preuve d’une « quasi-stabilité », les rendements réels sur le patrimoine tendent à décliner au cours du temps et que, si la tendance se poursuivait, l’écart rg devrait bientôt devenir définitivement négatif. Autrement dit, cela priverait Piketty du principal argument qu’il avance pour évoquer une tendance structurelle du capitalisme à engendrer des inégalités.

Les taux faibles constituent la « nouvelle norme » (new normal), mais plus sûrement qu’on ne le pensait jusqu’alors. Schmelzing rejette l’idée que les taux réels mondiaux connaissent un retour à la moyenne dans un certain corridor, contrairement à ce que concluent James Hamilton et alii (2016). L’Histoire ne suggère pas qu’ils atteignent une quelconque valeur d’équilibre à moyen terme, même négative. Contrairement à ce que suggèrent Jordà et alii (2019), il n’apparaît pas non plus que le taux sûr réel fluctue normalement autour des niveaux que nous observons aujourd’hui. La baisse des rendements réels depuis les années 1980 représente en fait un retour à une tendance historique de long terme. En définitive, Schmelzing rejette les justifications de la théorie de la stagnation séculaire qui font apparaître l’évolution des taux d’intérêt ces dernières décennies comme une aberration au regard des dynamiques de long terme [Summers, 2014 ; Rachel et Summers, 2019].

Ces constats ont d’importantes implications pour la conduite de la politique économique, en premier lieu celle de la politique monétaire. L’extrême faiblesse des taux d’intérêt de court terme accroît le risque que les taux directeurs butent sur leur borne inférieure, ce qui prive les banques centrales de leur arme traditionnelle pour contrer les récessions. Elles peuvent certes recourir à des mesures « non conventionnelles » comme les programmes d’assouplissement quantitatif (quantitative easing) pour gagner en marge de manœuvre, mais celles-ci sont notamment supposées exercer leurs effets via leur impact sur les taux d’intérêt de long terme. Or la tendance baissière que met à jour Schmelzing touche également ces derniers.

Si la politique monétaire perd tendanciellement en puissance, les constats de Schmerling pourraient par contre plaider pour un usage plus agressif de la politique budgétaire. En effet, la baisse tendancielle contribue à rendre plus soutenables les endettements publics. Par conséquent, les gouvernements pourraient disposer d’un surcroît de marge de manœuvre pour stimuler l’activité à court terme, mais aussi lancer les investissements nécessaires à long terme comme ceux nécessaires à la transition écologique.  

 

Références

BLANCHARD, Olivier (2019), « Public debt and low interest rates », PIIE, working paper, n° 19-4.

EICHENGREEN, Barry (2015), « Secular stagnation: The long view », in American Economic Review, vol. 105, n° 5.

GOURINCHAS, Pierre-Olivier, & Hélène REY (2019), « Global real rates: A secular approach », BRI, working paper, n° 793.

HAMILTON, James D., Ethan S. HARRIS, Jan HATZIUS & Kenneth D. WEST (2016), « The equilibrium real funds rate: Past, present and future », in FMI, IMF Economic Review, vol. 64, n° 4.

JORDÀ, Oscar, Katharina KNOLL, Dmitry KUVSHINOV, Moritz SCHULARICK & Alan M. TAYLOR (2019), « The rate of return on everything, 1870–2015 », in Quarterly Journal of Economics, n° 134/2.

PIKETTY, Thomas (2013), Le Capital au XXIe siècle.

RACHEL, Łukasz, & Lawrence H. SUMMERS (2019), « On falling neutral real rates, fiscal policy, and the risk of secular stagnation », in Brookings Papers on Economic Activity.

SCHMELZING, Paul (2020), « Eight centuries of global real interest rates, R-G, and the ‘suprasecular’ decline, 1311–2018 », Bank of England, staff working paper, n° 845.

SUMMERS, Lawrence (2014), « U.S. economic prospects: Secular stagnation, hysteresis, and the zero lower bound », in Business Economics, vol. 49, n° 2.

Partager cet article

Repost0
11 novembre 2019 1 11 /11 /novembre /2019 11:15
Les investisseurs financiers ne peuvent ignorer les cycles d’endettement

La crise financière mondiale a fortement stimulé la recherche sur les liens entre facteurs financiers et variables macroéconomiques. Ces études ont mis en évidence des liens robustes entre les booms du crédit et des phénomènes macroéconomiques comme les crises financières et la croissance de la production. Focalisés sur les causes et conséquences de la crise financière de 2007 aux Etats-Unis, Atif Mian et Amir Sufi (2009) ont par exemple souligné l’importance de l’expansion rapide des prêts immobiliers dans l’appréciation des prix de l’immobilier et les défauts subséquents sur les prêts immobiliers, puis Atif Mian, Kamalesh Rao et Amir Sufi (2013) ont montré que la consommation a d’autant plus chuté dans une zone géographique que le patrimoine immobilier s’y est détérioré et que les ménages y étaient initialement endettés.

Barry Eichengreen et Kris Michener (2003) avaient qualifié la crise de 1929 de « boom du crédit qui a mal tourné ». Les récentes études ont montré que ce constat s'applique en fait à la plupart des crises financières. Par exemple, à partir d’un large échantillon de données relatives à 14 pays développés et s’étendant sur plus d’un siècle, Moritz Schularick et Alan Taylor (2012) ont constaté que la croissance du crédit constitue un puissant indicateur avancé des crises financières, puis, toujours à partir de ce même échantillon, Òscar Jordà, Moritz Schularick et Alan Taylor (2013) ont montré non seulement que les récessions synchrones à une crise financière nuisent davantage à la production que les récessions normales, mais aussi qu’une récession, qu’elle soit ou non synchrone à une crise financière, tend à être plus sévère et à être suivie par une plus lente reprise lorsqu’elle a été précédée par une expansion du crédit. En étudiant les données relatives à une trentaine de pays entre 1960 et 2012, Atif Mian, Amir Sufi et Emil Verner (2017) ont mis en évidence qu’une hausse du ratio dette des ménages sur PIB à moyen terme tend à prédire pour la période subséquente une moindre croissance du PIB, un chômage plus élevé et de plus amples révisions à la baisse des perspectives de croissance.

Dans la mesure où l’endettement présent un fort pouvoir prédictif pour ces divers phénomènes macroéconomiques, Josh Davis et Alan Taylor (2019) se sont demandé s’il en présentait également un pour les prix des actifs financiers ; il serait en effet surprenant que les cycles d’endettement influencent le cycle d’affaires, mais non les marchés financiers. Pour cela, Davis et Taylor ont étudié un large échantillon de données historiques concernant de nombreux pays développés. Leur analyse confirme l’un des constats obtenus par Mian et alii (2017) en suggérant que les performances de la croissance du crédit au niveau agrégé constituent un bon indicateur avancé de la croissance future du PIB.

Mais elle va plus loin en montrant que la dynamique du crédit constitue également un indicateur avancé des rendements futurs des grands classes d’actifs, les actions et les obligations : en l’occurrence, les périodes de boom du crédit tendent à être suivies par des rendements inhabituellement faibles des actions, que ce soit en termes absolus ou relativement aux obligations. Autrement dit, quand un boom du crédit arrive à maturité, les investisseurs financiers qui sont exposés aux actions feraient face à une probabilité accrue de chute, mais pas ceux qui sont exposés aux obligations.

Ces divers résultats ont d’importantes implications pour la modélisation en macroéconomie. En effet, comme le notaient Mian et alii (2017), un modèle néoclassique standard associe normalement un surcroît d’endettement dans la période courante à de meilleures perspectives de croissance dans le futur. Or, Davis et Taylor notent qu’après les booms du crédit, les détenteurs d’actions tendent à faire pire à l’avenir, pas mieux.

Ces constats posent également problème à la théorie financière et aux modèles d’évaluation des actifs financiers. Si les marchés étaient efficients, la croissance passée du crédit, une information à la disposition des investisseurs financiers, ne devrait pas prédire les rendements futurs des actifs. Or, Davis et Taylor montrent qu’un tel pouvoir explicatif existe et qu’il est robuste. En définitive, ni les macroéconomistes, ni les stratégistes financiers ne devraient ignorer le rôle des booms et effondrements du crédit. 

 

Références

DAVIS, Josh, & Alan M. TAYLOR (2019), « The leverage factor: Credit cycles and asset returns », NBER, working paper, n° 26435.

EICHENGREEN, Barry, & Kris J. MITCHENER (2003), « The great depression as a credit boom gone wrong », BIS, working paper, n° 137, septembre.

JORDÀ, Òscar, Moritz SCHULARICK & Alan M. TAYLOR (2013), « When credit bites back », in Journal of Money, Credit and Banking, vol. 45.

MIAN, Atif, Kamalesh RAO & Amir SUFI (2013), « Household balance sheets, consumption, and the economic slump », in The Quarterly Journal of Economics, vol. 128, n° 4.

MIAN, Atif, & Amir SUFI (2009), « The consequences of mortgage credit expansion: Evidence from the U.S. mortgage default crisis », in The Quarterly Journal of Economics, vol. 124, n° 4.

MIAN, Atif, Amir SUFI & Emil VERNER (2017), « Household debt and business cycles worldwide », in The Quarterly Journal of Economics, vol. 132, n° 4.

SCHULARICK, Moritz, & Alan M. TAYLOR (2012), « Credit booms gone bust: Monetary policy, leverage cycles, and financial crises, 1870–2008 », in American Economic Review, vol. 102, n° 2.

Partager cet article

Repost0
12 octobre 2019 6 12 /10 /octobre /2019 15:37
Le cycle d’affaires est-il symétrique ?

Dans la plupart des modèles orthodoxes actuellement utilisés, l’activité économique tend à fluctuer autour d’une trajectoire tendancielle, un « taux naturel ». Dans de tels modèles, les booms et les récessions apparaissent comme des déséquilibres symétriques. Ce sont alors des événements, des « chocs », qui éloignent la production de son niveau naturel, que ce soit à la hausse (dans le cas des chocs « positifs ») en poussant l'économie àa la surchauffe ou à la baisse (dans le cas des chocs « négatifs ») en éloignant l'économie du plein emploi.

Non seulement ces modèles tendent à supposer qu’après un choc la production tend à revenir à son niveau naturel, mais ils supposent aussi que le niveau naturel de la production n’est déterminé que du côté de l’offre, par des facteurs structurels. En conséquence, ils concluent que les politiques conjoncturelles ne peuvent qu’amortir les fluctuations, c’est-à-dire ramener la production à son niveau naturel, mais qu’elles n’ont pas d’effets sur ce dernier. Autrement dit, ces modèles tendent à minorer le rôle des politiques conjoncturelles.

Or, les événements ne sont pas toujours cohérents avec cette vision du cycle d'affaires : par exemple, avant la Grande Récession, les pays développés ne présentaient pas de réels signes de surchauffe, du moins pas de significatives tensions inflationnistes.

GRAPHIQUE 1  Logarithme du PNB des Etats-Unis

Le cycle d’affaires est-il symétrique ?

source : Friedman (1984), via Fatás et Mihov (2013)

A travers son « modèle du pincement de la corde de guitare » (« plucking model », Milton Friedman (1964, 1993) avait proposé une autre vision du cycle d’affaires où il n’y a que deux situations possibles : soit la production est à son niveau maximal, le niveau « naturel » correspondant à ce que l'on peut qualifier de plein-emploi, soit elle est en-deçà de celui-ci (cf. graphique 1). Autrement dit, les chocs que subit l’économie, les « pincements » pour reprendre les termes de Friedman, ne peuvent qu’éloigner la production en-deçà de son maximum ou bien la rapprocher de ce maximum. Le cycle d’affaires apparaît alors comme un phénomène asymétrique.

Dans une telle optique, les politiques conjoncturelles, si elles sont correctement utilisées, peuvent accroître le niveau moyen de la production et réduire le taux de chômage moyen, auquel cas elles sont susceptibles d’accroître significativement le bien-être collectif. De plus, si une telle théorie est valide, cela signifie que les estimations actuelles de la production potentielle, qui se contentent souvent de lisser la production pour en tirer la tendance, sous-estiment la production potentielle, ce qui se traduit par une surestimation du risque de surchauffe  pour l'économie et risque d'entraîner un resserrement hâtif des politiques conjoncturelles. L'évolution de l'inflation semble cohérente avec cette vision du cycle : la faiblesse de l'inflation suggère que la production potentielle est bien plus élevée qu'on ne l'estime habituellement.

GRAPHIQUE 2  Taux de chômage aux Etats-Unis (en %)

Le cycle d’affaires est-il symétrique ?

source : Dupraz et alii (2019)

note : la courbe bleue indique le taux de chômage, les lignes vertes les pics de l’activité et les lignes rouges les creux de l’activité.

Stéphane Dupraz, Emi Nakamura et Jón Steinsson (2019) estiment que la dynamique du taux de chômage aux Etats-Unis  (cf. graphique 2) présente une forte asymétrie qui semble davantage cohérente avec la vision asymétrique du cycle d’affaires qu’a proposée Friedman qu’avec la vision symétrie des cycles d’affaires qui est habituellement retenue dans les cycles. En effet, les hausses du taux de chômage américain sont suivies par des baisses de même amplitude, mais l’amplitude d’une hausse du chômage n’est pas liée à l’amplitude de sa baisse précédente (cf. graphique 3).

GRAPHIQUE 3  La propriété « plucking » du taux de chômage américain

Le cycle d’affaires est-il symétrique ?

source : Dupraz et alii (2019)

Selon les estimations que propose le FMI (2019) à partir d'un échantillon constitué d'autres pays développés que les Etats-Unis, l'asymétrie du cycle d'affaires n'est pas propre à l'économie américaine : dans les autres pays développés, la hausse du chômage lors des récessions est également suivie par une baisse proportionnelle du chômage lors des reprises qui les suivent, mais il n'y a aucune corrélation significative entre le reflux du chômage lors des expansions et la hausse du chômage lors des récessions qui les suivent.

Dupraz et ses coauteurs ont alors proposé un « modèle du pincement » où l’asymétrie du cycle d’affaires s’explique par la rigidité des salaires nominaux à la baisse : en raison de cette dernière, les chocs positifs entraînent des hausses de salaires, tandis que les chocs négatifs entraînent essentiellement des hausses du chômage, conformément à l’hypothèse de James Tobin (1972) [1]. Les simulations qu’ils réalisent suggèrent que l’élimination des cycles d’affaires se traduit par d’importants gains de bien-être, dans la mesure où elle réduit le taux de chômage moyen. En effet, les fluctuations du chômage sont des fluctuations au-delà d’un point bas du chômage et non des fluctuations symétriques autour d’un taux de chômage naturel, si bien qu’une réduction de la volatilité des chocs non seulement réduit la volatilité du taux de chômage, mais en outre réduit le niveau moyen de ce dernier. D’après les simulations, le maintien systématique de la production à son maximum réduit le taux de chômage moyen d’environ 1,2 point de pourcentage.

Ainsi, le modèle développé par Dupraz et alii suggère qu’il est justifié de s’appuyer sur les politiques conjoncturelles pour ramener la production à son maximum. D’autre part, il plaide pour un relèvement de la cible d’inflation suivie par la banque centrale : le relèvement de la cible d’inflation de 2 % à 4 % se traduit par une baisse du taux de chômage moyen de 1,4 point de pourcentage. Par contre, une réduction de la cible d’inflation de 2 % à 1 % augmenterait le taux de chômage moyen de 1,7 point de pourcentage.

 

[1] L’hypothèse de rigidité des salaires nominaux à la baisse est toutefois contestable, comme l’ont récemment rappelé Michael Elsby et alii (2019)

 

Références

DUPRAZ, Stéphane, Emi NAKAMURA & Jón STEINSSON (2019), « A plucking model of business cycles », NBER, working paper, n° 26351, octobre.

ELSBY, Michael W. L., & Gary SOLON (2019), « How prevalent is downward rigidity in nominal wages? International evidence from payroll records and pay slips », in Journal of Economic Perspectives, vol. 33, n° 3.

FATÁS, Antonio, & Ilian MIHOV (2015), « Recoveries », INSEAD, working paper.

FMI (2019), « The plucking theory of the business cycle », in World Economic Outlook, octobre 2019. Traduction française, « La théorie du pincement de la corde de guitare appliquée au cycle économique », in Perspectives de l'économie mondiale.

FRIEDMAN, Milton (1964), « The monetary studies of the National Bureau », in NBER, The National Bureau Enters Its 45th Year.

FRIEDMAN, Milton (1993), « The "plucking model" of business fluctuations revisited », in Economic Inquiry, vol. 31.

TOBIN, James (1972), « Inflation and unemployment », in American Economic Review, vol. 62, n° 1/2.

Partager cet article

Repost0
27 septembre 2019 5 27 /09 /septembre /2019 15:26
A la recherche du cycle mondial

Depuis les années quatre-vingt-dix, les économistes ont multiplié les études empiriques pour tenter de mettre à jour l’existence d’un cycle d’affaires et d’un cycle financier au niveau mondial. Pour Eric Monnet et Damien Puy (2019), trois conclusions semblent avoir émergé de cette littérature et faire l’objet d’un relatif consensus. Tout d’abord, il existerait effectivement des cycles à l’œuvre à l’échelle mondiale et ceux-ci trouveraient essentiellement leur origine aux Etats-Unis. De plus, ces cycles mondiaux auraient des effets particulièrement importants sur les variables réelles et financières. Enfin, ils auraient tendance à se renforcer. Autrement dit, le cycle d’affaires et le cycle financier à l’œuvre dans un pays donné tendraient de plus en plus à se synchroniser avec ceux des autres pays, en l’occurrence du fait de la mondialisation à partir des années quatre-vingt. Si c’est le cas, les autorités en charge de la politique économique auraient perdu en autonomie : elles auraient de plus en plus de difficultés à influencer les variables domestiques.

C’est notamment ce que concluait Hélène Rey (2013) en rejetant le triangle des incompatibilités de la finance internationale : lorsque les capitaux circulent librement, le flottement du taux de change ne garantit pas l’indépendance de la politique monétaire. Parce qu’il existe un cycle financier mondial, étroitement lié à la politique monétaire de la Réserve fédérale, les autres banques centrales, en particulier celles des pays émergents, ne peuvent retrouver la pleine autonomie de leur politique monétaire qu’au prix d’un contrôle des capitaux.

Puy et Monnet estiment toutefois que cette littérature souffre de plusieurs limites. Premièrement, elle a tendance à se focaliser sur les seuls pays développés. Deuxièmement, les données qu’elle analyse concerne une période restreinte, en l’occurrence postérieure aux années quatre-vingt-dix. Troisièmement, elle se focalise davantage sur les prix, en particulier les prix d’actifs, plutôt que sur les quantités, comme le volume de la production.

Les deux économistes ont alors cherché à mettre en évidence des cycles mondiaux en utilisant une nouvelle base de données trimestrielles du FMI relatives à la production, à l’inflation, au crédit et aux prix d’actifs concernant un large échantillon de pays développés et émergents depuis 1950. Leur analyse confirme que les cycles mondiaux, aussi bien réels que financiers, existent. Les cycles mondiaux trouvent généralement leur origine dans des chocs touchant les Etats-Unis : il peut notamment s’agir de chocs monétaires, budgétaires et d’incertitude, et ce aussi bien pour le cycle économique que pour le cycle financier. 

Mais Monnet et Puy remettent aussi en question plusieurs idées qui font selon eux consensus dans la littérature. Tout d’abord, lorsqu’ils cherchent à quantifier l’importance des cycles mondiaux, leur analyse les amène certes à conclure que les cycles mondiaux ont été une source importante de volatilité pour les variables domestiques suite à la Seconde Guerre mondiale, mais aussi que l’importance des cycles mondiaux varie fortement selon la période, l’économie ou la variable considérée. Généralement, la part de la variance des variables domestiques qui se trouve expliquée par la dynamique mondiale tend à chuter une fois que sont écartées de l’échantillon étudiée les événements extrêmes comme les chocs pétroliers des années soixante-dix et la crise financière mondiale des années 2008-2009. En temps normal, le cycle d’affaires mondial a un faible impact sur la production domestique. En définitive, les cycles mondiaux n’ont réellement un impact que sur les pays développés et les prix d’actifs. 

Monnet et Puy remettent également en question l’idée que la synchronisation se soit accentuée au fil des décennies. Certes, leur analyse suggère qu’une synchronisation a effectivement été à l’œuvre pour l’inflation et les prix d’actifs, mais qu’elle ne l’a pas été pour la production et le crédit. Les cycles de la production et le cycle du crédit étaient aussi puissants durant la période de mondialisations commerciale et financière, entre 1984 et 2006, que durant l’ère de Bretton Woods, entre 1950 et 1972. Pour la plupart des pays, la sensibilité de la production domestique vis-à-vis de la production du reste du monde semble avoir bien peu varié au cours des sept dernières décennies. 

Ces résultats amènent Monnet et Puy à chercher à comprendre pourquoi la synchronisation de la production est restée stable. Selon leur analyse, cette stabilité résulte de deux forces agissant en sens opposés. D’un côté, un approfondissement de l’intégration commerciale tend à synchroniser davantage la production domestique avec le cycle mondial. D’un autre côté, une poursuite de l’intégration financière tend à désynchroniser la production domestique du cycle mondial. Ce n’est que lors de la crise financière mondiale que les pays les plus financièrement ouverts ont connu une plus forte synchronisation de leur production avec le cycle mondial.

Monnet et Puy concluent en tirant les implications de leurs constats en termes de politique économique. Ils soulignent qu’un faible niveau d’intégration financière ne garantit pas en soi que les cycles soient peu corrélés entre eux. Durant l’ère de Bretton Woods, les économies étaient déjà affectées par les cycles mondiaux, alors même que des contrôles de capitaux étaient en vigueur et que les systèmes financiers étaient fortement réglementés. Réciproquement, un niveau élevé d’intégration financière n’implique pas toujours une plus forte corrélation de la production : à long terme, surtout si on ne se focalise pas sur la seule crise financière mondiale, il apparaît que l’intégration financière internationale a eu tendance à réduire la corrélation des productions au niveau mondial. Enfin, le fait qu’il y ait une forte corrélation entre les prix d’actifs, mais qu’une faible corrélation entre les principales cibles de la politique économique, notamment le production et le crédit, suggère que la politique économie dispose davantage d’autonomie qu’on a désormais tendance à le penser.

 

Références

MONNET, Eric, & Damien PUY (2019), « One ring to rule them all? New evidence on world cycles », FMI, working paper, n° 19/202.

REY, Hélène (2013), « Dilemma not trilemma: The global financial cycle and monetary policy independence », présenté à Jackson Hole, 24 août.

Partager cet article

Repost0
10 août 2019 6 10 /08 /août /2019 13:20
Les salaires sont-ils rigides à la baisse ?

La Théorie Générale n’est pas sans ambiguïtés. Dans le chapitre 2 de son opus magnum, Keynes introduit l’hypothèse de rigidité des salaires à la baisse, en précisant qu’elle n’influence pas réellement ses conclusions, mais qu’elle lui permet de simplifier son exposé. Il avance un argument pour la justifier : les travailleurs refusent de voir leur salaire nominal baisser, par crainte de voir leur salaire relatif diminuer, autrement dit par peur de descendre dans la hiérarchie des salaires. Or, il n’a pas vraiment par la suite démontré la neutralité de cette hypothèse pour son analyse, ce qui a contribué à empêcher l’émergence d’une interprétation de son ouvrage qui fasse consensus.

D’un côté, de nombreux économistes, associés il y a un demi-siècle à la synthèse néoclassique ou ces dernières décennies à la nouvelle économie keynésienne, ont considéré la rigidité des salaires comme la clé de voûte de la théorie keynésienne du chômage. Finalement, leur cadre de base reste néoclassique : il existe une offre de travail (croissante avec le salaire), une demande de travail (décroissante avec le salaire) et en conséquence un niveau de salaire qui égalise l’offre et la demande de travail. Si le salaire se retrouve à un niveau supérieur à celui d’équilibre, le marché du travail se retrouvera déséquilibré : il y a du chômage. En principe, le rationnement de l’offre de travail devrait mécaniquement pousser le salaire à la baisse, ce qui ramènerait le marché à l’équilibre. Mais le salaire nominal étant supposé rigide à la baisse, le marché du travail ne s’apurera pas. Beaucoup ont alors vu l’accélération de l’inflation comme un moyen de faire refluer le chômage en réduisant les salaires réels sans que les salaires nominaux aient à baisser ; aussi bien James Tobin (1972) que George Akerlof et alii (1996) estiment qu’un peu d’inflation permet « de graisser les roues du marché du travail ». Nous trouvons d’ailleurs là une justification théorique à l’arbitrage entre chômage et inflation de la courbe de Phillips, cette pièce qui finit par prendre une place centrale pour la synthèse néoclassique, au point que la seconde connaîtra sa chute avec la remise en cause de la première.

Les nouveaux keynésiens se sont attelés à identifier les raisons pour lesquelles les salaires sont rigides, non seulement parce qu’une telle rigidité permet d’expliquer le chômage, mais aussi parce qu’elle leur permet de redonner la légitimité à la politique monétaire discrétionnaire : comme les salaires sont écrits en termes nominaux et qu’ils ne sont renégociés qu’à une faible fréquence, les chocs monétaires érodent les salaires réels et ont ainsi un impact sur l’économie réelle [Fischer, 1977 ; Taylor, 1980]. Si les salaires ne sont pas continuellement renégociés, c’est notamment parce que les renégociations sont coûteuses, ne serait-ce parce qu’elles prennent du temps. La littérature autour du salaire d’efficience suggère qu’il peut être rationnel pour les entreprises de maintenir des salaires élevés, dans la mesure où une baisse des salaires est susceptible de réduire l’efficacité des travailleurs : ces derniers sont moins motivés à faire d’efforts, ils ont plus de chances de quitter l’entreprise, donc de ne pas profiter de l’apprentissage par la pratique (learning-by-doing), etc. Bien sûr, les salariés peuvent trouver la baisse de leurs rémunérations injuste et se mettre en conséquence en grève, ce qui freinera la production de l’entreprise et alourdira ses coûts. Au cours des entretiens que Bewley (1999) réalisent auprès des employeurs, ces derniers affirment que les travailleurs détestent vraiment les baisses de salaires nominaux et qu’ils sont par conséquent réticents à les imposer. 

D’autres économistes se revendiquant comme les dépositaires de l’héritage keynésien, notamment les post-keynésiens, jugent que l’hypothèse de rigidité des salaires à la baisse n’est pas nécessaire pour faire apparaître du chômage involontaire. Ils mettent d’ailleurs davantage l’accent sur le rôle que joue la baisse des salaires, donc leur flexibilité, dans l’apparition du chômage involontaire. Keynes lui-même a mis en lumière en tel mécanisme dans sa Théorie générale : le chapitre 19 démontre les dangers d’une déflation salariale.

Dans tous les cas, l’hypothèse d’une rigidité des salaires nominaux peut faire l’objet de tests empiriques : si les salaires nominaux sont rigides à la baisse dans une économie, alors elle devrait rarement connaître une baisse des salaires nominaux, mais par contre fréquemment un gel des salaires nominaux. Plusieurs études se sont appuyées sur les déclarations des travailleurs occupant un emploi qui ont été collectées à travers des enquêtes menées auprès des ménages. Elles ont suggéré que les réductions de salaires nominaux étaient fréquentes, mais également aussi les gels de salaires nominaux. Autrement dit, elles n’ont pas réussi à déterminer si les salaires nominaux étaient flexibles ou bien rigides à la baisse. En outre, cette littérature, qui s’appuie sur un matériel subjectif, est critiqué pour son manque de fiabilité, en raison des possibles erreurs des répondants dans leur déclaration.

Dans un récent article publié dans le Journal of Economic Perspectives, Michael Elsby et Gary Solon (2019) ont cherché à synthétiser une littérature plus récente qui a cherché à obtenir des données relatives aux salaires plus précises en les recueillant auprès des registres de paie tenus par les employeurs et les bulletins de paie. Ils ont compilé les résultats d’une douzaine études réalisées dans plusieurs pays, en l’occurrence, Grande-Bretagne, des Etats-Unis, de l’Allemagne de l’Ouest, d’Autriche, d’Italie, d’Espagne, du Mexique, d’Irlande, de la Corée du Sud, du Portugal, de Suède et de Finlande.

GRAPHIQUE  Pourcentage de salariés gardant leur emploi qui voient leur salaire nominal baisser au cours de l'année en fonction de l'inflation

Les salaires sont-ils rigides à la baisse ?

Au terme de leur recension, il apparaît qu’à l’exception de circonstances extrêmes, en l’occurrence lorsque les baisses de salaires nominaux sont soit juridiquement interdites, soit accompagnées d’une forte inflation, les baisses de salaires nominaux d’une année sur l’autre semblent assez fréquentes, affectant généralement 15 à 25 % de ceux qui gardent leur emploi en périodes de faible inflation. Les gels de salaires nominaux apparaissent quant à eux bien moins fréquents, affectant généralement moins de 8 % de ceux qui restent en emploi. Il y a peu de preuves empiriques suggérant une large accumulation de gels des salaires en périodes de faible inflation.

 

Références

AKERLOF, George A., William T. DICKENS & George L. PERRY (1996), « The macroeconomics of low Inflation », in Brookings Papers on Economic Activity, n° 1.

BEWLEY, Truman F. (1999), Why Wages Don’t Fall during a Recession, Harvard University Press.

ELSBY, Michael W. L., & Gary SOLON (2019), « How prevalent is downward rigidity in nominal wages? International evidence from payroll records and pay slips », in Journal of Economic Perspectives, vol. 33, n° 3.

FISCHER, Stanley (1977), « Long-term contracts, rational expectations, and the optimal money supply rule », in Journal of Political Economy, vol. 85, n° 1.

KEYNES, John Maynard (1936), The General Theory of Employment, Interest and Money, Macmillan.

TAYLOR, John B., (1980), « Aggregate dynamics and staggered contracts », in Journal of Political Economy, vol. 88.

TOBIN, James (1972), « Inflation and unemployment », in American Economic Review, vol. 62, n° ½.

Partager cet article

Repost0
25 juillet 2019 4 25 /07 /juillet /2019 13:34
Croissance britannique : le passé n’est plus ce qu’il était

Les premières études historiques de comptabilité de la croissance pour le Royaume-Uni ont été réalisées au début des années quatre-vingt, notamment sous l’impulsion de Charles Feinstein. Elles ont suggéré que la croissance de la productivité a suivi à long terme une évolution en forme de U qui atteignit son point bas au début du vingtième siècle, en l’occurrence entre 1899 et 1913, une période correspondant au règne d’Edouard VII. Reprenant une intuition de Phelps-Brown et Handfield-Jones (1952), Feinstein et alii (1982) évoquent une « ménopause édouardienne » (Edwardian climacteric), s’expliquant selon eux par un essoufflement de la vague d’innovations de la Première Révolution industrielle avant que celle de la Deuxième Révolution industrielle n’ait eu le temps d’exercer un effet significatif. Ces travaux et ceux qui les ont suivis offrent l’image de pics jumeaux, séparés d’un siècle, pour la croissance de la productivité : le premier pic a été atteint lors du troisième quart du dix-neuvième siècle, c’est-à-dire lors de l’époque victorienne ; le second pic a été atteint lors du troisième quart du vingtième siècle, au cours de la période que nous avons qualifiée « Trente Glorieuses » de notre côté de la Manche.

Près de quatre décennies ont passé depuis ces travaux fondateurs. D’une part, la productivité a poursuivi son évolution et ses récentes performances ont été bien décevantes en comparaison avec celles qu’elle présenta dans l’immédiat après-guerre. En l’occurrence, la croissance de la productivité a particulièrement ralenti dans le sillage de la crise financière mondiale. En effet, au quatrième trimestre 2018, le PIB réel par heure travaillée n’était supérieur que de 2 % par rapport au pic qu’il avait atteint au quatrième trimestre 2007. S’il avait poursuivi la trajectoire qu’il suivait tendanciellement avant la crise, il aurait été supérieur d’environ 22,3 %. La productivité du travail n’a seulement dépassé son pic d’avant-crise qu’au deuxième trimestre 2016. Beaucoup évoquent une « énigme de la productivité » (productivity puzzle), mais certains suggèrent qu’il y a eu des précédents et pointent notamment la période édouardienne comme un épisode similaire.

D’autre part, les données sur lesquelles s’appuyaient les travaux fondateurs ont été révisées, notamment grâce aux efforts de Broadberry et alii (2015). Les estimations du PIB et de sa croissance ont été améliorées, ainsi que celles du facteur capital, et la contribution du facteur travail a été mesurée à partir du nombre d’heures travaillées, plutôt que par le nombre de travailleurs. Or ces données révisées sont susceptibles de changer la vision que l’on peut avoir de la croissance passée. 

C’est une révision des études fondatrices de la comptabilité de la croissance britannique que propose Nicholas Crafts (2019) à partir des nouvelles données disponibles. L’image de la croissance britannique qu’il tire de celles-ci est différente de celle qui s’est dessinée il y a une quarantaine d’années. Tout d’abord, il apparaît que la croissance de la productivité du travail et celle de la productivité globale des facteurs lors de la Révolution industrielle ont été bien plus faibles qu’on ne le pensait par le passé : loin d’offrir l'image d'un décollage (take-off) à la Rostow, la croissance de la productivité a été très lente à s’accélérer au cours de cette période. Certes, la Révolution industrielle a été marquée par d’énormes changements technologiques, mais ces derniers n’ont en fait affecté qu’une part relativement réduite de l’économie. Il fallut énormément de temps avant que la machine à vapeur ait un impact significatif. 

Deuxièmement, l’idée d’une ménopause édouardienne identifiée par Feinstein et alii (1982) pour la période allant de 1899 à 1913 apparaît désormais moins convaincante. En effet, le ralentissement de la croissance qui caractérise cette période se révèle désormais moins marqué selon les nouvelles données. En fait, ce ralentissement est bien moindre que celui qui marqua la fin du boom victorien des années 1870 et surtout que celui observé dans le sillage de la récente crise financière mondiale. 

Troisièmement, les données suggèrent toujours que la croissance de la productivité globale des facteurs a connu une évolution en forme de U et qu’elle a atteint son minimum juste avant la Première Guerre mondiale, mais le point de départ de cette évolution se situerait au milieu du dix-neuvième siècle. Globalement, à la lumière de la nouvelle vision de la Révolution industrielle et du ralentissement qui suivit les années 1970, l’évolution suivie s’apparente davantage à une succession de vagues. La période allant de 1973 à 2007 apparaît finalement comme une période où la croissance de la productivité a été relativement forte, bien plus forte qu’elle ne l’a été au cours de la plupart des périodes précédant la Seconde Guerre mondiale.

Quatrièmement, avec les récentes révisions des estimations du PIB, la croissance du PIB réel et dans une moindre mesure celle de la productivité se révèlent bien plus fortes au cours des années qui ont suivi la Seconde Guerre mondiale qu’on avait l’habitude de penser. Cela dit, même au cours de cette période, la croissance de la productivité au Royaume-Uni se révéla décevante relativement à celle des pays d’Europe continentale. 

Cinquièmement, le ralentissement de la croissance de la productivité après 2007 apparaît finalement comme sans précédents dans l’histoire économique de la Grande-Bretagne. C’est d’ailleurs la conclusion à laquelle aboutit une autre étude que copublie Nicholas Crafts en parallèle [Crafts et Mills, 2019]. Dans le sillage de la crise financière mondiale, la productivité s’est retrouvée en 2018 inférieure de 19,7 % par rapport à sa trajectoire d’avant-crise. Lors des deux autres plus grosses déviations par rapport à sa tendance que le Royaume-Uni a connues au cours de son histoire, la productivité n’avait décroché que de 10 % dix ans après 1883 et de 10,9 % dix ans après 1971. Même lors de la période édouardienne et lors de la Grande Dépression des années trente, la productivité n’avait décroché que de 5,5 % dix ans après 1898 et 5,3 % dix ans après 1929. Cherchant à contribuer à résoudre l’« énigme de la productivité », Crafts et Mills suggère que le récent ralentissement de la croissance de la productivité britannique résulte de la confluence de trois facteurs, en l’occurrence la crise financière, un affaiblissement de l’impact des technologies d’information et de communication et la hausse de l’incertitude associée aux renégociations commerciales suivant le référendum du Brexit.

 

Références

BROADBERRY, Stephen, Bruce M. S. CAMPBELL, Alexander KLEIN, Mark OVERTON & Bas VAN LEEUWEN (2015), British Economic Growth, 1270-1870, Cambridge University Press.

CRAFTS, Nicholas (2019), « The sources of British economic growth since the industrial revolution: Not the same old story », CAGE, working paper, n° 430.

CRAFTS, Nicholas, & Terence C. MILLS (2019), « Is the UK productivity slowdown unprecedented? », CAGE, discussion paper, n° 429.

FEINSTEIN, Charles H., (1981), « Capital accumulation and the industrial revolution », in R. Floud & D. N. McCloskey (dir.), The Economic History of Britain since 1700, vol. 1, Cambridge University Press.

FEINSTEIN, Charles H., R. C. O. MATTHEWS & J. C. ODLING-SMEE (1982), « The timing of the climacteric and its sectoral incidence in the UK, 1873-1913 », in C. P. Kindleberger & G. di Tella (dir.), Economics in the Long View: Essays in Honour of W. W. Rostow, vol. 2, Macmillan.

MATTHEWS, R. C. O., Charles H. FEINSTEIN & J. C. ODLING-SMEE (1982), British Economic Growth 1856- 1973, Stanford University Press.

PHELPS BROWN, Henry, & S. J. HANDFIELD-JONES (1952), « The climacteric of the 1890s: A study in the expanding economy », Oxford Economic Papers, vol. 4, n° 3.

Partager cet article

Repost0
16 juillet 2019 2 16 /07 /juillet /2019 13:59
Pourquoi l’inflation est-elle si faible dans le monde ?

Dans plusieurs pays développés, le taux de chômage se rapproche de ses niveaux historiquement faibles : aux Etats-Unis, au Royaume-Uni et en Allemagne, il est désormais par exemple inférieur à 4 %, si bien qu’il se retrouve des niveaux qu’il n’avait pas atteints depuis plusieurs décennies. D’après la courbe de Phillips traditionnelle, à mesure qu’une expansion se poursuit et que l’économie se rapproche de son plein emploi, cette dernière devrait connaître une accélération de l’inflation. Le mécanisme est double : d’une part, à mesure que les entreprises font face à un plus grand risque de pénurie de travailleurs, elles acceptent plus facilement d’augmenter les salaires, si bien qu’elles tendent à davantage augmenter leurs prix pour maintenir leurs profits ; d’autre part, comme elles ont moins de problèmes de débouchés, elles ont davantage de latitude pour augmenter leurs prix. Pourtant, l’inflation est restée très faible et stable dans les pays développés depuis la crise financière mondiale de 2008 : elle ne s’est toujours pas accélérée malgré la poursuite de l’expansion.

Pour Jared Bernstein (2017), le comportement de l’inflation constitue « l’énigme numéro une en économie ». Depuis la crise financière mondiale, le débat est intense, quant à savoir ce qui explique la stabilité de l’inflation et ce que cela signifie pour la courbe de Phillips. Beaucoup estiment que cette dernière s’est aplatie [FMI, 2013]. Certains, comme la revue The Economist (2017), n’hésitent pas à déclarer qu’elle est tout simplement morte. D’autres, comme Olivier Blanchard (2016), sont nuancés, en estimant qu’elle n’est pas moins vivace qu’il y a quelques décennies, mais qu’elle n’a jamais été bien fébrile. D’autres encore sont convaincus qu’elle est encore bien valide, mais qu’il faut peut-être s’appuyer sur d’autres indicateurs pour mesurer l’inflation ou alors prendre en compte les anticipations d’inflation pour bien la saisir [Ball et Mazumder, 2019 ; Coibon et alii, 2019].

Òscar Jordà, Chitra Marti, Fernanda Nechio et Eric Tallman (2019b) ont cherché à savoir si la crise financière a changé la mécanique de la courbe de Phillips. Ils reprennent et poursuivent ainsi l’un de leurs travaux antérieurs [Jordà et alii, 2019a], mais en prenant cette fois-ci en compte les pays en développement dans leur analyse pour voir si la relation s’est brisée. Pour déterminer si la courbe de Phillips contribue à expliquer l’inflation, Jordà et ses coauteurs utilisent la crise financière mondiale comme une expérience quasi-naturelle. En effet, il s’agit d’un événement qui n’a pas vraiment été anticipé. Jordà et ses coauteurs peuvent alors utiliser les données de la période précédant la crise financière comme l’équivalent d’un groupe de contrôle pour voir ce qui a changé avec la crise. Le modèle de courbe de Phillips qu’ils estiment se fonde sur trois composantes. La première composante est le degré de mollesse sur le marché du travail. Pour le déterminer, ils prennent l’écart de chômage, c’est-à-dire l’écart entre le taux de chômage et son taux naturel. La deuxième composante est l’effet retour exercé par l’inflation passée, qu’ils mesurent en utilisant l’évolution de l’indice des prix à la consommation. La dernière composante est l’anticipation de l’inflation future, qu’ils déterminent à partir des données issues d’enquête. 

GRAPHIQUE 1  La courbe de Phillips dans les pays de l’OCDE selon la décennie

Pourquoi l’inflation est-elle si faible dans le monde ?

A première vue, durant les deux décennies qui ont précédé la crise financière mondiale, il y avait une relation inverse assez claire entre écart de chômage et inflation dans les pays développés, mais cette relation s’est affaiblie dans la décennie qui suit la crise financière mondiale (cf. graphique 1). Ainsi, l’inflation semble stable pour tous les degrés de mou sur le marché du travail, ce qui suggère à première vue que la courbe de Phillips a disparu.

Mais en allant au-delà de cette simple corrélation (ou plutôt absence de corrélation) pour se pencher sur chacune des trois composantes de la courbe de Phillips, Jordà et ses coauteurs montrent que cet affaiblissement de la relation entre chômage et inflation n’est qu’apparente. En fait, les effets des variations dans les conditions en vigueur sur le marché du travail ont été largement compensés par les modifications appropriées de la politique monétaire des banques centrales en vue de maintenir l’inflation à sa cible : lorsque le chômage a augmenté, les banques centrales ont bien adéquatement assoupli leur politique monétaire, ce qui a réduit les tensions déflationnistes ; lorsque les économies se sont rapprochées du plein emploi, les banques centrales ont adéquatement resserré leur politique monétaire, ce qui a réduit les pressions inflationnistes. Dans de telles conditions, l’influence de l’inflation passée s’est érodée et les anticipations d’inflation future se sont mises à graviter autour de la cible des banques centrales. En définitive, il est prématuré de déclarer la mort de la courbe de Phillips en ce qui concerne les pays développés.

Cela dit, l’inflation a suivi une tendance baissière ces deux dernières décennies, aussi bien dans les pays développés que dans les pays en développement (cf. graphique 2). En outre, les taux d’inflation des pays en développement tendent à converger vers ceux des pays développés. Et cette désinflation datait de bien avant la crise financière mondiale. Certes, la plus grande crédibilité acquise par les banques centrales dans leur lutte contre l’inflation peut expliquer ce phénomène, mais les pays développés et en développement partagent une tendance commune de l’inflation, ce qui suggère que la désinflation mondiale n’est pas le simple résultat de la politique monétaire et que des facteurs mondiaux sont à l’œuvre pour pousser l’inflation à la baisse.

GRAPHIQUE 2  Inflation moyenne de l’indice des prix à la consommation (en %)

Pourquoi l’inflation est-elle si faible dans le monde ?

Pour comprendre ce qui s’est passé, Jordà et ses coauteurs réestiment leur courbe de Phillips à trois composantes en utilisant leur échantillon de 23 pays n’appartenant pas à l’OCDE. Il apparaît que dans les pays en développement, l’inflation présente une bien plus forte persistance que dans les pays développés : l’inflation courante est davantage influencée par l’inflation passée. Dans les pays en développement, les banques centrales font face à de plus lourdes contraintes que dans les pays développés, si bien que la politique monétaire peut plus difficilement être modifiée de façon à compenser les effets des variations des conditions en vigueur sur les marchés du travail.

Mais en définitive, puisque les trois composantes de la courbe de Phillips reflètent des expériences différentes entre pays développés et en développement après la crise, ils ne peuvent expliquer la baisse mondiale de l’inflation. Celle-ci doit s’expliquer par des facteurs communs à l'ensemble des pays; Jordà et ses coauteurs pensent notamment à l’ouverture commerciale et à l'essor des exportations en provenance des pays émergents, au développement des chaînes de valeur mondiale et à l’essor des flux de capitaux internationaux.

 

Références

BALL, Laurence M., & Sandeep MAZUMDER (2019), « The nonpuzzling behavior of median inflation », NBER, working paper, n° 25512.

BERNSTEIN, Jared (2017), « Two inflation puzzles, one inflation monster », in The Washington Post, 11 septembre.

BLANCHARD, Olivier (2016), « The US Phillips curve: Back to the 60s? », PIIE, policy brief, n° 16-1.

COIBION, Olivier, Yuriy GORODNICHENKO & Mauricio ULATE (2019), « Is inflation just around the corner? The Phillips Curve and global inflationary pressures », NBER, working paper, n° 25511.

The Economist (2017), « The Phillips Curve may be broken for good », 1er novembre.

FMI (2013), « The dog that didn’t bark: Has inflation been muzzled or was it just sleeping », World Economic Outlook, chapitre 3, avril. Traduction française, « Telle l’histoire du chien qui n’a pas aboyé : l’inflation a-t-elle été muselée, ou s’est-elle simplement assoupie? », Perspectives de l’économie mondiale, chapitre 3.

JORDÀ, Òscar, Chitra MARTI, Fernanda NECHIO & Eric TALLMAN (2019a), « Inflation: Stress-testing the Phillips curve », FRBSF, Economic Letter, n° 2019-05.

JORDÀ, Òscar, Chitra MARTI, Fernanda NECHIO & Eric TALLMAN (2019b), « Why is inflation low globally? », FRBSF, Economic Letter, n° 2019-15.

Partager cet article

Repost0

Présentation

  • : D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher