Overblog
Suivre ce blog Administration + Créer mon blog
9 juillet 2019 2 09 /07 /juillet /2019 17:34
Ce qu’une approche séculaire nous apprend des taux réels mondiaux

Suivant une tendance baissière depuis les années quatre-vingt, les taux d’intérêt réels mondiaux ont atteint ces dernières années des niveaux historiquement faibles dans les pays développés. Les taux directeurs des principales banques centrales des pays développés sont proches de zéro et certains ont même été fixés en territoire négatif (cf. graphique 1). Et pourtant, l’inflation est restée particulièrement faible dans les pays développés, ce qui suggère que le taux d’intérêt naturel, c’est-à-dire le taux d’intérêt réel qui prévaudrait si la production était à son potentiel, est lui-même faible. Cette situation n’est pas sans inquiéter les responsables de la politique monétaire et d’intriguer les universitaires.

GRAPHIQUE 1  Taux directeurs des principales banques centrales des pays développés (en %)

Ce qu’une approche séculaire nous apprend des taux réels mondiaux

Lors d’un discours prononcé à une conférence du FMI en 2013, Larry Summers (2015) a indiqué y voir la manifestation de qu’il qualifie de « stagnation séculaire », c’est-à-dire d’un manque chronique de demande maintenant la production en-deçà de son potentiel. D’autres explications ont été évoquées, allant dans le sens ou non de la thèse de la stagnation séculaire : les pays producteurs de pétrole et les pays émergents d’Asie ont pu exporter un excès d’épargne dans le reste du monde, notamment en raison du sous-développement de leur système financier domestique [Bernanke, 2005] ; il peut y avoir un manque d’opportunités d’investissement, notamment en raison d’un essoufflement de l’innovation [Gordon, 2012] ; la demande d’actifs sûrs a pu augmenter, exposant les économies au risque de plonger dans une « trappe à sûreté » [Caballero et Farhi, 2018 ; Caballero et alii, 2015] ; la crise financière mondiale a pu laisser de profonds stigmates sur l’activité, notamment un imposant un lent processus de désendettement [Lo et Rogoff, 2015].

Afin d’éclairer ce débat, Pierre-Olivier Gourinchas et Hélène Rey (2019) ont analysé ces conditions inhabituelles d’un point de vue séculaire, en utilisant les données sur la consommation, la richesse et les rendements d’actifs. En l’occurrence, ils se sont particulièrement appuyés sur les contributions de qu’ont réalisé en histoire macroéconomique Thomas Piketty et Gabriel Zucman (2014) et Jordà et alii (2016). Adapter une perspective historique longue leur paraît en effet nécessaire : James Hamilton et alii (2016) notaient déjà, à partir d’un échantillon de 17 pays, que les taux d’intérêt réels fluctuent fortement au cours du temps et qu’ils avaient déjà atteint de très faibles niveaux par le passé. 

Après avoir décomposé les fluctuations du ratio consommation sur richesse sur de longues périodes temps, Gourinchas et Rey constatent que les variations de ce ratio anticipent les variations subséquentes du taux d’intérêt réel mondial sans risque (cf. graphique 2). En outre, leur analyse suggère que les chocs macroéconomiques et financiers constituent des déterminants importants des taux d’intérêt réels mondiaux. Du côté macroéconomique, ces derniers sont particulièrement affectés par les forces structurelles que constituent la croissance de la productivité et la démographie. Du côté financier, les taux d’intérêt réels de court terme semblent fortement affectés par les cycles de boom et d’effondrement financiers.

GRAPHIQUE 2  Ratio consommation sur richesse aux Etats-Unis, Royaume-Uni, Allemagne et France

Ce qu’une approche séculaire nous apprend des taux réels mondiaux

Les chutes significatives du ratio consommation sur richesse se sont produites à la veille de crises financières mondiales, en l’occurrence durant les années vingt et les années deux mille. Lors de ces booms, la richesse privée s’est accrue à un rythme rapide, c’est-à-dire bien plus vite que la consommation, si bien que le ratio consommation sur richesse privée s’est mécaniquement réduit. La richesse explose en l’espace de quelques années, alimentée par la hausse du levier d’endettement et de la hausse de l’appétit pour le risque.

Lors de l’effondrement qui se produit dans le sillage des crises financières mondiales, l’appétit pour le risque s’évapore, les prix d’actifs s’écroulent, et les différents agents, c’est-à-dire aussi bien les entreprises et les ménages que les administrations publiques, cherchent à se désendetter. Au cours de ces épisodes, l’épargne désirée augmente fortement et cette hausse de l’épargne désirée déprime puissamment les taux d’intérêt réels sans risque. Cette dynamique se trouve renforcée par l’affaiblissement du secteur bancaire et le resserrement de la réglementation financière qui contraignent davantage le prêt à destination du secteur réel.

Dans le sillage de la Grande Dépression des années trente, les taux d’intérêt réels étaient restés déprimés pendant une longue période de temps. Les estimations que réalisent Gourinchas et Rey à partir de l’évolution du ratio consommation sur richesse les amènent à conclure que le taux d’intérêt réel mondiale est susceptible de rester faible, voire négatif, durant une période prolongée. Selon leur scénario de base, le taux d’intérêt réel de court terme à moyen terme devrait être de -2,35 % aux Etats-Unis entre 2015 et 2025 et de -3,1 % pour les économies combinées des Etats-Unis, du Royaume-Uni, de l’Allemagne et de la France. Ils en concluent que la probabilité que ces économies soient de nouveau contraintes par la borne inférieure effective reste élevée : toute nouvelle récession va amener les banques centrales à réduire leurs taux sans que l’activité s’en trouve suffisamment stimulée pour ramener rapidement l'économie au plein emploi.

 

Références

BERNANKE, Ben S. (2005), « The global saving glut and the U.S. current account deficit », discours prononcé lors d'une conférence tenu à Richmond le 10 mars.

CABALLERO, Ricardo J., & Emmanuel FARHI (2018), « The safety trap », in Review of Economic Studies, vol. 85, n° 1.

CABALLERO, Ricardo J., Emmanuel FARHI & Pierre-Olivier GOURINCHAS (2015), « Global imbalances and currency wars at the ZLB », NBER, working paper, n° 21670, octobre.

GORDON, Robert (2012), « Is US economic growth over? Faltering innovation confronts the six headwinds », CEPR Policy Insight, n° 63.

GOURINCHAS, Pierre-Olivier, & Hélène REY (2019), « Global real rates: A secular approach », BRI, working paper, n° 793.

HAMILTON, James D., Ethan S. HARRIS, Jan HATZIUS & Kenneth D. WEST (2016), « The equilibrium real funds rate: Past, present and future », in FMI, IMF Economic Review, vol. 64, n° 4.

JORDÀ, Òscar, Moritz H.P. SCHULARICK & Alan M. TAYLOR (2016), « Macrofinancial history and the new business cycle facts », in NBER Macroeconomics Annual 2016, vol. 31.

LO, Stephanie, & Kenneth ROGOFF (2015), « Secular stagnation, debt overhang and other rationales for sluggish growth, six years on », BRI, working paper, n° 482.

PIKETTY, Thomas, & Gabriel ZUCMAN (2014), « Capital is back: Wealth-income ratios in rich countries 1700-2010 », in The Quarterly Journal of Economics, vol. 129, n° 3.

SUMMERS, Lawrence H. (2015), « Have we entered an age of secular stagnation? », in FMI, IMF Economic Review, vol. 63.

Partager cet article

Repost0
30 juin 2019 7 30 /06 /juin /2019 06:57
Pourquoi les barrières à l’entrée se sont-elles renforcées aux Etats-Unis ?

Pour beaucoup, une économie de marché est d’autant plus efficace que les flux de créations et de destructions d’entreprises y sont intenses, les entreprises les moins efficaces disparaissant sous la pression de la concurrence exercée par les entreprises les plus efficaces. Lorsqu’un secteur subit un choc négatif, dégradant sa rentabilité, les entreprises devraient tendre à la quitter, ce qui libère des ressources (matérielles, humaines, financières, etc.) permettant aux autres entreprises ou autres secteurs, plus rentables, de se développer. Mais pour que ce soit le cas, les entreprises doivent pouvoir se mouvoir librement d’un secteur à l’autre, pénétrer et quitter facilement les marchés : ces derniers doivent être dénués de « barrières ». En effet, des barrières à l’entrée empêchent des entreprises potentiellement efficaces d’entrer sur le marché et de se développer. Elles réduisent les incitations des entreprises en place à chercher à gagner en efficacité, à baisser leurs prix, à diversifier leur offre et à innover, dans la mesure où elles craignent moins d’être concurrencées. C’est alors le phénomène de la destruction créatrice qui s’en trouve freiné, et plus largement la croissance économique.

Beaucoup considèrent les Etats-Unis comme une économie de libre marché et certains y voient pour cette raison-là un exemple vers lequel les pays européens devraient tendre. Pourtant, de plus en plus d’études empiriques suggèrent un déclin du dynamisme de l’économie américaine. Ryan Decker et alii (2016) ont bien mis en évidence une réduction des flux de créations et destructions d’entreprises et d’emplois au cours des dernières décennies. Simcha Barkai (2017) et Jan De Loecker et Jan Eeckhout (2017) notent que la concentration et les taux de profit ont augmenté dans la plupart des secteurs américains. Jason Furman (2015) estime que la hausse de la concentration est le symptôme d’une hausse des rentes et d'un relèvement des barrières à la concurrence. Germán Gutiérrez et Thomas Philippon (2017) constatent que la baisse de la concurrence entre les entreprises américaines contribue à expliquer la faiblesse de leur investissement. Matias Covarrubias et alii (2019) sont allés encore plus loin et ont montré que la concentration des entreprises aux Etats-Unis est telle qu’elle nuit à l’ensemble de l’économie américaine. Ce qui reste à expliquer, c'est pourquoi les Etats-Unis ont eu tendance à se « cartelliser ».

Pour éclairer le moindre dynamisme de l’économie américaine et la hausse de la concentration des entreprises, Gutiérrez et Philippon (2019) ont appliqué la théorie du Q de Tobin, non pas à l’investissement, mais à la réallocation des entreprises d’un secteur à l’autre. Le Q de Tobin est le rapport entre la valeur cotée en Bourse d’une entreprise et la valeur de remplacement de son capital fixe. De la même façon qu’il est rentable pour les entreprises à Q élevé de se développer en investissant, la réallocation des entreprises des secteurs à faible Q vers les secteurs à Q élevé devrait générer de la valeur. C’est sur cette réallocation que Gutiérrez et Philippon se sont penchés : ils ont étudié les entrées et sorties des entreprises des secteurs américains au cours des quatre dernières décennies. Ils constatent que l’élasticité des entrées vis-à-vis du Q était positive et significative jusqu’à la fin des années quatre-vingt-dix, mais qu’elle a décliné par la suite, pour devenir nulle (cf. graphique). Autrement dit, les entreprises ont moins eu tendance à entrer dans les secteurs à Q élevé.

GRAPHIQUE  Elasticité du taux d’entrée d'entreprises et d'établissements vis-à-vis du Q de Tobin dans les secteurs américains

Pourquoi les barrières à l’entrée se sont-elles renforcées aux Etats-Unis ?

La chute de l’élasticité date du début des années deux mille, en l’occurrence bien avant qu'éclate la crise financière mondiale, ce qui exclut des explications purement conjoncturelles. Les modèles standards suggèrent deux explications potentielles : ce sont soit les coûts d’entrée, soit les rendements d’échelle qui ont augmenté. Or, Gutiérrez et Philippon ne constatent pas de hausse généralisée des rendements d’échelle au cours des 20 dernières années. De plus, les changements des rendements d’échelle ne sont pas corrélés avec la baisse de l’élasticité des entrées. Ils en concluent que les rendements d’échelle ne peuvent constituer la principale explication, ce qui les amène à se tourner vers les coûts d’entrée.

Il y a diverses variétés de coûts d’entrée, allant de la réglementation aux barrières technologiques, en passant par les frictions financières. Gutiérrez et Philippon construisent des indicateurs pour tous ces coûts et ils testent s’ils peuvent expliquer l’absence de libre entrée. Leurs tests soulignent le rôle de la réglementation, mais ils ne soutiennent pas les autres hypothèses, ce qui les amène à se tourner vers la réglementation.

Cette dernière n’est pas sans avoir un rôle ambivalent dans la littérature économique. D’un côté, dans le sillage d’Arthur Pigou (1932), les théoriciens de l’économie politique partent de l’idée que les activités productives génèrent des externalités négatives et estiment qu’il est alors justifié que les pouvoirs publics, supposés bienveillants, interviennent pour les corriger et ainsi protéger les consommateurs. A l’opposé, George Stigler (1971) et l’école du choix public craignent une capture du régulateur et des politiciens : tout régulateur finit par servir les intérêts des organisations qu’il est censé réguler. En l’occurrence, parce qu’elles ont davantage de ressources pour faire du lobbying, les grosses entreprises seraient les plus à même de détourner la régulation à leur profit. Simeon Djankov et alii (2002) ont mis en évidence de grandes différences dans l’ampleur des coûts d’entrée d’un pays à l’autre. Surtout, en constatant que les régulations à l’entrée sont associées à de plus hauts niveaux de corruption et que les pays présentant des systèmes politiques plus ouverts et transparents cherchent à moins réguler les entrées, Djankov et ses coauteurs présentaient des preuves empiriques allant dans le sens de la théorie du choix public.

Pour déterminer le rôle de la réglementation dans l’absence de libre entrée aux Etats-Unis, Gutiérrez et Philippon ont alors réalisé plusieurs tests. Premièrement, ils notent que les mesures de la réglementation sont corrélées avec le déclin de l’élasticité des entrées. Deuxièmement, ils constatent que les réglementations nuisent aux petites entreprises et réduisent le dynamisme des petites entreprises relativement aux grosses, en termes de croissance de l’emploi, de création d’établissements et de croissance des établissements. Troisièmement, ils observent que les grandes modifications réglementaires n’étaient pas corrélées avec les changements des profits des entreprises en place jusqu’à 2000 ; mais après 2000, les grands changements réglementaires sont systématiquement suivis par de fortes hausses des profits des entreprises en place. Quatrièmement, Gutiérrez et Philippon constatent que le lobbying nuit aux petites entreprises relativement aux grosses.

Dans un précédent travail, Gutiérrez et Philippon (2018) avaient noté que l’application de la réglementation antitrust avait eu tendance à se relâcher aux Etats-Unis, mais à se renforcer en Europe, et que cela pouvait contribuer à expliquer pourquoi les marchés européens sont désormais moins concentrés et plus concurrentiels que les marchés américains. Au terme de cette nouvelle étude, Gutiérrez et Philippon (2019) en concluent que le déclin des entrées sur les secteurs américains s’expliquerait plutôt bien par la réglementation et le lobbying. La réglementation est loin d’être aussi bénigne que le pensait Pigou : cette dernière a un impact négatif sur les petites entreprises, en particulier dans les secteurs où les dépenses de lobbying sont importantes. Gutiérrez et Philippon rejoignent au final Stigler en considérant que le lobbying est utilisé stratégiquement par les grosses entreprises pour protéger leurs rentes. En l’occurrence, il semblerait que le problème de la capture du réglementateur se soit accentué ces dernières années : puisque les dépenses en lobbying se sont accrues après 2000, cela suggère que les grosses entreprises ont été de plus en plus à même d’influencer la régulation à leur bénéfice.

 

Références

AKCIGIT, Ufuk, & Sina T. ATES (2019), « Ten facts on declining business dynamism and lessons from endogenous growth theory », NBER, working paper, n° 25755.

BARKAI, Simcha (2016), « Declining labor and capital shares », Université de Chicago, document de travail.

COVARRUBIAS, Matias, Germán GUTIÉRREZ & Thomas PHILIPPON (2019), « From good to bad concentration? U.S. industries over the past 30 years », NBER, working paper, n° 25983.

DAVIS, Steven J., & John HALTIWANGER (2014), « Labor market fluidity and economic performance », NBER, working paper, n° 20479.

DE LOECKER, Jan, & Jan EECKHOUT (2017), « The rise of market power and the macroeconomic implications », NBER, working paper, n° 23687.

DECKER, Ryan A., John HALTIWANGER, Ron S. JARMIN & Javier MIRANDA (2016), « Declining business dynamism: What we know and the way forward », in American Economic Review: Papers & Proceedings, vol. 106, n° 5.

DJANKOV, Simeon, Rafael LA PORTA, Florencio LOPEZ-DE-SILANES & Andrei SHLEIFER (2002), « The regulation of entry », in The Quarterly Journal of Economics, vol. 117, n° 1.

FURMAN, Jason (2015), « Business investment in the United States: Facts, explanations, puzzles, and policies », Council of Economic Advisers.

GRULLON, Gustavo, Yelena LARKIN & Roni MICHAELY (2017), « Are U.S. industries becoming more concentrated? ».

GUTIÉRREZ, Germán, & Thomas PHILIPPON (2017), « Investment-less growth: An empirical investigation », in Brookings Papers on Economic Activity, vol. 48, n° 2.

GUTIERREZ, Germán, & Thomas PHILIPPON (2018), « How EU markets became more competitive than US markets: A study of institutional drift », NBER, working paper, n° 24700.

GUTIERREZ, Germán, & Thomas PHILIPPON (2019), « The failure of free entry », NBER, working paper, n° 26001.

PIGOU, Arthur C. (1932), The Economics of Welfare, Macmillan and Co.

STIGLER, George J. (1971), « The theory of economic regulation », in Bell Journal of Economics, vol.2, n° 1.

Partager cet article

Repost0
18 juin 2019 2 18 /06 /juin /2019 15:27
La libéralisation du commerce extérieur promeut-elle la croissance économique ?

Des années cinquante aux années quatre-vingt, la plupart des pays en développement cherchaient à restreindre les importations, voyant notamment la concurrence étrangère comme un possible frein à leur développement économique. Ces restrictions passaient notamment par l’adoption de droits de douane élevés, de quotas à l’importation, de taux de change multiples, etc. Rares étaient les pays qui s’engageaient dans des réformes visant à libéraliser leur commerce extérieur, c’est-à-dire qui réduisaient unilatéralement leurs barrières à l’échange ; ce fut toutefois le cas de Taïwan entre 1958-1962, de la Corée du Sud entre 1964 et 1968 ou encore du Chili entre 1974 et 1979. 

GRAPHIQUE 1  Nombre de pays entreprenant des réformes commerciales

La libéralisation du commerce extérieur promeut-elle la croissance économique ?

source : Irwin (2019), d’après Sachs et Warner (1995) et Wacziarg et Welch (2008)

Durant la décennie qui suivit 1985, les pays en développement connurent une vague de réformes commerciales, très souvent parce qu’ils cherchaient plus largement à libéraliser l’ensemble de leurs marchés. Ce fut tout particulièrement le cas des anciens pays du bloc communiste qui amorcèrent leur transition vers l’économie de marché au début des années quatre-vingt-dix (cf. graphique 1). En conséquence de ces réformes commerciales, les droits de douane chutèrent régulièrement durant les années quatre-vingt, puis plus rapidement au début des années quatre-vingt-dix, pour ensuite continuer de baisser, mais plus lentement (cf. graphique 2). Selon Will Martin et Francis Ng (2004), les droits de douane moyens pondérés dans les pays en développement passèrent de 30 % à 11 % entre 1983 et 2003 et les trois quarts de cette baisse découlent des libéralisations commerciales que ces pays opérèrent.

GRAPHIQUE 2  Droits de douane moyens non pondérés dans les pays développés et dans les pays en développement (en %)

La libéralisation du commerce extérieur promeut-elle la croissance économique ?

source : Irwin (2019)

Les grandes institutions internationales comme la Banque mondiale et le FMI soutinrent de telles réformes. Certes, leurs appels peuvent être confortés par un raisonnement économique standard : d’une part, l’accroissement de la concurrence auxquelles font face les entreprises domestiques suite à la baisse des barrières à l’échange les incite à être plus efficaces, par exemple à réduire leurs prix de ventes, donc leurs coûts, à différentier leur offre et à innover ; d’autre part, la réduction des barrières à l’échange permet aux entreprises domestiques d’importer davantage de biens de production, moins chers, ce qui leur permet de réduire leurs coûts de production, de bénéficier d’intrants de meilleure qualité et de disposer de technologies plus performantes. Mais, même au début des années quatre-vingt, tous les économistes, et en premier lieu Dani Rodrik (1992), ne partagèrent pas l’optimisme des institutions internationales : après tout, ce n’est pas parce que des gains d’efficience sont possibles que la croissance économique s’en trouvera forcément stimulée. Ces doutes ont contribué à susciter une vague de travaux empiriques.

Dans les années quatre-vingt-dix, plusieurs études, comme celles de David Dollar (1992), Jeffrey Sachs et Andrew Warner (1995) et Sebastian Edwards (1998) mirent en avant des preuves empiriques suggérant que l’ouverture au commerce extérieur était associée à de meilleures performances économiques. Quelques années plus tard, Francesco Rodriguez et Dani Rodrik (2000) réalisèrent une importante revue de la littérature qui les amena toutefois à conclure que « la relation entre politique commerciale et croissance économique reste une question ouverte » et « est loin d’être établie sur des bases empiriques », notamment parce que les études qu’ils recensent ne sont pas sans souffrir de fragilités méthodologiques.

Près de deux décennies après l’étude de Rodriguez et Rodrik, Douglas Irwin (2019) a jugé opportun de réexaminer le lien empirique entre libéralisations commerciales et croissance économique, et ce pour plusieurs raisons. Premièrement, les diverses études qui étaient disponibles lorsque Rodriguez et Rodrik réalisèrent leur revue de la littérature s’appuyaient sur des échantillons de données n’allant pas plus loin que le début des années quatre-vingt-dix, si bien qu’elles manquaient de recul pour pleinement saisir les effets de moyen et long terme des réformes majeures qui furent mises en place au début de cette décennie pour libéraliser le commerce extérieur. Deuxièmement, de nombreux pays qui étaient jusqu’alors des économies relativement fermées, comme la Chine, l’Inde, le Vietnam, le Cambodge et le Bangladesh ont depuis adopté des réformes pour s’ouvrir au commerce international. Troisièmement, les études qui ont été réalisées ces deux dernières décennies se sont basées sur des méthodes empiriques plus solides. Elles ont notamment moins cherché à réaliser des comparaisons entre pays pour davantage observer les effets que des réformes précises ont eus sur les économies où elles furent mises en œuvre.

Sans examiner le lien entre niveau des barrières commerciales et croissance économique, ni l’impact distributionnel des réformes commerciales (notamment sur les inégalités de revenu), Irwin a passé en revue trois ensembles de récents travaux qui ont cherché à déterminer comment les réformes commerciales affectent la croissance économique des pays qui les mettent en œuvre : les régressions transnationales se focalisant sur la croissance au sein des pays [Wacziarg et Welch, 2008 ; Estevadeordal et Taylor, 2013 ; Winters et Masters, 2013], les méthodes de contrôle synthétique portant sur des réformes spécifiques [Billmeier et Nannicini, 2011 ; Billmeier et Nannicini, 2013] et les études cherchant à déceler les canaux via lesquels la réduction des barrières à l’échange sont susceptibles d’accroître la productivité dans des pays en particulier comme le Chili, l’Indonésie, l’Inde et la Chine [Pavcnik, 2002 ; Amiti et Konings, 2007 ; Topalova et Khandelwal, 2011 ; Brandt et alii, 2017]. Ces travaux suggèrent que les réformes commerciales qui réduisent significativement les droits de douane sur les importations ont en moyenne un impact positif sur la croissance économique, mais il y a une très forte hétérogénéité d’un pays à l’autre. Le constat empirique obtenu au niveau plus microéconomique selon lequel la baisse des droits de douane sur les biens intermédiaires entraîne une meilleure productivité des producteurs de biens finaux domestiques est plus robuste.

Pour Irwin, celle conclusion rejoint deux autres constats auxquels ont aboutissent les récentes études. D’une part, beaucoup d’études avaient suggéré l’absence de convergence entre les pays : les pays les plus pauvres ne semblaient pas connaître forcément une croissance plus rapide que les pays les plus riches ; ils peuvent connaître une convergence, mais vis-à-vis de pays aux caractéristiques similaires. Or Dev Patel, Justin Sandefur et Arvind Subramanian (2018) ont mis en avant des preuves empiriques robustes suggérant qu’une convergence inconditionnelle des revenus entre les pays est à l’œuvre depuis 1990, et de façon marquée depuis 1995. D’autre part, alors que les études antérieures peinaient à mettre en évidence un lien significatif entre les réformes économiques et les performances économiques, des études plus récentes, comme celles de William Easterly (2018), constatent que les performances économiques et l’élaboration même des politiques économiques se sont considérablement améliorées depuis les années quatre-vingt-dix, mais aussi qu’elles sont plus étroitement corrélées.

 

Références

AMITI, Mary, & Jozef KONINGS (2007), « Trade liberalization, intermediate inputs, and productivity: Evidence from Indonesia », in American Economic Review, vol. 97.

BILLMEIER, Andreas, & Tommaso NANNICINI (2011), « Economies in transition: How important is trade openness for growth? », in Oxford Bulletin of Economics and Statistics, vol. 73. 

BILLMEIER, Andreas, & Tommaso NANNICINI (2013), « Assessing economic liberalization episodes: A synthetic control approach », in Review of Economics and Statistics, vol. 95.

BRANDT, Loren, Johannes Van BIESEBROECK, Luhang WANG & Yifan ZHANG (2017), « WTO accession and performance of Chinese manufacturing firms », in American Economic Review, vol. 107.

DOLLAR, David (1992), « Outward-oriented developing economies really do grow more rapidly: Evidence from 95 LDCs, 1976–1985 », in Economic Development and Cultural Change, vol. 40.

EASTERLY, William (2018), « In search of reforms for growth: New stylized facts on policy and growth outcomes », New York University.

EDWARDS, Sebastian (1998), « Openness, productivity, and growth: What do we really know? », in Economic Journal, vol. 108.

ESTEVADEORDAL, Antoni, & Alan M. TAYLOR (2013), « Is the Washington consensus dead? Growth, openness, and the Great Liberalization, 1970s–2000s », in Review of Economics and Statistics, vol. 95.

IRWIN, Douglas A. (2019), « Does trade reform promote economic growth? A review of recent evidence », PIIE, working paper, n° 19-9.

MARTIN, Will, & Francis NG (2004), « A note on sources of tariff reductions in developing countries, 1983–2003 », Banque mondiale.

PATEL, Dev, Justin SANDEFUR, & Arvind SUBRAMANIAN (2018), « Everything you know about cross-country convergence is wrong », Center for Global Development.

PAVCNIK, Nina (2002), « Trade liberalization, exit, and productivity improvements: Evidence from Chilean plants », in Review of Economic Studies, vol. 69.

RODRÍGUEZ, Francesco, & Dani RODRIK (2000), « Trade policy and growth: A skeptic’s guide to the cross-national evidence », in NBER Macroeconomic Annual 2000.

RODRIK, Dani (1992), « The limits of trade policy reform in developing countries », in Journal of Economic Perspectives, vol. 6.

SACHS, Jeffrey D., & Andrew WARNER (1995), « Economic reform and the process of global integration », in Brookings Papers on Economic Activity, vol. 1995, n° 1.

TOPALOVA, Petia, & Amit K. KHANDELWAL (2011), « Trade liberalization and firm productivity: The case of India », in Review of Economics and Statistics, vol. 93.

WACZIARG, Romain, & Karen Horn WELCH (2008), « Trade liberalization and growth: New evidence », in World Bank Economic Review, vol. 22.

WINTERS, L. Alan, & Andrew MASTERS (2013), « Openness and growth: Still an open question?  », in Journal of International Development, vol. 25.

Partager cet article

Repost0
14 juin 2019 5 14 /06 /juin /2019 14:28
L’art d’écrire des manuels selon Mankiw

Greg Mankiw n’est pas seulement connu pour ses travaux universitaires en tant qu’économiste, travaux qui ont fait de lui une figure proéminente parmi les « nouveaux keynésien » et l’ont amené à jouer le rôle de conseiller auprès de l’administration Bush Jr. Au cours de ces trois dernières décennies, il a aussi rédigé plusieurs manuels destinés aux étudiants, qu’il réédite régulièrement dans des versions actualisées. Sa Macroeconomics a déjà eu le droit à une dixième édition et la neuvième édition de ses Principles of Economics devrait bientôt être disponible. Ces manuels d’économie sont ceux qui ont connu les plus fortes ventes ces dernières décennies ; Mankiw estime que 4 millions d’exemplaires ont été imprimés.

Dans un court texte qu’il a publié il y a quelques mois, Mankiw s’est laissé aller à un petit exercice d’autoréflexion, non dénué d’autocélébration, où il aborde plusieurs questions relatives à la rédaction même d’un manuel d’économie. Ce texte n’est pas susceptible d’intéresser un large public ; sa lecture est surtout destinée aux professeurs désireux de construire leurs cours ou, de façon encore plus restreinte, ceux qui désirent se lancer dans la rédaction de leur propre manuel. Il offre en outre une matière assez intéressante aux historiens de la pensée économique : la vision qu’un économiste mainstream a, non seulement de la science économique, mais aussi de la façon par laquelle elle devrait être enseignée, vision qui a dû imprégner plusieurs générations d’étudiants, donc d’économistes, comme avaient pu le faire par le passé les Fondements de Paul Samuelson.

Mankiw s’est tout d’abord demandé quelle perspective les manuels doivent adopter. Il considère que leurs rédacteurs et les professeurs, en particulier ceux en charge des cours introductifs, doivent jouer un rôle d’ambassadeur de la profession des économistes : ils doivent représenter les vues partagées par la majorité de ces derniers. Certaines affirmations font assez consensus parmi les économistes ; Mankiw estime que c’est le cas de l’idée que l’adoption de droits de douane réduise le bien-être des résidents ou l’idée que la plupart des baisses d’impôts ne génèrent pas assez de croissance pour accroître les recettes fiscales. Mais d’autres affirmations sont plus contestées, comme celles selon lesquelles il est opportun d’accroître le salaire minimum ou que la politique monétaire doit se fonder sur des règles (par exemple celle de Taylor). Dès lors qu’une idée fait débat, il est nécessaire de donner les arguments des deux partis en présence. La difficulté est de voir dans quelle mesure telle ou telle idée fait consensus.

Pour enseigner la microéconomie, il est essentiel aux yeux de Mankiw de commencer par l’offre et la demande afin d’expliquer comment une économie de marché fonctionne. Cela pourrait paraître évident, mais il rappelle que la première édition (longue de 608 pages) des Fondements de Samuelson en 1948 n’évoquait pas les courbes d’offre et de demande avant la page 447. Une fois ce mécanisme expliqué, Mankiw juge essentiel de se tourner vers l’économie du bien-être, notamment les notions de surplus des consommateurs et de surplus des producteurs. En effet, ces dernières permettent aux étudiants de mieux saisir l’offre et la demande ; de plus, les concepts d’économie du bien-être permettent de mettre en évidence l’efficacité du marché, en précisant comment ce dernier contribue à allouer les ressources rares et ainsi à « maximiser la taille du gâteau économique » ; enfin, une fois les concepts de base d’économie du bien-être introduits, les courbes d’offre et de demande peuvent être utilisées pour s’attaquer à diverses questions en matière de politique économique, par exemple comment la fiscalité affecte l’efficacité économique, pourquoi l’ouverture au commerce extérieur génère des gains pour certains et des pertes pour d’autres ou encore comment le gouvernement peut réduire les externalités négatives comme la pollution.

Avant de présenter ce qui constitue la meilleure manière d’enseigner la macroéconomie, Mankiw explique avoir débuté sa carrière en tant que rédacteur de manuel en 1988. A l’époque, il devait préparer un cours de macroéconomie, mais il ne trouva aucun manuel qui donnait à ses yeux suffisamment de place à la macroéconomie classique : les manuels alors en vogue laissaient trop de place à la macroéconomie keynésienne. Il était pourtant selon lui essentiel de mettre l’accent sur les forces qui façonnent l’économie à long terme, c’est-à-dire de se pencher davantage sur la théorie de la croissance économique, le taux de chômage naturel ou encore la théorie quantitative de la monnaie.

Pour enseigner la macroéconomie, il juge plus cohérent de commencer par évoquer les idées classiques de long terme avant de s’attaquer aux idées keynésiennes de court terme ; par exemple, sur la question du rôle joué par l’épargne, il lui paraît plus logique de commencer par parler de son rôle bénéfique sur l’accumulation du capital que d’évoquer le rôle négatif que lui donne à jouer le paradoxe de l’épargne de Keynes. Cette façon de procéder trouve plusieurs justifications à ses yeux. Premièrement, les questions de long terme sont importantes pour le bien-être humain. Par exemple, pourquoi, en 1900, le niveau de vie était deux fois plus important en Argentine qu’au Japon et pourquoi le rapport est aujourd’hui inversé ? Deuxièmement, la macroéconomie classique est intimement liée aux leçons de microéconomie, si bien qu’il semble logique de la voir après avoir expliqué comment l’offre et la demande jouent un rôle crucial dans l’économie. Troisièmement, Mankiw perçoit les cycles d’affaires comme des écarts temporaires de l’économie par rapport à sa trajectoire tendancielle, si bien qu’il lui apparaît logique de ne traiter la question des fluctuations qu’après avoir vu l’équilibre à long terme. Quatrièmement, dans la mesure où Mankiw estime que la dichotomie classique est valide à long terme, il juge la question des fluctuations de court terme plus complexe que celle de la croissance à long terme. Cinquièmement, il lui paraît naturel de commencer par ce qui fait le plus consensus, or il juge la macroéconomie du court terme davantage sujette à débats que la macroéconomie de long terme.

Le contenu des manuels (et des cours introductifs) doit évoluer au fil des nouvelles connaissances ; Mankiw évoque par exemple l’essor de l’économie comportementale, qui a amené à remettre en cause les hypothèses habituellement avancées concernant la rationalité dont font preuve les agents lors de leurs prises de décision. Le contenu des manuels doit aussi évoluer avec les événements, qui peuvent eux-mêmes remettre en cause la savoir existant ; Mankiw reconnaît avoir négligé la question des banques et de leur endettement lors des éditions de ses manuels antérieures à la crise financière mondiale, mais l’occurrence de celle-ci l’a amené à en prendre compte. C’est sur ce point où Mankiw est le plus bref et où il déçoit le plus. Il aurait été très intéressant qu’il se demande véritablement dans quelle mesure la crise financière a conduit et doit conduire à une modification du contenu des manuels ; il faut se tourner vers d’autres auteurs pour aborder cette question [Bertocco et alii, 2019 ; Bowles et Carlin, 2019].

Faisant implicitement écho aux controverses qu’ont suscitées au cours des années deux mille les prix de ses propres manuels et le montant de ses propres droits d’auteur (qu’il cherche ainsi à justifier), Mankiw se demande si les manuels d’économie ne sont pas trop chers. En effet, les données du Bureau of Labor Statistics suggèrent qu’aux Etats-Unis les prix des manuels universitaires (toutes disciplines confondues) ont été multipliés par plus de 11 entre 1977 et 2015, c’est-à-dire ont augmenté trois fois plus vite que l’inflation. Mankiw doute que leurs prix aient augmenté autant que beaucoup ne le pensent, mais il reconnaît qu’ils ont significativement augmenté. Le prix élevé des manuels pourrait s’expliquer par l’asymétrie d’information entre les étudiants et leurs enseignants : les premiers n’ont pas d’autre choix que d’acheter le manuel conseillé par les seconds, alors que ces derniers sont peu sensibles au prix, si bien que les étudiants constituent une clientèle captive et les éditeurs ont un certain pouvoir de marché. Mankiw n’est pas entièrement convaincu par cette explication. D’une part, la publication des manuels a été selon lui peu rentable ces dernières années : le prix n’est donc pas très éloigné des coûts. Il n’y aurait donc pas de rentes. D’autre part, il y a effectivement une asymétrie d’information susceptible d’expliquer pourquoi le prix des manuels est élevé, mais non pourquoi ils augmentent. Pour Mankiw, la mise en ligne de compléments aux manuels offre un début d’explication. Et précisément parce que la production de tels compléments a d’importants coûts fixes selon lui, cela justifie que les manuels ne soient pas mis à disposition gratuitement en ligne. 

 

Références

BERTOCCO, Giancarlo, & Andrea KALAJZIC (2019), « The Great Recession and the teaching of macroeconomics: A critical analysis of the Blanchard, Amighini and Giavazzi textbook », Post Keynesian Economics Society, working paper, n° 1905.

BOWLES, Samuel, & Wendy CARLIN (2019), « What students learn in economics 101: Time for a change ».

MANKIW, N. Gregory (2019), « Reflections of a textbook author ».

Partager cet article

Repost0
6 juin 2019 4 06 /06 /juin /2019 21:29
Quelles options budgétaires pour le Japon ?

Après plusieurs décennies de forte croissance, le Japon connaît au tout début des années quatre-vingt-dix l’éclatement de plusieurs bulles spéculatives qui plonge l’économie insulaire dans une situation durable de stagnation, régulièrement ponctuée d’épisodes de déflation.

Comme le rappellent Olivier Blanchard et Takeshi Tashiro (2019) dans une nouvelle publication du Peterson Institute, la politique monétaire a toutefois été très expansionniste, ce qui d’ailleurs amenait certains à affirmer que l’économie nippone avait basculé dans une « trappe à liquidité » [Krugman, 1998]. D’une part, la Banque du Japon a baissé ses taux et ces derniers sont nuls depuis 1999. D’autre part, une fois que ses taux ont buté sur leur borne zéro, elle s’est lancée dans des achats d’actifs à grande échelle dans le cadre de programmes d’assouplissement quantitatif (quantitative easing). En conséquence, la taille de son bilan a fortement augmenté depuis 1999 : elle a été multipliée par cinq, passant de l’équivalent de 21 % du PIB à 101 % du PIB. En fait, le « taux fantôme » (shadow rate), c’est-à-dire le niveau qu’atteindrait théoriquement le taux directeur s’il prenait en compte l’impact de l’ensemble des mesures d’assouplissement quantitatif, a fortement baissé depuis la fin des années deux mille, atteignant – 8,3 % en avril 2019.

GRAPHIQUE 1  Taux directeur et « fantôme » au Japon (en %)

Parallèlement, la politique budgétaire a également été très expansionniste. Entre 1999 et 2018, les déficits budgétaires primaires du Japon ont atteint en moyenne 5,4 % du PIB, tandis que la dette publique nette a régulièrement augmenté, passant de 64 % à 153 % du PIB. Et pourtant, jusqu’à présent, les taux d’intérêt sur la dette souveraine sont restés extrêmement faibles [Hoshi et Ito, 2012]

Malgré l’ampleur de l’assouplissement des politiques conjoncturelles, ni l’inflation, ni la croissance l’ont retrouvé un rythme soutenu. L’inflation, telle qu’elle est mesurée par l’indice des prix à la consommation tourne autour de 1 % depuis 2018, soit un point de pourcentage en-deçà de la cible de 2 % de la Banque du Japon. Pour Blanchard et Tashiro, cette situation peut s’interpréter de deux façons : soit l’inflation anticipée soit égale à la cible de la Banque du Japon, auquel cas l’inflation est moindre que celle anticipée et l’écart de production (output gap) est négatif ; soit l’inflation anticipée est moindre que la cible d’inflation, ce qui signifie que l’inflation est peut-être égale à l’inflation anticipée, auquel cas la production se situe à son potentiel. Mais qu’importe la bonne interprétation, chacune des deux plaide pour un assouplissement des politiques conjoncturelles : dans le premier cas, celui-ci rapprochera la production de son potentiel ; dans le second cas, il alimentera les pressions inflationnistes, ce qui rapprochera l’inflation de la cible de la Banque du Japon. Blanchard et Tashiro estiment toutefois que c’est la seconde interprétation qui est correcte, dans la mesure où de nombreux indicateurs d’inflation anticipée suggèrent qu’elle est proche de 1 %. Le FMI et le gouvernement japonais estiment également que la production est proche de son potentiel. 

Les gouvernements successifs ont régulièrement indiqué leur volonté de revenir rapidement à l’équilibre primaire. Le gouvernement actuel a lui-même récemment affirmé son attention de renouer avec l’équilibre primaire à partir de 2025. Blanchard et Tashiro doutent que ce soit opportun. En effet, ils estiment que le Japon est touché par une forme virulente de « stagnation séculaire » [Summers, 2015 ; Rachel et Summers, 2019]. La demande domestique est chroniquement faible, si bien que le maintien de la production à son potentiel nécessite une certaine combinaison de faibles taux d’intérêt et de déficits budgétaires. En outre, le fait même que les gouvernements successifs aient régulièrement écourté leurs plans de relance à pu réduire l’efficacité de ces derniers [Auerbach et Gorodnichenko, 2017].

GRAPHIQUE 2  Service de la dette publique du Japon (en % du PIB)

Malgré la forte hausse du ratio dette publique sur PIB entre 1990 et 2017, les paiements d’intérêt nets ne représentaient que 0,4 % du PIB en 2017, soit trois fois moins qu’en 1990 (cf. graphique 2). En fait, les taux d’intérêt ne sont pas seulement faibles ; ils sont aussi plus faibles que les taux de croissance prévus. Quand le taux d’intérêt dépasse le taux de croissance, une hausse de la dette publique doit être compensée par un plus ample excédent primaire dans le futur, sous peine de voir la dette publique suivre une trajectoire explosive. Mais lorsque le taux d’intérêt est inférieur au taux de croissance, le gouvernement peut accroître sa dette sans jamais à avoir à relever les impôts, si bien que le ratio dette publique sur PIB va avoir tendance à diminuer [Blanchard, 2019]. Par conséquent, le gouvernement japonais peut connaître un déficit primaire tout en maintenant un ratio dette publique sur PIB constant.

D’un autre côté, non seulement Blanchard et Tashiro doutent que la Banque du Japon puisse davantage stimuler l’activité, mais ils soulignent en outre les dangers que fait peser le maintien de très faibles taux d’intérêt : plus ces derniers sont proches de la borne inférieure zéro, plus ils risquent de buter sur celle-ci à l’avenir ; de faibles taux d’intérêt alimentent les prises de risque excessives et les bulles spéculatives ; il pourrait y avoir un « taux d’inversion » (reversal rate) à partir duquel toute baisse supplémentaire des taux d’intérêt déprime en fait la demande globale. 

Blanchard et Tashiro se sont enfin demandé à quelles dépenses les déficits primaires pourraient être utilisés. Le plus évident serait de les utiliser pour procéder à des investissements publics, dans la mesure où ces dernières stimulent l’activité à court terme, mais aussi le potentiel de croissance à long terme [FMI, 2014]. Ils notent d’ailleurs que le Japon n’a pas utilisé ses amples déficits primaires de ces dernières décennies pour accroître l’investissement public : le ratio investissement public sur PIB a régulièrement décliné depuis le début des années quatre-vingt-dix, en passant de 9 % à 5 % entre 1993 et 2018. Blanchard et Tashiro estiment qu’il y a certainement des projets dont les rendements dépassent de loin le taux auquel le gouvernement japonais emprunte. Selon eux, ce dernier pourrait surtout investir en vue de faire face au vieillissement démographique que connait la population japonaise et chercher à accroître le taux de natalité.

 

Références

AUERBACH, Alan J., & Yuriy GORODNICHENKO (2017), « Fiscal multipliers in Japan », in Research in Economics, vol. 71, n° 3.

BLANCHARD, Olivier (2019), « Public debt and low interest rates », PIIE, working paper, n° 19-4.

BLANCHARD, Olivier, & Takeshi TASHIRO (2019), « Fiscal policy options for Japan », PIIE, Policy Brief, n° 19-7. 

FMI (2014), « Is it time for an infrastructure push? The macroeconomic effects of public investment », in World Economic Outlook, octobre.

HOSHI, Takeo, & Takatoshi ITO (2014), « Defying gravity: Can Japanese sovereign debt continue to increase without a crisis? », in Economic Policy, vol. 29, n° 77.

KRUGMAN, Paul (1998), « It’s Baaack: Japan’s slump and the return of the liquidity trap », in Brookings Papers on Economic Activity, vol. 19, n° 2.

RACHEL, Łukasz, & Lawrence H. SUMMERS (2019), « On falling neutral real rates, fiscal policy, and the risk of secular stagnation », in Brookings Papers on Economic Activity.

SUMMERS, Lawrence H. (2015), « Have we entered an age of secular stagnation? », in FMI, IMF Economic Review, vol. 63.

Partager cet article

Repost0
2 juin 2019 7 02 /06 /juin /2019 13:58
L’inversion de la courbe des taux signale-t-elle l’imminence d’une récession aux Etats-Unis ?

Une variable a particulièrement attiré l’attention des analystes financiers ces dernières semaines : la pente de la courbe des taux (yield curve) aux Etats-Unis, c’est-à-dire la différence entre le rendement à dix ans et le rendement à un an des titres du Trésor américain. Jusqu’alors positive, elle est récemment devenue négative. Or, par le passé, la pente de la courbe des taux est devenue négative environ un an avant chacune des neuf récessions qui ont été enregistrées aux Etats-Unis depuis 1955 par le National Bureau of Economic Research (cf. graphique). C’est Reuben Kessel (1965) qui a probablement été le premier à noter ce phénomène, mais ce n’est qu’à partir des années quatre-vingt que la recherche empirique s’est réellement penchée dessus et y voit un véritable fait stylisé [Harvey, 1988 ; Stock et Watson, 1989 ; Estrella et Hardouvelis, 1991].

GRAPHIQUE  Pente de la courbe des taux aux Etats-Unis (en %)

Beaucoup interprètent donc la récente inversion de la courbe des taux comme présageant l’éclatement prochaine d’une récession aux Etats-Unis, mais tous les analystes et responsables de la politique monétaire ne partagent pas leur pessimisme. Certains estiment que les temps sont différents, en raison de changements structurels et de l’exceptionnalité des mesures adoptées depuis une décennie par la Réserve fédérale. D’ailleurs, il y a déjà eu une fausse alarme par le passé : la courbe des rendements s’était inversée en 1966, mais le NBER n’identifia à l’époque aucune récession. 

Cela dit, comment le notent Bruno De Backer, Marjolein Deroose et Christophe Van Nieuwenhuyze (2019) dans leur récente revue de la littérature, la croissance américaine a tout de même ralenti en 1967 et peut-être que les Etats-Unis auraient basculés dans une récession si la Fed n’avait alors pas fortement assoupli sa politique monétaire. Et régulièrement, à la veille des précédentes récessions, beaucoup ont aussi affirmé que les choses étaient alors différentes, reconnaissant certes que l’inversion de la courbe des taux avait été par le passé un bon indicateur avancé de l’éclatement des récessions, mais affirmant qu’elle ne disposait plus de cette capacité dans la période courante [Rudebusch et Williams, 2009]. En 2005, Alan Greenspan, alors à la tête de la Fed, déclarait que le pouvoir prédictif de la courbe des taux s’était fortement essoufflé et qu’il n’interprétait pas l’aplatissement de la courbe des taux alors à l’œuvre comme signalant un ralentissement significatif de la croissance américaine. En 2007, quelques mois avant le début officiel de la Grande Récession, l’économiste britannique Charles Goodhart estimait que le pouvoir prédictif de la courbe des taux avait largement disparu. Aujourd’hui, la plupart des membres du comité d’open market de la Fed estiment que les choses sont différentes, que la courbe des taux a perdu de son pouvoir prédictif ; Neel Kashkari et James Bullard, respectivement présidents des Réserves fédérales de Minneapolis et de Saint Louis, font toutefois figures d’exception.

Depuis les années quatre-vingt, beaucoup ont conclue que la courbe des taux constitue l’un des meilleurs indicateurs avancés de l’activité aux Etats-Unis, si ce n’est le meilleur [Estrella et Mishkin, 1998 ; Stock et Watson, 2003 ; Rudebusch et Williams, 2009]. Ce lien entre courbe des taux et activité a également été décelé dans d’autres pays, notamment dans la zone euro [Estrella et Mishkin, 1997]. Plusieurs études ont mis en évidence une rupture structurelle au milieu des années quatre-vingt avec une moindre sensibilité de la croissance du PIB à la pente de la courbe des taux et certaines ont régulièrement suggéré que le pouvoir prédictif de la courbe des taux s’était évanoui [Chauvet et Potter, 2002 ; Venetis et alii, 2003 ; Jardet, 2004 ; Schrimpf et Wang, 2010]. Certaines études ont toutefois conclu que si la courbe des taux permettait plus difficilement de prévoir la croissance du PIB, elles n’avaient pas pour autant perdu sa capacité à prévoir les récessions [Estrella et alii, 2003 ; Rudebusch et Williams, 2009]. En étudiant à leur tour les données relatives à 17 pays développés, De Backer et ses coauteurs confirment que la courbe des taux constitue l’un des meilleurs indicateurs avancés de l’activité économique, mais aussi que la sensibilité de la croissance du PIB à la pente de la courbe des taux s’est affaiblie autour de l’expérience Volcker.

Si certains pensent que les choses sont vraiment différentes aujourd’hui et qu’il ne faut pas s’inquiéter de l’inversion de la courbe des taux, c’est surtout en raison de la baisse de la « prime de terme » (term premium), c’est-à-dire de la part du rendement de long terme qui compense les détenteurs d’obligations pour l’incertitude à propos des variations futures des taux d’intérêt. Depuis plusieurs décennies, c’est-à-dire avant même qu’éclate la crise financière mondiale, plusieurs facteurs contribuent à l’affaiblir : la plus grande crédibilité des banques centrales dans leur lutte contre l’inflation a participé à réduire les anticipations d’inflation, tandis que l’excès d’épargne (savings glut) asiatique, les achats de bons du Trésor américain par les banques centrales des pays émergents et le vieillissement démographique, ont contribué à accroître la demande de titres de long terme, donc poussé leur rendement à la baisse. La plus grande aversion au risque lors de la crise a exacerbé la demande de titres sûrs, avant que ne le fassent les achats d’actifs à grande échelle réalisées par les banques centrales et le resserrement de la réglementation prudentielle. Dans tous les cas, d’autres forces que les anticipations futures de récession contribuent à façonner la prime de terme, en l’occurrence à l’affaiblir, et cette faiblesse rend plus probables les inversions de la courbe de taux sans que celles-ci ne signalent forcément l’arrivée prochaine de récessions. Plusieurs études ont en effet montré que la prime de terme avait significativement chuté depuis le milieu des années quatre-vingt, sans que la probabilité de récessions n’augmente.

Mais, que les choses soient différentes ou non aujourd’hui, l’inversion de la courbe des taux a constitué par le passé le meilleur indicateur des récessions aux Etats-Unis, chose qu'il faut bien expliquer. Or, il n’y a pas de théorie qui fasse consensus pour expliquer cette performance ; Luca Benati et Charles Goodhart (2008) parlaient d’ailleurs d’« un fait stylisé en quête d’une théorie ». Selon un premier ensemble d'explications, l’inversion de la courbe des taux reflète une future récession, mais n’en est pas une cause : il y aurait donc une troisième variable qui expliquerait à la fois l’inversion de la courbe des taux et la survenue de la récession. Par exemple, comme la politique monétaire détermine essentiellement les rendements de court terme, elle peut influencer la pente de la courbe des taux. Un resserrement de la politique monétaire entraîne une hausse du taux à court terme, si bien que la pente s’atténue si les rendements de long terme augmentent moins vite, chose qu’ont notamment constatée Arturo Estrella et Frederic Mishkin (1997). Or, un resserrement monétaire tend à déprimer l’activité et l’inflation, ce qui accroît le risque de récession. Il se peut aussi que ce soit l’anticipation même d’une récession qui conduise à un aplatissement de la courbe des taux : par exemple, si les individus s’attendent à ce qu’une récession éclate prochainement, ils chercheront à acheter davantage de titres de long terme pour s’assurer un flux de revenus futurs, très probablement en vendant des titres de court terme ; dans ce cas, la demande de titres de long terme et l’offre de titres de court terme augmentent, ce qui pousse les rendements de long terme à la baisse et les rendements de court terme à la hausse [Harvey, 1988].

D’autres explications donnent un rôle actif à l’inversion de la courbe des taux. Par exemple, dans la mesure où les banques prêtent à long terme et ont des dépôts à court terme, leur profitabilité diminue lorsque la courbe des taux s’aplatit, ce qui peut les inciter à réduire leurs prêts, au détriment de l’activité réelle, voire accroît le risque qu’éclate une crise financière, notamment en incitant les banques à prendre plus de risques dans leur chasse au rendement [Borio et alii, 2017 ; Claessens et alii, 2018]. Selon un autre type d’explication donnant un rôle actif à l’inversion de la courbe des taux dans la survenue des récessions, il pourrait y avoir des prophéties autoréalisatrices : les banques et les marchés financiers interprétant l’inversion de la courbe des taux comme un signal avancé d’une récession, l’aversion au risque augmente, ce qui pèse sur le financement de l’activité économique, donc freine cette dernière.

En conclusion, les divers résultats empiriques et raisonnements théoriques amènent à prendre avec précaution le lien entre courbe des taux et récession. Ceux qui estiment que « cette fois, c'est différent » ne sont pas dénués d'arguments fondés et il ne faut pas oublier que l'activité économique dépend étroitement des politiques conjoncturelles, or les institutions en charge de ces dernières peuvent toujours donner crédit à cette relation et la déjouer en changeant de comportement. Selon les estimations que proposent De Backer et alii, la courbe des taux suggérait en avril 2019 qu’il y avait 45 % de chances que les Etats-Unis basculent en récession entre les 12 et 18 mois suivants, c’est-à-dire au milieu de l’année 2020. C’est une probabilité bien supérieure à la probabilité inconditionnelle (d’environ 20 %) qu’une récession éclate 12 à 18 mois après. Il faudra attendre l'année prochaine pour voir si la récente inversion de la courbe des taux marque ou non une fausse alerte comme il y a un demi-siècle, en 1967. En tout cas, au vu des velléités protectionnistes de l'administration Trump, le scénario d'une récession américaine est loin d'être irréaliste. Et la faiblesse du chômage offre un autre signal d'alarme [Fatas, 2019].

 

Références

BENATI, Luca, & Charles GOODHART (2008), « Investigating time-variation in the marginal predictive power of the yield spread », in Journal of Economic Dynamics & Control, vol. 32.

BORIO, Claudio, Leonardo GAMBACORTA & Boris HOFMANN (2017), « The influence of monetary policy on bank profitability », in International Finance, vol. 20.

CHAUVET, Marcelle, & Simon POTTER (2002), « Predicting a recession: Evidence from the yield curve in the presence of structural breaks », in Economics Letters, vol. 77, n° 2.

CLAESSENS, Stijn, Nicholas COLEMAN & Michael DONNELLY (2018), « Low-for-long interest rates and banks’ interest margins and profitability: Cross-country evidence », in Journal of Financial Intermediation, vol. 35.

DE BACKER, Bruno, Marjolein DEROOSE & Christophe VAN NIEUWENHUYZE (2019), « Is a recession imminent? The signal of the yield curve », in Banque nationale de Belgique, NBB Economic Review.

ESTRELLA, Arturo, & Gikas A. HARDOUVELIS (1991), « The term structure as a predictor of real economic activity », in Journal of Finance, vol. 46, n° 2.

ESTRELLA, Arturo, & Frederic S. MISHKIN (1997),  « The predictive power of the term structure of interest rates in Europe  and the United States: Implications for the European Central Bank », in European Economic Review, vol. 41.

ESTRELLA, Arturo, & Frederic S. MISHKIN (1998),  « Predicting U.S. recessions: Financial variables as leading indicators », in The Review of Economics and Statistics, vol. 80, n° 1.

ESTRELLA, Arturo, Anthony R. RODRIGUES & Sebastian SCHICH (2003), « How stable is the predictive power of the yield curve? Evidence from Germany and the United States », in The Review of Economics and Statistics, vol. 85, n° 3.

FATAS, Antonio (2019), « The 2020 (US) recession », in Antonio Fatás on the Global Economy (blog), 12 mars. 

JARDET, Caroline (2004), « Why did the term structure of interest rates lose its predictive power? », in Economic Modelling, vol. 21, n° 3.

HARVEY, Campbell R. (1988), « The real term structure and consumption growth », in Journal of Financial Economics, vol. 22, n° 2.

KESSEL, Reuben A. (1965), The Cyclical Behavior of the Term Structure of Interest Rates, NBER.

RUDEBUSCH, Glenn D., & John C. WILLIAMS (2009), « Forecasting recessions: The puzzle of the enduring power of the yield curve », in Journal of Business & Economic Statistics, vol. 27, n° 4.

SCHRIMPF, Andreas, & Qingwei WANG (2010), « A reappraisal of the leading indicator properties of the yield curve under structural instability », in International Journal of Forecasting, vol. 26, n° 4.

STOCK, James H., & Mark W. WATSON (1989), « New indexes of coincident and leading economic indicators », in NBER Macroeconomics Annual.

STOCK, James H., & Mark W. WATSON (2003), « How did leading indicator forecasts perform during the 2001 recession? », in Federal Reserve Bank of Richmond, Economic Quarterly, vol. 89, n° 3.

VENETIS, Ioannis A., Ivan PAYA & David A. PEEL (2003), « Re-examination of the predictability of economic activity using the yield spread: A nonlinear approach », in International Review of Economics and Finance, vol. 12, n° 2.

Partager cet article

Repost0
30 mai 2019 4 30 /05 /mai /2019 15:25
L’hystérèse, ou pourquoi il peut être opportun de maintenir une économie en surchauffe

Selon l’hypothèse du taux naturel, il existe un taux de chômage auquel l’inflation est stable et ce taux de chômage serait indépendant de la demande globale [Friedman, 1968]. Si c’est le cas, alors les politiques conjoncturelles, celles qui cherchent à influer sur l’activité économique en influençant la demande, ne peuvent maintenir durablement le taux de chômage en-deçà de son niveau naturel. Ainsi, c’est cette hypothèse qui amène Friedman, mais aussi les nouveaux keynésiens, à considérer qu’il peut y avoir un arbitrage entre inflation et chômage à court terme, mais non à long terme. Les partisans d’une telle hypothèse appellent alors à la mise en œuvre de réformes structurelles en vue de réduire le chômage de long terme. Cela dit, même si l’hypothèse du taux de chômage naturel est valide, cela n’amène pas forcément à dénier un rôle aux politiques conjoncturelles. En effet, comme le notait James Tobin, si le taux de chômage est supérieur au taux naturel, rien ne certifie qu’il revienne spontanément au niveau de ce dernier ; les politiques expansionnistes peuvent au moins chercher à éliminer la part conjoncturelle du chômage.

Selon l’hypothèse concurrente de l’hystérésis (ou hystérèse), le taux de chômage à long terme est influencé par le taux de chômage courant, si bien qu’il peut être influencé par la demande globale : si en raison d’une insuffisance de la demande globale le chômage se maintient à un niveau élevé, cela poussera le taux de chômage de long terme à la hausse [Blanchard et Summers, 1986 ; Ball, 2009]. En effet, plus les chômeurs passent de temps au chômage, plus ils perdront en qualifications, moins ils auront de chances d’être réembauchés et moins ils seront efficaces s’ils parviennent à se faire réembauchés ; les difficultés d’embauche peuvent amener certains chômeurs à se décourager et à quitter la population active ; en période de mauvaise conjoncture, les entreprises sont moins incités à investir, ce qui réduit leur capacité à embaucher lorsque la bonne conjoncture revient, etc. Si c’est le cas, alors il sera d’autant plus difficile de faire refluer le chômage que celui-ci s’est maintenu à un niveau élevé.

Les effets d’hystérèse compliquent la tâche des politiques conjoncturelles, mais ils n’amènent pas à les rejeter. Non seulement ils impliquent que les politiques conjoncturelles soient rapidement assouplies pour éviter que le chômage ne s’envole, mais ils accroissent aussi l’impact des politiques conjoncturelles sur l’activité. Brad DeLong et Larry Summers (2012) suggèrent que la présence d’effets d’hystérèse accroît fortement les multiplicateurs budgétaires lors des récessions, si bien que les plans de relance qui sont menés lors des récessions sont susceptibles de s’autofinancer. Philipp Engler et Juha Tervala (2018) obtiennent également des multiplicateurs budgétaires élevés en raison des effets d’hystérèse entraînés par le phénomène d’apprentissage par la pratique (learning-by-doing). En conséquence, l’adoption de plans d’austérité, a fortiori lors des récessions, se traduit par des dommages irrémédiables sur l’activité [Fatás et Summers, 2018 ; Fatás, 2018].

La plupart des modèles économiques suggèrent que l’activité et le taux de chômage tendent à revenir à leur tendance d’avant-crise à mesure qu’une reprise se poursuit. Mais si des effets d’hystérèse sont à l’œuvre lors des récessions et de chômage élevé, ils pourraient aussi s’exercer, mais en sens inverse, lorsque l’économie connaît une expansion soutenue et avoisine son plein emploi. Arthur Okun (1973) notait ainsi les gains à long terme d’une « économie à haute pression » (high-pressure economy), notamment en termes d’ascension sociale pour les plus modestes. Lorsque le marché du travail se retrouve sous tensions, l’amélioration des perspectives d’embauche peut inciter les chômeurs découragés à revenir dans la population active ; elle peut conduire à de meilleurs appariements entre emplois et travailleurs, dans la mesure où ces derniers ont moins de difficultés à changer d’emploi et ont plus de chances d’obtenir l’emploi qui leur convient le mieux ; à mesure que les entreprises embauchent, elles peuvent être incitées à investir dans le capital physique pour équiper les nouveaux travailleurs ou pour faire face à d’éventuelles pénuries de main-d’œuvre ; la perspective d’un maintien de la bonne conjoncture peut inciter les entreprises à davantage investir dans le capital humain via les formations, etc. Autrement dit, les expansions pourraient non seulement réduire le chômage structurel, mais aussi stimuler la production potentielle. Or, si effectivement le chômage poursuit sa baisse tout en poussant la production potentielle à la hausse, cela tend en partie à contenir les pressions inflationnistes : si les autorités parviennent à maintenir le taux de chômage juste en-deçà de son niveau compatible avec une inflation stable, ce dernier tend à décliner sans générer d’accélération significative de l’inflation.

Plusieurs études ont suggéré que des effets d’hystérèse négative sont effectivement à l’œuvre dans le sillage des récessions [Ball, 2014 ; Martin et alii, 2015 ; Blanchard et alii, 2015]. Si Janet Yellen (2016), alors présidente de la Réserve fédérale, évoquait la possibilité d’une hystérèse positive dans une économie « à haute pression » pour justifier le maintien d’une politique monétaire expansionniste aux Etats-Unis alors même que ces derniers se situent dans une situation que beaucoup qualifient de plein emploi, il faut avouer, comme le soulignait Jay Powell, à la tête aujourd’hui de la Fed, que les preuves empiriques d’une hystérèse positive sont parcellaires. Or, les risques d’une économie à haute pression sont eux bien plus clairement identifiés : un dérapage de l’inflation, une perte de crédibilité des autorités monétaires, le gonflement de bulles spéculatives (avec le maintien de faibles taux d’intérêt), donc le risque d’une nouvelle crise financière, etc. Le taux de chômage américain ayant continué à baisser ces dernières années sans générer pour l’heure d’accélération de l’inflation : il n’est pas seulement revenu à son niveau d’avant-crise ; il a atteint un niveau qu’il n’avait pas atteint depuis un demi-siècle. Les études se sont alors récemment multipliées pour déterminer si le maintien d’une économie en surchauffe rapportait effectivement des gains à long terme.

Dans une nouvelle publication du FMI, John Bluedorn et Daniel Leigh (2019) ont étudié les révisions des prévisions professionnelles au cours des 30 dernières années dans 34 pays développés. Ils constatent tout d’abord que les prévisionnistes considèrent que les effets d’une expansion de l’emploi sont durables. Suite à une hausse non anticipée de 1 % de l’emploi dans la période courante, la prévision d’emploi dans les cinq années suivantes est relevée en moyenne de 1,6 %, celle de taux d’activité est relevée de 1,1 % et celle du taux de chômage chute de 0,4 point de pourcentage.

Ensuite, Bluedorn et Leigh se sont penchés sur les effets à long terme des changements de la demande globale en observant les épisodes au cours desquels le chômage et l’inflation de la période courante sont révisés dans des sens opposés. Ils constatent que les prévisionnistes voient ces épisodes comme dominés par les chocs de demande. En l’occurrence, les prévisionnistes considèrent que ces derniers ont des effets durables sur l’emploi, le taux d’activité et le taux de chômage. Pour toute hausse de 1 % de l’emploi dans la période courante lors des expansions tirées par la demande, les prévisions sur cinq ans de l’emploi et du taux d’activité et du taux d’activité s’élèvent en moyenne de 1,7 % et de 1,3 %, tandis que la prévision sur cinq ans du taux d’emploi diminue de 0,4 point de pourcentage. Au cours de ces épisodes, la prévision d’inflation à proche terme augmente en moyenne de 0,2 point de pourcentage, mais les anticipations d’inflation ne sont pas modifiées.

Si les prévisionnistes surestimaient systématiquement la persistance d’une expansion d’emploi, alors les erreurs de prévisions subséquentes devraient être négativement corrélées avec la révision initiale. Bluedorn et Leigh ne constatent pas de preuve d’une telle corrélation systématique : les prévisionnistes ne surestiment, ni ne sous-estiment la persistance des chocs. Bref, leurs divers constats constats ne sont pas cohérents avec l’idée que le taux de chômage à long terme est indépendant de son niveau à court terme et finalement de la demande globale : cette dernière semble bien affecter l’offre globale.

GRAPHIQUE  Taux d'activité des 25-54 ans aux Etats-Unis (en %)

Plusieurs études focalisées sur l’économie américaine ont également mis en évidence la présence d’une hystérèse positive ; c’est le cas de Julie Hotchkiss et Robert Moore (2018), de Stephanie Aaronson et alii (2019) ou encore de Regis Barnichon (2019). Ce dernier note que le taux d’activité des personnes d’âge intermédiaire a augmenté ces dernières années aux Etats-Unis, alors qu’il avait fortement chuté durant la Grande Récession et dans le sillage de celle-ci (cf. graphique). Cela pourrait laisser penser qu’un marché du travail américain sous tensions attirerait de nouveaux travailleurs dans les rangs des actifs. Or, ce ne semble pas être le cas. D’après l’analyse de Barnichon qui distingue entre les flux d’entrées et de sortie de la vie active, la récente hausse du taux d’activité des personnes d’âge intermédiaire ne s’explique pas par l’afflux de nouveaux travailleurs ; par contre, dans la mesure où les chômeurs retrouvent plus rapidement un emploi, ils sont moins susceptibles de quitter la vie active.

 

Références

AARONSON, Stephanie R., Mary C. DALY, William WASCHER, & David W. WILCOX (2019), « Okun revisited: Who benefits most from a strong economy? », in Brookings Papers on Economic Activity.

BALL, Laurence (2009), « Hysteresis in unemployment: Old and new evidence », NBER, working paper, n° 14818.

BALL, Laurence (2014), « Long-term damage from the Great Recession in OECD countries », NBER, working paper, n° 20185.

BARNICHON, Regis (2019), « Is the hot economy pulling new workers into the labor force? », Federal Reserve Bank of San Francisco, FRBSF Economic Letter, n° 2019-15. 

BLANCHARD, Olivier, Eugenio CERUTTI & Lawrence SUMMERS (2015), « Inflation and activity – Two explorations and their monetary policy implications », NBER, working paper, n° 21726.

BLANCHARD, Olivier, & Lawrence SUMMERS (1986), « Hysteresis in unemployment », in NBER Macroeconomics Annual, vol. 1.

BLUEDORN, John, & Daniel LEIGH (2019), « Hysteresis in labor markets? Evidence from professional long-term forecasts », FMI, working paper, n° 19/114. 

DELONG, J. Bradford, & Lawrence H. SUMMERS (2012), « Fiscal policy in a depressed economy », in Brookings Papers on Economic Activity, vol. 44.

ENGLER, Philipp, & Juha TERVALA (2016), « Hysteresis and fiscal policy », DIW, discussion paper, n° 1631, décembre.

FATÁS, Antonio (2018), « Fiscal policy, potential output and the shifting goalposts », CEPR, discussion paper, n° 13149.

FATÁS, Antonio, & Lawrence H. SUMMERS (2018), « The permanent effects of fiscal consolidations », in Journal of International Economics, vol. 112.

FRIEDMAN, Milton (1968), « The role of monetary policy », allocution présidentielle prononcée à la conférence de l’American Economic Association, in American Economic Review, vol. 58, n° 1.

HOTCHKISS, Julie L., & Robert E. MOORE (2018), « Some like it hot: Assessing longer-term labor market benefits from a high-pressure economy », Federal Reserve Bank of Atlanta, working paper, n° 2018-1. 

LUNDBERG, Shelly (1985), « The added worker effect », in Journal of Labor Economics, vol. 3, n° 1.

MARTIN, Robert, Teyanna MUNYAN, & Beth Anne WILSON (2015), « Potential output and recessions: Are we Fooling ourselves? », Réserve fédérale, international finance discussion paper, n° 1145.

OKUN, Arthur M. (1973), « Upward mobility in a high-pressure economy », in Brookings Papers on Economic Activity.

YELLEN, Janet L. (2016), « Macroeconomic research after the crisis », discours prononcé à la soixantième conférence annuelle de la Federal Reserve Bank of Boston, 14 octobre. Traduction française, « La recherche en macroéconomie depuis la crise ».

Partager cet article

Repost0
24 mai 2019 5 24 /05 /mai /2019 17:27
L'essoufflement de la productivité, une pathologie transatlantique ?

Au fil des décennies, la croissance de la productivité du travail a eu tendance à ralentir dans les pays développés. Aux Etats-Unis, la croissance du PIB réel par heure travaillée est passée de 2,7 % par an en moyenne sur la période allant de 1950 à 1972 à 1,9 % sur la période allant de 1972 à 2005, puis à 1,1 % sur la période allant de 2005 à 2017. Dans l’ensemble des quinze pays d’Europe occidentale (en l’occurrence, les quinze pays qui constituaient l’Union européenne avant que celle-ci ne s’élargisse en 2004 en acceptant dix nouveaux pays-membres en Europe orientale), la croissance du PIB réel par heure travaillé a baissé encore plus fortement, puisqu’elle est passée de 4,7 % par an en moyenne sur la période allant de 1950 à 1972, à 2,0 % sur la période allant de 1972 à 2005, puis à 0,8 % sur la période allant de 2005 à 2017.

Une telle évolution inquiète les économistes. Pour tout partage donné de la valeur ajoutée, un ralentissement de la productivité du travail freine la croissance des salaires réels et plus largement du niveau de vie. Il se traduit en outre par un ralentissement de la même ampleur de la production potentielle, donc de la capacité du pays à créer des richesses. 

Afin d’éclairer ce phénomène, Robert Gordon et Hassan Sayed (2019) ont récemment utilisé les données de KLEMS pour comparer le ralentissement de la croissance de la productivité que les Etats-Unis connaissent depuis 1950 et celui que connaissent depuis 1972 les dix plus grosses économies d’Europe occidentale (en l’occurrence, l’Allemagne, l’Autriche, la Belgique, le Danemark, la France, l’Italie, les Pays-Bas, le Royaume-Uni et la Suède). Ils considèrent en l’occurrence quatre sous-périodes, la première entre 1950 et 1972, la deuxième entre 1972 et 1995, la troisième entre 1995 et 2005 et la dernière entre 2005 et 2015. Leurs données leur permettent de réaliser une décomposition comptable de la croissance de la productivité en distinguant les contributions respectives de l’approfondissement du capital, de la composition du travail et de la productivité multifactorielle ; d’identifier à quelle vitesse les différents secteurs croissent au cours de chaque sous-période et de mesurer la contribution relative de chacun de ces secteurs à la croissance de la productivité globale ; et de réaliser une décomposition comptable au niveau sectoriel pour identifier les secteurs dans lesquels un ralentissement de l’approfondissement du capital ou de la productivité multifactorielle s’est révélé particulièrement marqué.

Gordon et Sayed comparent la performance des Etats-Unis avec celle des dix plus grosses économies d’Europe occidentale. Les Etats-Unis et les pays européens ont donc connu un ralentissement de la croissance de la productivité, mais pas de façon synchrone. Cela dit, il y a eu des différences dans le calendrier et l’ampleur de ce ralentissement : d’une part, le ralentissement de la croissance après 1972 est plus marqué en Union européenne qu’aux Etats-Unis ; d’autre part, les Etats-Unis ont joui d’un retour temporaire de la croissance de la productivité entre 1995 et 2005, tandis que les pays européens n’en ont connu aucun.

Gordon et Sayed interprètent l’expérience européenne de la période allant de 1950 à 1995 comme un rattrapage vis-à-vis des Etats-Unis. En effet, au cours des décennies qui suivent immédiatement la Seconde Guerre mondiale, la croissance a été plus rapide en Europe qu’aux États-Unis. En conséquence, la productivité européenne représentait 81 % de la productivité américaine en 1972, contre 50 % en 1950. Au cours des décennies suivantes, la croissance a ralenti des deux côtés de l’Atlantique, mais elle est restée plus forte en Europe qu’aux Etats-Unis, si bien que la convergence s’est poursuivie, mais plus lentement.

La croissance rapide qu’ont connue les pays européens entre 1950 et 1972 s’explique, d’une part, par les efforts de reconstruction qu’ils ont dû entreprendre dans le sillage du conflit mondial et, d’autre part, par l’adoption (retardée) des innovations qui avaient alimenté la croissance de la productivité américaine au cours de la première moitié du vingtième siècle. Le ralentissement que la croissance européenne a connu entre 1972 et 1995 réplique celui qu’a connu la croissance américaine entre 1950 et 1972. Le rythme et la composition sectorielle de la croissance de la productivité agrégée qu’ont connue les pays européens entre 1972 et 1995 sont similaires à ceux que la croissance américaine a enregistrés entre 1950 et 1972.

Plusieurs études antérieures ont suggéré que le décrochage de la croissance européenne des années soixante-dix aux années quatre-vingt-dix s’expliquerait par l’inadéquation de ses institutions des marchés de produits et du travail [Ark et alii, 2008]. Or, Gordon et Sayed aboutissent à un constat qui amène à remettre en question cette visions : entre la période allant de 1972 à 1995 et la période allant de 2005 à 2015, la croissance de la productivité des pays européens a baissé en moyenne de 1,68 point de pourcentage, soit du même montant que la croissance américaine entre la période allant de 1950 à 1972 et la période allant de 1995 à 2005, puisque celle-ci a décliné de 1,67 points de pourcentage. De plus, il y a une très forte corrélation dans la magnitude du ralentissement de la croissance des deux côtés de l’Atlantique. Autrement dit, le ralentissement de la croissance de la productivité serait une « pathologie transatlantique ». Cela amène Gordon et Sayed à penser que le ralentissement de la croissance de la productivité observé de l’immédiat après-guerre à la dernière décennie s’explique par un retard dans le changement technologique qui affecta les mêmes secteurs dans les mêmes proportions des deux côtés de l’Atlantique.

 

Références

ARK, Bart Van, Mary O'MAHONY & Marcel. P. TIMMER (2008), « The productivity gap between Europe and the United States: trends and causes », in Journal of Economic Perspectives, vol. 22, n° 1.

GORDON, Robert J., & Hassan SAYED (2019), « The industry anatomy of the transatlantic productivity growth slowdown », NBER, working paper, n° 25703.

Partager cet article

Repost0
19 mai 2019 7 19 /05 /mai /2019 14:12
Pourquoi les gouvernements empruntent-ils ?

Il y a une décennie, plusieurs gouvernements ont répondu à la crise financière mondiale en laissant augmenter leur dette publique, d’une part, pour renflouer le secteur financier et, d’autre part, pour stimuler l’activité économique, notamment via des plans de relance. Mais, avant que la crise éclate, le niveau de la dette publique était déjà relativement élevé dans les pays développés. En conséquence, dans ces derniers, le ratio dette publique sur PIB moyen est passé d’environ 60 % en 2007 à plus de 90 % en 2016 (cf. graphique 1). Le déficit public peut clairement être utilisé comme un instrument de politique économique, mais un niveau élevé de dette publique n'est pas sans susciter des craintes, aussi bien parce qu'il pourrait remettre en cause la soutenabilité de celle-ci que parce qu'il pourrait priver à l'avenir le gouvernement du recours d'un tel instrument.

GRAPHIQUE 1  Dette publique des pays développés (en % du PIB)

Pourquoi les gouvernements empruntent-ils ?

source : Fatás et alii (2019)

Antonio Fatás, Atish Ghosh, Ugo Panizza et Andrea Presbitero (2019) ont cherché à expliquer pourquoi les gouvernements empruntent en distinguant les bonnes des mauvaises raisons. Il n’est en effet pas toujours optimal pour un gouvernement d’équilibrer son budget. Le déficit budgétaire lui permet de déconnecter ses dépenses de ses recettes pendant une certaine période. La première bonne raison de recourir au déficit est qu’il permet aux gouvernements de procéder à un « lissage des impôts » (tax-smoothing) : durant les périodes de dépenses publiques exceptionnellement élevées, le gouvernement creuse son déficit pour financer ces dépenses avec les impôts futurs. Ces dépenses exceptionnelles peuvent aussi bien résulter de chocs (conflits, désastres naturels, crises, etc.) qu’être le choix du gouvernement s’il juge qu’elles se traduiront par des gains pour l’ensemble de la collectivité.

En l’occurrence, l’activité est influencée par la politique budgétaire, si bien que cette dernière peut être utilisée comme outil de stabilisation de l’activité. Lorsque la demande globale est insuffisante, l’économie est susceptible de connaître une récession et du chômage ; et si une telle situation se prolonge, le potentiel de croissance de l’économie à long terme peut s’en trouver affecté via les « effets d’hystérèse ». Il est alors justifié que l’Etat accroisse temporairement ses dépenses et baisse ses impôts pour stimuler la demande globale, au prix d’un creusement de son déficit. Inversement, lorsque l’économie est en surchauffe, par exemple lorsque l’inflation s’accélère en raison d’une demande excessive, le gouvernement peut contenir cette dernière en réduisant ses dépenses et en augmentant ses impôts. Ainsi, la politique budgétaire ne peut bien jouer son rôle que si elle est utilisée de façon contracyclique : le gouvernement doit opter pour la relance lors des récessions, l’austérité lors des surchauffes. Si la politique budgétaire est effectivement contracyclique, le ratio d’endettement public devrait être relativement stable à long terme : à court terme, il augmente lors des récessions, mais diminue lors des expansions.

En tant qu’outil de stabilisation de l’activité, la politique monétaire est souvent préférée à la politique budgétaire, au motif qu’elle agirait plus rapidement que les décisions budgétaires discrétionnaires, mais un tel raisonnement néglige le fait que le Budget varie de façon endogène via les « stabilisateurs automatiques » : lorsque l’activité ralentit, les dépenses publiques tendent mécaniquement à augmenter et les recettes fiscales à diminuer, ce qui contribue à freiner naturellement le ralentissement de l’activité ; lorsque l’activité repart, les dépenses publiques tendent mécaniquement à diminuer et les recettes fiscales à augmenter, ce qui contribue naturellement à contenir toute surchauffe et à améliorer les finances publiques [Fatás et Mihov, 2012]. D’autre part, la politique monétaire n’est pas toute-puissante : la borne inférieure zéro (zero lower bound) limite l’ampleur à laquelle la banque centrale peut réduire ses taux d’intérêt, si bien que l’assouplissement monétaire doit alors être nécessairement soutenu par une relance budgétaire [Eggertsson et Woodford, 2009]. 

Malheureusement, en pratique, la politique budgétaire n’est pas toujours contracyclique : d’un côté, les gouvernements pourraient avoir une attitude asymétrique, acceptant davantage de recourir à la relance lors des récessions que d’embrasser l’austérité lors des expansions ; d’un autre côté, les anticipations de production potentielle pourraient être excessivement procycliques, les gouvernements ayant par exemple tendance à être excessivement pessimistes quant au niveau de la production potentielle lors des récessions, donc à sous-estimer alors la nécessité d’une relance budgétaire. Or, une politique budgétaire procyclique tend à accentuer les fluctuations de l’activité et, par là, à augmenter à long terme le ratio d’endettement public. Ainsi, parce que les multiplicateurs budgétaires sont élevés lors des récessions, l’adoption d’un plan d’austérité lors d’une récession risque d’être contre-productive et particulièrement nuisible : non seulement elle ne conduit pas forcément à une réduction du ratio d’endettement public en raison de ses effets pervers sur l’activité à court terme, mais elle tend en outre à dégrader la croissance à long terme via les effets d’hystérèse [Fatás et Summers, 2016 ; Fatás, 2018].

Il est particulièrement justifié de financer des dépenses publiques par voie de dette lorsqu’il s’agit d’investissement public, par exemple avec la construction d’infrastructures : à la différence de la consommation publique, celui-ci ne stimule pas seulement directement l’activité à court terme ; il favorise la croissance à long terme en renforçant le potentiel de l’économie [Abiad et alii, 2014]. Il y a d’autres cas où le gouvernement acquiert des actifs et émet de la dette pour financer ses achats. Par exemple, il peut renflouer les banques lors des crises financières, ne serait-ce pour réduire l’impact de ces dernières sur l’activité économique. Lors des crises bancaires systémiques qui ont éclaté entre 1970 et 2011, le renflouement du secteur bancaire a représenté un coût médian de 7 % du PIB [FMI, 2015]. Il y a un dernier argument où le déficit apparaît justifié, sans que le gouvernement n’acquière d’actif, en l’occurrence le soutien aux réformes structurelles. Dans la mesure où les réformes structurelles sont censées stimuler la croissance à long terme, mais nuisent à court terme à l’activité, leur adoption doit s’accompagner d’une relance budgétaire : cette dernière atténuera les effets négatifs des réformes à court terme, tandis que les gains en termes de croissance à long terme engendrés par les réformes faciliteront en retour le désendettement public [Banerji et alii, 2017].

Il faut aussi prendre en compte le fait qu’en s’endettant l’Etat émet un actif sûr. D’une part, l’émission de titres publics a historiquement joué un rôle important dans la constitution des marchés financiers. D’autre part, le rôle d’actif sûr joué par la dette publique offre une nouvelle justification au creusement du déficit public lors des récessions. En effet, lors de tels épisodes, la propension à épargner augmente, tandis que l’offre d’actifs sûrs décline. En conséquence, la hausse de la dette publique contribue non seulement à soutenir la demande globale en finançant une relance ; elle offre aussi les actifs sûrs que désire le secteur privé pour placer son épargne.

Enfin, l’émission de dette publique est justifiée si l’économie est dynamiquement inefficiente et si le secteur privé ne peut fournir de façon optimale des véhicules pour transférer de la richesse d’une génération à l’autre : la dette publique offre un tel véhicule [Blanchard, 1985]. Le fait que le taux de croissance du PIB tende à être supérieur au taux d’intérêt suggère que l’économie est dynamiquement inefficiente et contribue à la soutenabilité de la dette publique [Blanchard, 2019].

GRAPHIQUE 2  Corrélation entre la variation de la dette publique et l’investissement public

Pourquoi les gouvernements empruntent-ils ?

source : Fatás et alii (2019)

Ces bonnes raisons n’expliquent toutefois qu’une partie des hausses de la dette publique, notamment suite aux grands conflits et aux crises financières. En observant les données empiriques, Fatás et ses coauteurs ne constatent qu’une faible corrélation entre l’investissement public et l’emprunt public (cf. graphique 2). Les gouvernements se comportent souvent différemment qu’ils ne l’auraient fait s’ils suivaient les bonnes motivations. Ce fut notamment le cas au début des années deux mille, lorsque la dette publique augmentait rapidement dans plusieurs pays développés, alors que l’économie mondiale était en pleine expansion et que la perspective du vieillissement démographique aurait dû se traduire par un surcroît d’épargne publique. Les gouvernements ont donc été motivés par des raisons autres que celles de la seule rationalité économique.

Fatás et ses coauteurs se penchent alors sur les mauvais motifs pour lesquels les gouvernements peuvent s'endetter. Ils identifient quatre grandes explications que la littérature a mises en avant pour éclairer pourquoi un gouvernement peut s’endetter davantage que ce qui est socialement optimal. La première est liée aux cycles politiques : les politiciens sont susceptibles de réduire les impôts et d’accroître les dépenses publiques pour accroître leurs chances d’être réélus, sans que la situation économique ne plaide forcément pour un tel assouplissement budgétaire. Cela pourrait notamment contribuer à expliquer pourquoi la politique budgétaire ne parvient pas à être contracyclique : les gouvernements sont peut-être plus enclins à faire de la relance lors des récessions que de l’austérité lors des expansions.

Les transferts intergénérationnels constituent une deuxième source potentielle de surendettement public : les individus peuvent chercher à utiliser la dette publique pour redistribuer des ressources des générations futures aux générations présentes. Matthew Jackson et Leeat Yariv (2015) ont montré que, si la population se répartissait en deux groupes et si l’un des groupes (en l'occurrence, les plus âgés) s’inquiétaiit moins de l’avenir que l’autre groupe (en l'occurrence, les plus jeunes), un gouvernement qui agrégerait les préférences des deux groupes présenterait un biais en faveur du présent. Pierre Yared (2019) montre que cette théorie est cohérente avec le fait qu’il y ait une corrélation entre le taux de croissance de la dette publique dans un pays et le vieillissement de sa population.

La manipulation stratégique constitue une troisième source potentielle de surendettement public : le gouvernement en place peut chercher à utiliser stratégiquement la dette publique pour influencer et contraindre l’action des gouvernements futurs [Alesina et Tabellini, 1990]. Par exemple, il apparaît que ce sont souvent les partis de centre-gauche qui génèrent les excédents primaires les plus amples et les plus durables [Eichengreen et Panizza, 2016]. Selon Thorsten Persson et Lars Svensson (1989), les partis de droite pourraient délibérément accroître la dette publique lorsqu'ils sont au pouvoir pour contenir les marges de manœuvre des partis de gauche lorsque ceux-ci reviendront au pouvoir.

Les problèmes de « réservoir commun » (common pool) constituent une quatrième source de surendettement public : en raison de la présence d’externalités, le bénéfice privé d’un accroissement des dépenses publiques diffère du coût marginal social de cet accroissement. Lorsqu’une politique publique bénéficie à un certain groupe et qu’elle est financée par un impôt payé par l’ensemble de la population, ce groupe est incité à faire pression en faveur de cette politique. Cela dit, ce problème se traduit avant tout par des dépenses excessives : le gouvernement peut toujours accroître les impôts pour contenir le déficit public. La rotation des partis au pouvoir amplifie ce problème, dans la mesure où ils n’ont pas les mêmes préférences en matière de biens publics : lorsqu’il accède au pouvoir, un parti est incité à dépenser un maximum dans son bien favori, surtout s’il n’est pas sûr d’être maintenu au pouvoir [Aguiar et Amador, 2011]. Effectivement, les déficits budgétaires semblent plus amples dans les pays présentant de forts clivages politiques et où les partis sont très fractionnés [Woo, 2003].

GRAPHIQUE 3  Dette publique et croissance subséquente du PIB dans les pays développés (entre 1960 et 2016)

Pourquoi les gouvernements empruntent-ils ?

source : Fatás et alii (2019)

Une dette publique élevée risque de suivre une trajectoire insoutenable, ou du moins d’être perçue comme insoutenable, et d’entraîner ainsi des crises. Mais même en l’absence de crises, l’endettement public peut être coûteux, s’il réduit la marge de manœuvre des relances budgétaires lors des récessions, si les relances génèrent des effets d’éviction sur l’investissement privé [Huang et alii, 2018], si les inquiétudes relatives à la soutenabilité de la dette publique s’avivent et se traduisent par une hausse des coûts de financement pour l’ensemble des résidents, etc. Une corrélation négative apparaît dans les données empiriques (cf. graphique 3). En observant les données relatives à 20 pays développés sur la période allant de 1946 à 2009, Carmen Reinhart et Kenneth Rogoff (2010) avaient affirmé que la croissance moyenne ou médiane était significativement plus faible lorsque le niveau de dette publique dépassait les 90 % du PIB. Au-delà de la corrélation moyenne entre dette et croissance, les analyses empiriques ont cherché à identifier de possibles non-linéarités ou effets de seuil. Par exemple, certaines analyses suggèrent que la trajectoire de la dette publique peut être plus importante pour la croissance économique que le niveau même du ratio dette publique sur PIB [Pescatori et alii, 2014]. En outre, même s’il y a un seuil à partir duquel l’endettement public s’accompagne d’un ralentissement de la croissance, il est probable que ce seuil n’est pas le même d’un pays à l’autre [Eberhardt et Presbitero, 2015]. Les seuils sont spécifiques aux pays, parce que ces derniers n’accumulent pas de la dette publique pour les mêmes motifs ; et le seuil d’un pays dépend aussi bien des caractéristiques de ce pays que de la dette elle-même. Par exemple, une dette publique est certainement moins nocive si les résidents en possèdent une grande partie ou si ses échéances sont allongées dans le temps.

Ce qui reste à trancher, c’est la question de savoir si cette corrélation négative observée empiriquement est causale, en l’occurrence si des niveaux élevés de dette publique freinent la croissance économique. Et s’il y a effectivement causalité, celle-ci peut aussi aller dans le sens inverse : la faiblesse de la croissance économique tend à accroître l’endettement public, ne serait-ce parce qu’elle déprime les recettes fiscales. Il est même possible que la croissance tende à être plus faible pour des niveaux élevés de dette publique, précisément parce que ces derniers incitent les gouvernements à adopter l’austérité budgétaire pour se désendetter.

Enfin, même si la dette publique se révélait effectivement nocive à la croissance, cela n’implique pas nécessairement que les gouvernements doivent chercher à réduire la dette existante : il peut être plus coûteux de chercher à la réduire que de vivre avec [Ostry et alii, 2015].

 

Références

ABIAD, Abdul, Aseel ALMANSOUR, Davide FURCERI, Carlos MULAS GRANADOS & Petia TOPALOVA (2014), « Is it time for an infrastructure push? The macroeconomic effects of public investment », in FMI, World Economic Outlook, octobre 2014.

AGUIAR, Mark, & Manuel AMADOR (2011), « Growth in the shadow of expropriation », in Quarterly Journal of Economics, vol. 126.

ALESINA, Alberto, & Guido TABELLINI (1990), « A positive theory of fiscal deficits and government debt », in Review of Economic Studies, vol. 57, n° 3.

BANERJI, Angana, Valerio CRISPOLTI, Era DABLA-NORRIS, Christian H. EBEKE, Davide FURCERI, Takuji KOMATSUZAKI & Tigran POGHOSYAN (2017), « Labor and product market reforms in advanced economies: Fiscal costs, gains, and support », FMI, staff discussion note.

BLANCHARD, Olivier J. (1965), « Debt, deficits, and finite horizons », in The Journal of Political Economy, vol. 93, n° 2.

BLANCHARD, Olivier J. (2019), « Public debt and low interest rates », PIIE, working paper, n° 19-4.

DELONG, J. Bradford, & Lawrence H. SUMMERS (2012), « Fiscal policy in a depressed economy », in Brookings Papers on Economic Activity, vol. 44.

EBERHARDT, Markus, & Andrea F. PRESBITERO (2015), « Public debt and growth: Heterogeneity and non-linearity », in Journal of International Economics, vol. 97, n° 1.

EGGERTSSON, Gauti B., & Michael WOODFORD (2009), « Optimal monetary and fiscal policy in a liquidity trap », in Richard H. Clarida, Jeffrey Frankel, Francesco Giavazzi et Kenneth D. West (dir.), NBER International Seminar on Macroeconomics 2004, The MIT Press.

EICHENGREEN, Barry, & Ugo PANIZZA (2016), « A surplus of ambition: can Europe rely on large primary surpluses to solve its debt problem? », in Economic Policy, vol. 31, n° 85.

FATÁS, Antonio (2018), « Fiscal policy, potential output and the shifting goalposts », CEPR, discussion paper, n° 13149.

FATÁS, Antonio, Atish R. GHOSH, Ugo PANIZZA & Andrea F. PRESBITERO (2019), « The motives to borrow », FMI, working paper, n° 19/101.

FATÁS, Antonio, & Ilian MIHOV (2012), « Fiscal policy as a stabilization tool », CEPR.

FATÁS, Antonio, & Lawrence H. SUMMERS (2016), « The permanent effects of fiscal consolidations », NBER, working paper, n° 22374.

FMI (2015), « From banking to sovereign stress: Implications for public debt », policy paper.

HUANG, Yi, Ugo PANIZZA & Richard VARGHESE (2018), « Does public debt crowd out corporate investment? International evidence », CEPR, discussion paper, n° 12931.

JACKSON, Matthew, & Leeat YARIV (2015), « Collective dynamic choice: The necessity of time inconsistency », in American Economic Journal: Microeconomics, vol. 7.

MAURO, Paolo, Rafael ROMEU, Ariel BINDER & Asad ZAMAN (2015), « A modern history of fiscal prudence and profligacy », in Journal of Monetary Economics, vol. 76.

OSTRY, Jonathan D., Atish R. GHOSH & Raphael ESPINOZA (2015), « When should public debt be reduced? », FMI, staff discussion note, n° 15/10.

PERSSON, Torsten, & Lars SVENSSON (1989), « Why a stubborn conservative would run a deficit: Policy with time-inconsistent preferences », in The Quarterly Journal of Economics, vol. 104.

PESCATORI, Andrea, Damiano SANDRI & John SIMON (2014), « Debt and growth: Is there a magic threshold? », FMI, working paper, n° 14/34, février.

REINHART, Carmen M., & Kenneth S. ROGOFF (2010), « Growth in a time of debt », in American Economic Review: Papers & Proceedings, vol. 100, n° 2.

WOO, Jaejoon (2003), « Economic, political, and institutional determinants of public deficits », in Journal of Public Economics, vol. 87, n° 3-4.

YARED, Pierre (2019), « Rising government debt: Causes and solutions for a decade-old trend », in Journal of Economic Perspective, vol. 33, n° 2.

Partager cet article

Repost0
17 mai 2019 5 17 /05 /mai /2019 15:11
Blocs commerciaux et guerres commerciales durant l’entre-deux-guerres

Il y a encore quelques années, les guerres commerciales semblaient n’être qu’une relique du passé. Suspectées d’avoir amplifié les effets de la Grande Dépression des années trente et d’avoir ainsi tracé la voie à certains régimes totalitaires et à la Seconde Guerre mondiale, les gouvernements n’y avaient plus recouru. Au contraire, depuis le conflit, ils ont cherché à réduire les barrières commerciales pour favoriser les échanges, en y voyant une condition tant de la prospérité que de la paix. Beaucoup craignaient que la Grande Récession et la faible reprise qui s’ensuivit incitent les gouvernements à renforcer leurs barrières commerciales pour stimuler l'activité domestique, mais les tensions commerciales sont restées contenues. Du moins, jusqu’à ces toutes dernières années : aux Etats-Unis, l’administration Trump a relevé plusieurs droits de douane, notamment en ciblant la Chine, et ainsi lancé ce qui s’apparente de plus en plus nettement comme une véritable guerre commerciale.

Beaucoup ont naturellement cherché à dresser des parallèles entre la situation actuelle et la période de l’entre-deux-guerres. David Jacks et Dennis Novy (2019) viennent à leur tour de se pencher sur les causes et conséquences des guerres commerciales dans les années trente. Mais ils nuancent l’importance de celles-ci dans la reconfiguration du commerce mondial à la veille de la Seconde Guerre mondiale. Celle-ci pourrait résulter avant tout de forces plus profondes, qui étaient déjà à l’œuvre avant la Grande Dépression et dont les guerres commerciales n’ont fait que renforcer les effets.

Jacks et Novy ont tout d’abord rappelé les grandes évolutions du commerce mondial au cours de l’entre-deux-guerres. Entre 2015 et 1913, le volume des exportations mondiales a été multiplié par 50, tandis que le ratio exportations mondiales sur PIB est passé d’environ 1 % à 11,1 %. Les perturbations occasionnées par la Première Guerre mondiale constituent le premier grand effondrement du commerce international : alors que les exportations avaient augmenté en moyenne de 4,2 % par an entre 1901 et 1913, elles déclinèrent de 24,6 % lors du conflit (cf. graphique 1). Après ce dernier, les échanges connurent un rebond, initialement très fort, puis ensuite plus lent, mais régulier : en 1920, ils retrouvèrent leur niveau de 1906. Les exportations mondiales augmentèrent de 82,5 % entre 1921 et 1929, si bien qu’elles attinrent au cours de cette année un volume qui n’avait jamais été atteint jusqu’alors. A la fin des années vingt, l’idée d’une forte intégration commerciale faisait l’objet d’un assez large consensus.

GRAPHIQUE 1  Volume des exportations mondiales entre 1901 et 1920 (en milliards de dollars 1990)

Blocs commerciaux et guerres commerciales durant l’entre-deux-guerres

Malheureusement, le début des années trente a été marqué par un deuxième grand effondrement du commerce. D’un côté, l’activité économique mondiale s’écroula : le PIB mondial déclina de 10,1 % entre 1929 et 1932. De l’autre, les barrières commerciales se sont multipliées. La rédaction de la loi Smoot-Hawley aux Etats-Unis durant l’été 1929 constitua la première grande remise en cause du libre-échange. L’abandon de l’étalon-or et du libre-échange par la Grande-Bretagne en 1931 constitua également un événement important, révélant que les Britanniques étaient prêts à sacrifier le retour du multilatéralisme à la constitution d’un bloc commercial autour du Commonwealth. En conséquence de la Grande Dépression et de l’érection de barrières commerciales, les exportations réelles chutèrent de 49,1 % entre 1929 et 1932, soit cinq fois plus amplement que l’activité (cf. graphique 2). Jacks et Novy notent toutefois que les guerres commerciales du début des années trente ont avant tout été lancées contre l’ensemble des partenaires commerciaux et d’une façon non coordonnée. En fait, relativement rares ont été les mesures protectionnistes qui ont été adoptées dans une logique de représailles [Irwin, 2011]. Les barrières tarifaires et non tarifaires ont été utilisées comme moyens de défense contre les forces déflationnistes qui se déchaînaient à l’époque, en particulier par les pays qui étaient restés dans l’étalon-or et qui ne pouvaient ainsi recourir à une dévaluation externe [Eichengreen et Irwin, 2010].

GRAPHIQUE 2  Volume des exportations mondiales entre 1920 et 1939 (en milliards de dollars 1990)

Blocs commerciaux et guerres commerciales durant l’entre-deux-guerres

Jacks et Novy ont ensuite réalisé une analyse quantitative des flux commerciaux bilatéraux au cours de l’entre-deux-guerres. S’inspirant de Barry Eichengreen et Douglas Irwin (1995), ils analysent la performance de deux blocs commerciaux, en l’occurrence le Commonwealth et le bloc Reichsmark, et de deux blocs monétaires, en l’occurrence le bloc-or et la zone sterling. Ils ont distingué entre, d’une part, les tendances de long terme sur la période allant de 1920 à 1939 liées à la formation de blocs commerciaux et en particulier du Commonwealth britannique, et, d’autre part, les perturbations de court terme associées aux guerres commerciales.

Leur analyse suggère que le commerce entre les pays-membres du Commonwealth a commencé à s’intensifier brièvement avant qu’éclate la Première Guerre mondiale et que cette tendance s’est poursuivie jusqu’en 1939. Cette dynamique s’est opérée au détriment du commerce avec les autres pays-membres de la zone sterling. Jacks et Novy interprètent cette tendance comme dénotant une réorientation du commerce du Commonwealth autour d’une visée davantage géopolitique, notamment une sécurisation de l’accès aux ressources essentielles et au matériel de guerre. La distance moyenne des flux commerciaux bilatéraux a augmenté, ce qui reflète le fait que les principales relations bilatérales dans le Commonwealth avaient principalement la Grande-Bretagne comme centre et s’étendirent ainsi à travers tout le globe. En conséquence, la distance importa de moins en moins au cours du temps comme déterminant des flux commerciaux bilatéraux au sein du Commonwealth. Cette tendance ne s’est vraiment manifestée qu’au sein de ce dernier, non dans les autres blocs commerciaux.

Enfin, Jacks et Novy ont cherché à tirer des parallèles historiques avec l’épisode des années trente pour éclairer les guerres commerciales aujourd’hui. Il y a des aspects communs que l’on retrouve dans les deux périodes : par exemple, on peut craindre que système commerce multilatéral qui dominait jusqu’alors soit remplacé par un ensemble de traités bilatéraux. Mais pour l’heure, le système commercial actuel ne s’est pas effondré. C’est en particulier parce que les responsables politiques semblent avoir tiré des leçons de l’histoire de l’entre-deux-guerres et ne se sont ainsi pas tournés de façon unilatérale vers le protectionnisme. Cela amène Jacks et Novy à penser que les guerres commerciales qui sont aujourd’hui amorcées ont le même objectif que celles des années trente, c’est-à-dire renforcer les blocs commerciaux existants, en l’occurrence, pour la période actuelle, réorienter le commerce mondial autour de deux grands blocs commerciaux centrés respectivement sur la Chine et les Etats-Unis. Le contenu du commerce international n’est toutefois plus le même que lors des années trente : les biens manufacturés constituent la majorité des échanges et leur production s’est fortement fragmentée. Or l’existence de chaines de valeur mondiales limite l’ampleur d’une polarisation en blocs commerciaux. 

 

Références

EICHENGREEN, Barry, & Douglas A. IRWIN (1995), « Trade blocs, currency blocs and the reorientation of world trade in the 1930s », in Journal of International Economics, vol. 38, n° 1.

EICHENGREEN, Barry, & Douglas A. IRWIN (2010), « The slide to protectionism in the Great Depression: Who succumbed and why? », in Journal of Economic History, vol. 70, n° 4.

IRWIN, Douglas A. (2011), Peddling Protectionism: Smoot–Hawley and the Great Depression, Princeton University Press.

JACKS, David S., & Dennis NOVY (2019), « Trade blocs and trade wars during the interwar period », CEP, discussion paper, n° 1620.

Partager cet article

Repost0

Présentation

  • : D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher