Overblog
Suivre ce blog Administration + Créer mon blog
16 novembre 2018 5 16 /11 /novembre /2018 19:05
Petite macroéconomie des droits de douane

La Grande Récession et la faible reprise qui suivit ont alimenté les craintes que les gouvernements adoptent des mesures protectionnistes ; certains ont d’ailleurs soupçonné que la faiblesse du commerce international dans le sillage de la crise s'explique en partie par l’adoption de telles mesures. Mais malgré la violence de la crise financière, l’économie mondiale a été épargnée par une guerre commerciale. Du moins jusqu’à l’année dernière. Ces derniers mois, l’administration Trump a relevé les droits de douane sur plusieurs produits, notamment en provenance d’Europe et de Chine, ce qui a amené les pays visés à répliquer en retour, au risque de conduire à une guerre commerciale généralisée ; il faut dire qu'aux yeux de Trump, « les guerres commerciales sont bonnes et se gagnent facilement ».

En renchérissant le prix des biens importés, l’instauration de droits de douane vise à inciter les résidents à se détourner des biens importés pour acheter davantage de biens domestiques, ce qui permet aux entreprises domestiques de vendre plus, donc les incite à produire davantage et à embaucher. Au niveau agrégé, l’objectif est d’accroître la production nationale, de réduire le chômage et d'améliorer le solde commercial. Les pays qui connaissent un déficit commercial et une faible croissance économique sont donc particulièrement tentés d’adopter des mesures protectionnistes. La faiblesse de la reprise et surtout la persistance d’un important déficit commercial aux Etats-Unis, dans un contexte de désindustrialisation chronique, ont ainsi particulièrement exposé ce pays à la tentation protectionniste.

Ces mesures risquent toutefois de se révéler contre-productives [Krugman, 2018a ; 2018b]. Tout d’abord, une hausse des droits de douane est susceptible d’alimenter l’inflation. En effet, les résidents ont accès à des biens plus chers. D’un côté, les ménages voient ainsi directement leur pouvoir d’achat diminuer. De l’autre, comme le prix de leurs intrants augmente, les entreprises voient leurs coûts de production augmenter. Celles-ci risquent alors de relever leurs prix de vente pour tenter de préserver leurs marges, ce qui contribue à alimenter en retour l’inflation. En outre, comme les entreprises domestiques risquent de moins utiliser les technologies les plus efficaces, cela ralentit la diffusion du progrès technique. Dans tous les cas, les biens domestiques vont peu à peu perdre en compétitivité vis-à-vis des produits étrangers, non seulement sur le marché domestiques, mais également sur les marchés internationaux, ce qui pèse sur leurs ventes. Et comme les biens intermédiaires se renchérissent, augmentant les coûts de leur assemblage et donc de la production de biens finaux dans l’économie domestique, certaines entreprises vont réagir en délocalisant leur production à l’étranger, ce qui pénalise à nouveau l’emploi domestique.

Par exemple, les taxes supplémentaires adoptées par l’administration Trump sur l’acier et l’aluminium vont peut-être bénéficier au secteur de la métallurgie et y créer des emplois, mais cela alourdit les coûts dans les nombreux secteurs utilisant en aval l’acier et l’aluminium comme intrants et ainsi y détruire des emplois. Les premiers secteurs y tireront certes un gain, mais au détriment des autres secteurs, en particulier des secteurs exportateurs, mais aussi des travailleurs et des consommateurs américains. Au final, les taxes supplémentaires sur les importations auront les mêmes effets qu’une hausse de la fiscalité sur les résidents [DeLong, 2018].

Ces effets seront aggravés par la réaction du taux de change : les droits de douane vont entraîner une appréciation de la monnaie, ce qui ampute les gains de compétitivité que les producteurs domestiques pouvaient en tirer. L’appréciation est d’autant plus probable que la banque centrale (soucieuse de la stabilité des prix) risque de réagir aux pressions inflationnistes en resserrant sa politique monétaire, ce qui alimente les entrées de capitaux.

Enfin, les partenaires à l’échange sont susceptibles de réagir en adoptant également des droits de douane en représailles ; c'est tout particulièrement le cas ces derniers de la Chine vis-à-vis des Etats-Unis. Les économistes ne sont pas forcément d’accord quant à savoir si les guerres commerciales ont été à l’origine de la Grande Dépression dans les années trente ; par contre celles-ci ont bien contribué à aggraver la contraction de l’activité mondiale.

Au final, l’économie va certes moins importer, mais elle risque également de moins exporter, si bien que le solde commercial a peu de chances de s’améliorer. En fait, le solde extérieur dépend étroitement du rapport entre l’investissement et l’épargne : un déficit extérieur s’explique par une épargne domestique insuffisante. Autrement dit, si un pays importe plus qu’il exporte, c’est avant tout parce qu’il n’épargne pas assez ou dépense de trop. La politique commerciale influence certes le volume des importations et celui des exportations, mais pas la différence entre ces deux valeurs. Ainsi, si l’administration Trump désire améliorer le solde extérieur de l’économie américaine, elle devrait chercher à accroître le taux d’épargne. Tant que ce dernier reste faible, le déficit extérieur persistera. A cet égard, l’expansion budgétaire adoptée par l’administration Trump risque de se révéler contre-productive, dans la mesure où elle stimule la demande globale à un moment où l’économie américaine est relativement proche du plein emploi : les tensions inflationnistes peuvent fortement s’accentuer, la Réserve fédérale risque de resserrer sa politique monétaire plus rapidement que prévu, le dollar continuera de s’apprécier et le solde commercial va se dégrader.

Bien sûr, tout cela reste théorique et demande une vérification empirique. Or ces dernières décennies, les macroéconomistes se sont très peu penchés sur la question du protectionnisme ; le mouvement vers le libre-échange était considéré comme acquis. L’essentiel des études a en fait surtout cherché à évaluer les gains et coûts des accords commerciaux.

A l’occasion d’une conférence organisée par le FMI, Davide Furceri, Swarnali Hannan, Jonathan Ostry et Andrew Rose (2018) ont présenté une étude cherchant à identifier les répercussions macroéconomiques des droits de douane. Pour cela, ils ont étudié un échantillon de données relatives à 151 pays, en l’occurrence 34 pays développés et 117 pays en développement, au cours de la période allant de 1963 à 2014. Ils constatent que les relèvements des droits de douane se traduisent à moyen terme par des baisses significatives de la production et de la productivité domestiques. Ces mesures se traduisent aussi par une hausse du chômage, un creusement des inégalités de revenu et une appréciation du taux de change. Par contre, ils n’ont que de faibles effets sur le solde commercial, notamment en conséquence de l’appréciation du taux de change qui renchérit les prix des biens exportés.

Les répercussions exactes dépendent toutefois étroitement de la position de l'économie dans le cycle d'affaires et de son niveau de développement. En effet, Furceri et ses coauteurs notent que les effets sur la production et la productivité tendent à être amplifiés lorsque les droits de douane augmentent durant les récessions. De plus, les répercussions des hausses de droits de douane sont plus nocives pour les pays développés que pour les pays pauvres. Enfin, il apparaît que le protectionnisme et la libéralisation commerciale ont des effets asymétriques : les répercussions sur la production à moyen terme suite à une hausse des droits de douane ne sont pas symétriques à ceux observés suite à une baisse des droits de douane.

 

Références

DELONG, Bradford (2018), « Trump’s Tax on America », in Project Syndicate, 6 mars. Traduction française, « Les taxes de Trump sur l'Amérique ».

FURCERI, Davide, Swarnali A. HANNAN, Jonathan D. OSTRY & Andrew K. ROSE (2018), « Macroeconomic consequences of tariffs », document de travail présenté à la dix-neuvième conférence Jacques Polak.

KRUGMAN, Paul (2018a), « The macroeconomics of trade war », 3 mars 2018. Traduction française, « La macroéconomie de la guerre commerciale ».

KRUGMAN, Paul (2018b), « Trump’s negative protection racket », 10 mars. Traduction française, « La surtaxe des importations américaines d’acier ? Un racket de protection peu efficace... ».

KRUGMAN, Paul (2018c), « Trade wars, stranded assets, and the stock market », 4 avril. Traduction française, « Les guerres commerciales, les actifs épaves et le marché boursier ».

Partager cet article

Repost0
4 octobre 2018 4 04 /10 /octobre /2018 11:20
Dix ans après la crise financière, où en est la reprise ?

Il y a dix ans, en 2008, l’économie mondiale basculait dans la récession. Si la reprise s’est amorcée assez rapidement, en l’occurrence dès l’année suivante, les répercussions de la crise ont été durables. Certains pays ont des taux de chômage toujours bien plus élevés qu’avant-crise ; dans les pays qui ont retrouvé un faible taux de chômage, ce dernier peut dissimuler un ample sous-emploi. Avec d’une part la faiblesse de l’activité, qui a pesé sur les rentrées fiscales, et d’autre part l’adoption de plans de relance au début de la crise, l’endettement des gouvernements a fortement augmenté : la dette publique médiane est passée de 36 % à 52 % du PIB. Le bilan des banques centrales représente aujourd’hui un multiple de leur niveau d’avant-crise, en particulier dans les pays développés. Le niveau élevé de la dette publique, l’ampleur des bilans des banques centrales et le maintien des taux directeurs à un niveau faible dans plusieurs économies développées amènent certains à craindre que les gouvernements et les banques centrales sont moins armées aujourd’hui pour affronter une récession qu’ils ne l’étaient il y a une décennie. Enfin, la crise a conduit à accélérer la reconfiguration de l’économie mondiale : la croissance étant restée plus faible dans les pays développés que dans les pays en développement, la convergence entre pays développés et pays en développement s’est poursuivie et ces derniers contribuent aujourd’hui à 60 % du PIB mondial, contre 44 % il y a une décennie.

Dans les nouvelles Perspectives de l’économie mondiale du FMI, Wenjie Chen, Mico Mrkaic et Malhar Nabar (2018) ont fait un bilan de la reprise mondiale une décennie après la crise financière de 2008. Ils ont étudié un échantillon de 180 pays, comportant de nombreux pays développés et en développement. Dans cet échantillon, 91 pays, représentant ensemble les deux tiers du PIB mondial, ont connu une chute de leur production en 2009. A titre de comparaison, pour montrer la violence de la récente crise financière, Chen et ses coauteurs notent que lors de la récession mondiale de 1982, ce ne sont que 48 pays, représentant 46 % du PIB mondial de l’époque, qui connurent une chute de leur production. De plus, parmi les 180 pays étudiés, 24 pays, notamment 18 pays développés, ont connu une crise bancaire en 2007-2008.

Chen et ses coauteurs ont cherché à mesurer l’écart entre la production et le niveau que cette dernière aurait atteint si elle avait continué à suivre sa trajectoire tendancielle d’avant-crise. Leur étude confirme les résultats obtenus par de précédentes études, notamment celles de Laurence Ball (2014) : les pertes en termes de production suite à la Grande Récession apparaissent durables. En effet, en 2015 et 2017, l’écart entre la production et sa tendance d’avant-crise est de même amplitude sur la période allant de 2015 à 2017 que sur la période allant de 2011 à 2013 (cf. graphique 1). Autrement dit, la production n’est en général pas revenue à sa trajectoire d’avant-crise, si bien que les populations semblent irrémédiablement plus pauvres qu’elles ne l’auraient été s’il n’y avait pas eu la crise financière. De plus, au sein de chaque pays, ces pertes sont loin d’avoir été partagées également entre les résidents : les pays qui ont connu les plus fortes chutes de production et les plus fortes hausses du chômage dans les premiers temps de la crise sont généralement les pays qui ont connu les plus fortes hausses des inégalités de revenu depuis lors. 

GRAPHIQUE 1  Ecart entre le PIB et sa trajectoire d’avant-crise (en %)

Les pertes en termes de production ont été durables aussi bien pour les pays qui ont subi une crise bancaire en 2007-2008 que pour ceux qui en ont été épargnés. En l’occurrence, parmi les 24 pays de l’échantillon qui ont connu une crise bancaire, 85 % d’entre eux ont un niveau de production toujours inférieur à sa trajectoire tendancielle d’avant-crise. Ce résultat ne devrait plus nous étonner : diverses études, comme celle du FMI (2009), ont déjà noté que les économies qui connaissent une crise bancaire tendent à ne pas effacer les pertes de production occasionnées par celle-ci. Les explications sont simples : d’une part, le secteur bancaire est moins capable et moins enclin à financer de nouveaux projets d’investissement ; d’autre part, l’assèchement du crédit oblige les agents les plus endettés (aussi bien les ménages que les entreprises) à restreindre leurs dépenses pour rembourser leurs prêts. Mais il apparaît aussi que parmi les pays de l’échantillon étudié qui n’ont pas connu de crise bancaire en 2007-2008, 60 % d’entre eux n’ont pas réussi à revenir à leur trajectoire d’avant-crise : en 2008, si dans un pays l’activité n’a pas été affectée par une crise bancaire domestique, elle a certainement été affectée par une baisse des exportations à destination des pays qui en ont connu une. Finalement, comme le notaient notamment Valerie Cerra et Sweta Saxena (2008, 2017) et Olivier Blanchard et alii (2015), une économie est susceptible de ne pas parvenir à rejoindre sa trajectoire d’avant-crise, même lorsque la récession ne s’accompagne pas de crise financière.

Afin d’expliquer la persistance des dommages occasionnés par la crise mondiale, Chen et ses coauteurs recherchent les causes du côté de l’offre (1). Leur analyse suggère que la faiblesse de l’investissement a tout particulièrement contribué à ces pertes : dans l’échantillon étudié, l’investissement était en moyenne, en 2017, inférieur de 25 % par rapport à sa tendance d’avant-crise. La faiblesse de l’investissement peut notamment s’expliquer (du côté de l’offre) par des difficultés dans l’accès au crédit et (du côté de la demande) par le pessimisme des entreprises quant aux débouchés futurs. Cette faiblesse de l’investissement a contraint la reprise en déprimant le stock de capital et en ralentissant la diffusion du progrès technique. D’un côté, dans l’échantillon de pays qui ont subi une crise bancaire en 2007-2008, 80 % d’entre eux ont connu une chute de leur stock de capital par rapport à sa trajectoire d’avant-crise ; cette part s’élève à 65 % pour les pays de l’échantillon qui n’ont pas connu de crise bancaire. De l’autre, les données suggèrent en effet que les dépenses en recherche-développement et l’adoption de nouvelles technologies (notamment celle des robots industriels) ont ralenti dans les pays qui ont connu les plus amples pertes en production : si les entreprises investissent moins, elles risquent de moins renouveler leurs équipements obsolètes.

Pour expliquer pourquoi les économies n’ont pas forcément connu la même trajectoire après la crise, Chen et ses coauteurs se penchent sur les politiques économiques, aussi bien celles adoptées avant la crise que celles adoptées après. Leur analyse suggère que les pays qui avaient les réglementations bancaires les plus strictes ont moins eu de chances de connaître une crise bancaire. De plus, les pays qui ont le plus cherché à contenir les dérapages de leur endettement public à la veille de la crise ont subi moins de pertes de production par la suite : en l’occurrence, les pays qui ont connu les plus faibles hausses de la dette publique entre 2005 et 2008 sont ceux dont la production s’est le moins écarté de sa tendance lors de la crise de 2008. Ce résultat ne signifie pas que le niveau de l’endettement public ait en soi pesé sur la reprise. Par contre, les gouvernements qui cherchaient à contenir leur endettement à la veille de la crise ont certainement eu davantage de manœuvre pour adopter des plans de relance lors de celle-ci et ils ont sûrement été moins incités à adopter des plans d’austérité lors de la reprise. Enfin, l’analyse de Chen et alii suggère que les pays qui avaient un taux de change flexible ont connu les plus faibles pertes en termes de production : une dépréciation de la devise a pu contribuer à compenser l’insuffisance de la demande domestique en stimulant les exportations.

GRAPHIQUE 2  Ecart médian entre le PIB et sa tendance d’avant-crise (en %)

Ce dernier résultat contribue certainement à expliquer la piètre performance de la zone euro : comme chacun de ses membres a perdu l’usage du taux de change comme variable d’ajustement, l’ajustement face à la récession est davantage passé par la production et les prix. En effet, entre 2011 et 2013, la perte de production médiane était plus ample dans les pays de la zone euro que dans les autres pays développés ; entre 2015 et 2017, elle s’est accrue pour les autres pays développés, mais elle s’est encore davantage accrue pour les pays de la zone euro, si bien que l’écart s’est creusé (cf. graphique 2). Le décrochage de la zone euro par rapport aux autres pays développés s’explique certainement aussi par des (mauvaises) décisions en matière de politique économique. En se concentrant sur la demande, Chen et ses coauteurs n’ont par exemple pas cherché à évaluer les répercussions des plans d’austérité. Or, plusieurs études suggèrent que ces répercussions ont durables [Fatás et Summers, 2018], en particulier dans la zone euro [Fatás, 2018].

 

(1) Ce choix est discutable. Il repose sur l’hypothèse qu’un changement de tendance à long terme s’explique forcément du côté de l’offre. Or, il est également possible qu’une insuffisance durable de la demande globale puisse se répercuter sur le potentiel de croissance à long terme, via ce que la littérature a qualifié d’« effets d’hystérèse ». D’ailleurs, plusieurs études, comme celle de Laurence Ball (2014) et celle d’Olivier Blanchard et alii (2015), confortent cette dernière hypothèse.

 

Références

BALL, Laurence M. (2014), « Long-term damage from the Great Recession in OECD countries », NBER, working paper, n° 20185, mai.

BLANCHARD, Olivier, Eugenio CERUTTI & Lawrence SUMMERS (2015), « Inflation and activity – Two explorations and their monetary policy implications », FMI, working paper, novembre.

CERRA, Valerie, & Sweta C. SAXENA (2008), « Growth dynamics: The myth of economic recovery », in American Economic Review, vol. 98, n° 1.

CERRA, Valerie, & Sweta C. SAXENA (2017), « Booms, crises, and recoveries: A new paradigm of the business cycle and its policy implications », FMI, working paper, n° 17/250.

CHEN, Wenjie, Mico MRKAIC & Malhar NABAR (2018), « The global recovery 10 years after the 2008 financial meltdown », In FMI, World Economic Outlook, octobre.

FATÁS, Antonio (2018), « Fiscal policy, potential output and the shifting goalposts », CEPR, discussion paper, n° 13149.

FATÁS, Antonio, & Lawrence H. SUMMERS (2018), « The permanent effects of fiscal consolidations », in Journal of International Economics, vol. 112.

FMI (2009), « What’s the damage? Medium-term output dynamics after financial crises », World Economic Outlook: Sustaining the Recovery, chapitre 4.

Partager cet article

Repost0
16 août 2018 4 16 /08 /août /2018 18:03
Vieillissement démographique, robotisation et stagnation séculaire

Keynésiens et néoclassiques tendent à s’accorder à l’idée que le vieillissement démographique devrait freiner la croissance, mais pas pour les mêmes raisons. Pour les analyses d’obédience néoclassique, le vieillissement devrait freiner la croissance en réduisant l’épargne, dans la mesure où les personnes âgées risquent de consommer davantage qu’elles ne gagnent de revenu lors de leur retraite, mais aussi en réduisant le réservoir de main-d’œuvre disponible. Robert Gordon (2012) estime pour cette raison que le vieillissement est l’un des « vents contraires » susceptibles de mettre « fin » à la croissance économique.

Pour les analyses keynésiennes, le vieillissement démographique risque au contraire de freiner la croissance en déprimant la demande globale : les entreprises devraient moins investir, puisqu’il y a moins de main-d’œuvre à équiper, tandis que les ménages risquent de moins consommer, dans la mesure où l’anticipation de leur plus longue espérance de vie devrait les amener à épargner davantage lors de leur vie active. Ces dernières années, certains ont estimé que le vieillissement démographique que connaissent les pays développés est l’un des facteurs susceptibles de piéger ceux-ci dans une stagnation séculaire [Summers, 2015], renouant ainsi avec une thèse que développaient certains keynésiens au sortir de la Deuxième Guerre mondiale [Hansen, 1938].

Tous les économistes n’aboutissent pas à des conclusions aussi pessimistes. Par exemple, David Cutler, James Poterba, Louise Sheiner et Larry Summers (1990) reconnaissent que le vieillissement démographique peut réduire la part des travailleurs en emploi dans la population, ce qui tend à réduire la production par tête. Mais, d’un autre côté, il peut accroître l’intensité capitalistique, c’est-à-dire le volume d’équipement par travailleur, via l’approfondissement du capital. De plus, il peut stimuler le progrès technique dans la mesure où la pénurie de main-d’œuvre devrait inciter les entreprises à chercher à économiser en main-d’œuvre, donc à substituer des machines à celle-ci. C’est l’idée que développait déjà John Habakkuk (1962) il y a un demi-siècle : les incitations à innover sont plus forte lorsque la main-d’œuvre est rare relativement aux autres facteurs de production. Au final, l’impact net du vieillissement sur la croissance dépendra de l’équilibre entre, d’une part, le premier effet (négatif) et, d’autre part, les deux derniers (l’approfondissement du capital et la stimulation de l’innovation). 

Selon Daron Acemoglu et Pascual Restrepo (2017), les données ne révèlent d’ailleurs pas de relation négative entre vieillissement et croissance économique : en fait, il y a une corrélation positive entre la hausse du ratio de nombre de personnes âgées sur le nombre de jeunes et la croissance de la production par tête après 1990. En l’occurrence, les pays qui ont vu leur population vieillir rapidement sont ceux qui ont eu tendance à connaître la plus forte croissance ces dernières décennies.

Pour expliquer leur constat, Acemoglu et Restrepo mettent l’accent sur la troisième force mise en avant par Cutler et alli : une raréfaction de travailleurs d’âge intermédiaire est susceptible d’inciter les entreprises à automatiser les tâches assurées jusqu’à présent par ceux-ci. En utilisant les données américaines, Acemoglu et Restrepo (2018) constatent que la hausse du ratio rapportant le nombre de travailleurs âgés sur le nombre de travailleurs d’âge intermédiaire est associée à une plus grande adoption de robots. En étudiant les données internationales, ils observent que les technologies d’automatisation tendent à se déployer d’autant plus rapidement dans le secteur manufacturier d’un pays que ce dernier connaît un vieillissement rapide. Le vieillissement pourrait en l’occurrence expliquer 40 % des écarts en termes d’adoption de robots industriels que l’on peut constater d’un pays à l’autre.

GRAPHIQUE 1  Corrélation entre vieillissement démographique et croissance économique entre 1990 et 2008

source : Eggertsson et alii (2018)

Pour Acemoglu et Restrepo, leurs données amènent à rejeter la thèse de la stagnation séculaire. Ce n’est pas le cas selon Gauti Eggertsson, Manuel Lancastre et Larry Summers (2018). D’une part, la relation positive entre le vieillissement démographique et la croissance économique pourrait s’expliquer avant tout par le fait que le vieillissement est associé à un approfondissement du capital et à une baisse des taux d’intérêts réels ; effectivement, les taux d’intérêt ont eu tendance à baisser à travers le monde depuis 1990. D’autre part, il faut tenir compte du fait que les taux d’intérêt nominaux ne peuvent pas pleinement s’ajuster à la baisse : ils peuvent buter sur une borne inférieure. Tant que les taux d’intérêt peuvent s’ajuster, l’économie est dans un « régime néoclassique ». La thèse de la stagnation séculaire amène à prédire que, lorsqu’une crise éclate, les pays qui connaissaient le vieillissement le plus rapide et une faible inflation ont tendance à connaître les plus amples excès d’épargne et donc une forte récession lorsque les taux d’intérêt butent effectivement sur leur borne inférieure. Dans ce cas, les économies se retrouvent dans un « régime keynésien ».

GRAPHIQUE 2  Corrélation entre vieillissement démographique et croissance économique entre 2008 et 2015

 

source : Eggertsson et alii (2018)

Pour vérifier leur théorie, Eggertsson et ses coauteurs se sont alors tournés vers les données empiriques relatives à 168 pays. Ils font apparaître une corrélation positive entre vieillissement et croissance économique entre 1990 et 2008, ce qui suggère que les économies étaient alors dans un « régime néoclassique » (cf. graphique 1). Ce faisant, ils confirment les constats empiriques d’Acemoglu et Restrepo (2017). Par contre, après 2008, l’impact du vieillissement sur la croissance économique s’est révélé être négatif ; les économies où les taux d’intérêt ont été contraints par leur borne inférieure avaient ainsi basculé dans un « régime keynésien » (cf. graphique 2). Le lien entre croissance et vieillissement n’est donc pas systématiquement positif. Malheureusement, le vieillissement risque de nuire à la croissance une grande partie de ces prochaines décennies : selon Michael Kiley et John Roberts (2017), la borne inférieure pourrait désormais contraindre les taux d’intérêt de 30 % à 40 % du temps.

 

Références

ACEMOGLU, Daron, & Pascual RESTREPO (2017), « Secular stagnation? The effect of aging on economic growth in the age of automation », NBER, working paper, n° 23077.

ACEMOGLU, Daron, & Pascual RESTREPO (2018), « Demographics and Automation », NBER, working paper, n° 24421.

CUTLER, David M., James M. POTERBA, Louise SHEINER, & Lawrence H. SUMMERS (1990), « An aging society: Opportunity or challenge? », in Brookings Papers on Economic Activity, vol. 21, n° 1.

EGGERTSSON, Gauti B., Manuel LANCASTRE & Lawrence H. SUMMERS (2018), « Aging, output per capita and secular stagnation », NBER, working paper, n° 24902.

GORDON, Robert J. (2012), « Is U.S. economic growth over? Faltering innovation confronts the six headwinds », NBER, working paper, n ° 18315, août.

HABAKKUK, Hrothgar John (1962), American and British Technology in the Nineteenth Century, Cambridge University Press.

HANSEN, Alvin H. (1938), Full Recovery or Stagnation?

KILEY, Michael T., & John M. ROBERTS (2017), « Monetary policy in a low interest rate world », in Brookings Papers on Economic Activity, vol. 48, n° 1.

SUMMERS, Lawrence (2015), « Demand side secular stagnation », in American Economic Review: Papers & Proceedings, vol. 105, n° 5.

Partager cet article

Repost0
2 août 2018 4 02 /08 /août /2018 15:01
Aux sources du cycle d’affaires

Pour expliquer les cycles d’affaires, les économistes ont très souvent favorisé des récits ou des modèles où les fluctuations sont générées par une unique source de « chocs » : les monétaristes et les nouveaux classiques mettent l’accent sur les chocs monétaires ; les théoriciens des cycles d’affaires réels (real business cycles) sur les chocs technologiques, correspondant aux variations de la productivité globale des facteurs (PGF) ; les keynésiens sur la demande globale ; les nouveaux keynésiens sur les chocs de demande, mais dans un contexte de rigidités nominales ; Nicholas Bloom (2009) sur les chocs d’incertitude, etc.

Plusieurs études ont cherché à identifier quel est le modèle le plus pertinent, quelle est la nature du choc qui semble impulser le cycle d’affaires. Par exemple, Jordi Galí (1999) a constaté que les chocs technologiques semblent pousser la productivité et l’emploi dans des directions opposées, que l’emploi diminue durablement suite à un choc technologique positif et que la productivité mesurée s’accroît temporairement suite à un choc de demande positif. Selon lui, ces constats empiriques amènent à rejeter les modèles de cycles d’affaires réels, mais ils peuvent facilement être reproduits dans un modèle nouveau keynésien, caractérisé par une concurrence monopolistique et des prix visqueux. Partant de l’observation que les cycles d’affaires aux Etats-Unis au cours des trois dernières décennies ont été caractérisés par des chocs technologiques contracycliques, Beaudry et Portier (2014) pensent également que les modèles de cycles d’affaires réels ne peuvent expliquer ces cycles d’affaires. D’un autre côté, ces derniers sont également caractérisés par une inflation constante. Ce dernier constat ne colle pas avec les modèles nouveaux keynésiens où les chocs de demande négatifs se traduisent par des pressions déflationnistes et les chocs de demande positifs par des pressions inflationnistes. De leur côté, Michal Andrle, Jan Brůha et Serhat Solmaz (2013, 2016) notent en étudiant la zone euro, puis l’ensemble des pays développés, que le cycle d’affaires semble tiré par un unique facteur et que la tendance de la production réelle et de l’inflation à varier dans le même sens (à la fréquence du cycle d’affaires) amène à penser qu’il s’agit de la demande globale.

A travers un modèle autorégressif vectoriel, George-Marios Angeletos, Fabrice Collard et Harris Dellas (2018) se sont récemment penchés sur l’évolution de plusieurs variables macroéconomiques clés, en l’occurrence le chômage, le PIB, la consommation, l’investissement, le nombre total d’heures travaillées, la productivité du travail, la PGF ajustée en fonction de l’utilisation des capacités de production, la part du revenu rémunérant le travail, l’inflation et le taux des fonds fédéraux. Ils ont cherché à identifier le choc qui contribue le plus à la volatilité de ces variables aux fréquences du cycle d’affaires. Une fois ce choc identifié, ils se sont appuyés sur ses propriétés empiriques pour évaluer la pertinence de plusieurs modèles.

Il apparaît que le choc qui explique l’essentiel du cycle d’affaires explique peu la variation à long terme de la production, de l’investissement, de la consommation et de la productivité du travail. Symétriquement, le choc qui explique l’essentiel de la volatilité à long terme d’une quelconque de ces variables contribue de façon négligeable au cycle d’affaires. Ce constat fait écho à ceux obtenus par Olivier Blanchard et Danny Quah (1989) et par Jordi Galí (1999), suggérant que le choc derrière la productivité et la production à long terme n’explique qu’une faible part des variations du chômage et des heures travaillées au cours du cycle d’affaires. Il amène à rejeter les modèles qui, à l’instar de celui de Paul Beaudry et Franck Portier (2006), expliquent les fluctuations de l’activité par les nouvelles quant à la croissance de la productivité à moyen ou long terme. Angeletos et ses coauteurs estiment plutôt que leur analyse est cohérente avec l’idée que le cycle d’affaires est impulsé par les changements dans les croyances des agents qui ne concernent pas la productivité et qui découlent des nouvelles quant aux perspectives économiques à court terme.

En outre, le choc qui explique l’essentiel du cycle d’affaires est déconnecté des variations de la PGF à chaque fréquence. Un tel constat amène à rejeter le modèle de base des cycles d’affaires réels à la Kydland et Prescott (1982), où les cycles d’affaires sont impulsés par des chocs technologiques, aussi bien que ses variantes qui introduisent d’autres chocs (notamment des chocs financiers et des chocs d’incertitude) pour expliquer les fluctuations de la PGF. Ce constat ne colle pas non plus avec les modèles nouveaux keynésiens, comme celui de Guido Lorenzoni (2009), qui expliquent les fluctuations de la demande globale par les révisions des anticipations des agents quant à l’évolution future de la productivité. 

La modélisation d’Angeletos et alii amène également à rejeter le modèle nouveau keynésien de base. En effet, selon ce dernier, les chocs de demande amènent la production à s’écarter de son potentiel et ces écarts influenceraient l’inflation. Or, le principal choc du cycle d’affaires est presque orthogonal à l’inflation à chaque fréquence. En effet, le principal choc qui explique l’essentiel de la variation du chômage n’explique qu’une faible part de la variation de l’inflation ; symétriquement, le choc qui explique l’essentiel de la variation de l’inflation n’explique qu’une faible part de la variation du chômage. Il y a également une déconnexion entre l’inflation et la part du revenu rémunérant le travail, qui est habituellement utilisée comme indicateur du coût marginal réel auquel les nouveaux keynésiens prêtent un rôle crucial dans leurs modèles. 

Bref, les données empiriques semblent ne pas coller avec les théories qui donnent un rôle proéminent aux fluctuations de la PGF, aux nouvelles à propos de la productivité à moyen ou long terme ou encore aux chocs de demande tels que les conçoivent les nouveaux keynésiens. Elles semblent plutôt accréditer les théories qui donnent le premier rôle aux fluctuations tirées par la demande, mais sans faire intervenir rigidités nominales, ni de courbes de Phillips. Au final, Angeletos et ses coauteurs notent que même le modèle DSGE le plus efficace ne contient pas le mécanisme de propagation dessiné par les constats empiriques. Toutefois, plusieurs modèles récents sont selon eux assez prometteurs : Angeletos et La’O (2013), Bai et alii (2017), Beaudry et alii (2018), Beaudry et Portier (2018), Benhabib et alii (2015) ou encore Ilut et Schneider (2014) ont précisément cherché à faire émerger des fluctuations tirées par la demande sans introduire de rigidités nominales ou de courbe de Phillips dans leur modélisation.

 

Références

ANDRLE, Michal, Jan BRŮHA & Serhat SOLMAZ (2013), « Inflation and output comovement in the euro area: Love at second sight? », FMI, working paper, n° 13/192.

ANDRLE, Michal, Jan BRŮHA & Serhat SOLMAZ (2016), « Output and inflation co-movement: An update on business-cycle stylized facts », FMI, working paper, n° 16/241.

ANGELETOS, George-Marios, Fabrice COLLARD & Harris DELLAS (2018), « Business cycle anatomy », NBER, working paper, n° 24875.

ANGELETOS, George-Marios, & Jennifer LA’O (2013), « Sentiments », in Econometrica, vol. 81, n° 2.

BAI, Yan, José-Vıctor RÍOS-RULL & Kjetil STORESLETTEN (2017), « Demand shocks as productivity shocks ».

BEAUDRY Paul, Dana GALIZIA & Franck PORTIER (2014), « Reconciling Hayek's and Keynes' views of recessions », NBER, working paper, n° 20101.

BEAUDRY, Paul, & Franck PORTIER (2006), « Stock prices, news, and economic fluctuations », in American Economic Review, vol. 96, n° 4.

BEAUDRY, Paul, & Franck PORTIER (2014), « Understanding noninflationary demand-driven business cycles », in NBER Macroeconomics Annual, vol. 28, n° 1.

BEAUDRY, Paul, & Franck PORTIER (2018), « Real Keynesian models and sticky prices », NBER, working paper, n° 24223.

BENHABIB, Jess, Pengfei WANG & Yi WEN (2015), « Sentiments and aggregate demand fluctuations », in Econometrica, vol. 83, n° 2.

BLANCHARD, Olivier J., & Danny QUAH (1989), « The dynamic effects of aggregate demand and supply disturbances », in American Economic Review, vol. 79, n° 4.

BLOOM, Nicholas (2009), « The impact of uncertainty shocks », in Econometrica, vol. 77, n° 3.

GALÍ, Jordi (1999), « Technology, employment, and the business cycle: Do technology shocks explain aggregate fluctuations? », in American Economic Review, vol. 89, n° 1.

ILUT, Cosmin, & Martin SCHNEIDER (2014), « Ambiguous business cycles », in American Economic Review, vol. 104, n° 8.

KYDLAND, Finn E., & Edward C. PRESCOTT (1982), « Time to build and aggregate fluctuations », in Econometrica, vol. 50, n° 6.

LORENZONI, Guido (2009), « A theory of demand shocks », in American Economic Review, vol. 99, n° 5.

Partager cet article

Repost0
29 juillet 2018 7 29 /07 /juillet /2018 22:44
Modèles DSGE : quels développements depuis la crise ?

Les années quatre-vingt-dix ont été marquées par une convergence entre, d’un côté, la littérature issue de la théorie des cycles d’affaires réels (real business cycles) et, d’autre part, les travaux des nouveaux keynésiens, au point que certains ont pu y voir l’apparition d’une « nouvelle synthèse néoclassique » [Goodfriend et King, 1997]. Cette convergence s’est notamment manifestée à travers le développement de modèles dynamiques stochastiques d’équilibre général (dits modèles DSGE). En effet, ces derniers contiennent des ingrédients propres à la théorie des cycles d’affaires réels : ils supposent une information transparente et se focalisent sur le comportement d’un agent représentatif, caractérisé par un comportement optimisateur, une durée de vie infinie et des anticipations rationnelles. Les modèles de la nouvelle synthèse intègrent en outre des éléments issus de la littérature nouvelle keynésienne : ils incorporent des variables nominales ; ils adoptent un cadre de concurrence imparfaite où les entreprises jouissent d’un pouvoir de marché et ont ainsi une certaine latitude pour fixer leurs prix ; ils introduisent des rigidités nominales, notamment en adoptant la règle de Calvo (1993), selon laquelle, durant chaque période, seule une fraction des entreprises est à même de modifier ses prix.

Si les modèles de cycle d'affaires réels constituent la première génération de modèles DSGE à proprement parler, les modèles de la deuxième génération, ceux qui se sont développés à partir des années quatre-vingt-dix, sont qualifiés de « nouveaux keynésiens ». Dans leur version de base, ces derniers reposent typiquement sur trois relations clés. Premièrement, ils intègrent une équation (rappelant la relation IS, mais dynamique) faisant dépendre l’écart de production (output gap) actuel avec, d’une part, l’écart de production anticipé et, d’autre part, l’écart entre le taux d’intérêt réel et le taux d’intérêt naturel. Deuxièmement, ils intègrent ce que l’on qualifie de « courbe de Phillips nouvelle keynésienne » qui fait dépendre l’inflation courante, d’une part, de l’inflation anticipée et, d’autre part, de l’écart de production. Troisièmement, ils incluent une règle de taux d’intérêt, souvent une règle de Taylor (1993), qui décrit comment est fixé le taux d’intérêt nominal, en fonction du taux d’inflation courant et de l’écart de production. Avec ces trois relations, la politique monétaire n’est pas neutre. En effet, comme les prix sont visqueux à court terme, un resserrement de la politique monétaire se traduit par une hausse des taux d’intérêt nominaux et réels. Comme seule une fraction des entreprises peut baisser ses prix, les autres réagissent en réduisant leur production, ce qui se traduit au niveau agrégé par une baisse de la production et un ralentissement de l’inflation. Ainsi, ce type de modèles est qualifié de « nouveau keynésien » précisément parce que la politique monétaire y présente des effets réels et non plus seulement nominaux. Cette étiquette est toutefois quelque peu trompeuse : le résultat correspond davantage à l’optique friedmanienne qu’à celle keynésienne.

Les modèles DSGE se sont très rapidement répandus. Lorsque la crise financière mondiale a éclaté, ils étaient assez largement utilisés dans le monde universitaire et au sein des banques centrales, notamment pour analyser les fluctuations de l’activité et l’inflation ou encore pour évaluer et prévoir l’impact des politiques conjoncturelles sur celles-ci. Ils ont fait de nombreuses critiques dans le sillage de la crise, dans la mesure où ils n’ont pas permis à leurs concepteurs de prévoir cette dernière [Blanchard, 2017 ; Stiglitz, 2017]. L’échec des modèles DSGE à anticiper cet événement s’explique par leur tendance à ignorer la sphère financière et à l’irréalisme de certaines de leurs hypothèses, notamment celles des anticipations rationnelles, de l’information parfaite et de l’agent représentatif. La crise n’a toutefois pas conduit à l’abandon des modèles DSGE : leurs concepteurs ont réagi en étendant leurs modèles, par exemple en y intégrant davantage de « frictions financières », et en modifiant leurs hypothèses de base. Ce sont ces récents développements que trois analyses ont passés en revue : Lawrence Christiano, Martin Eichenbaum et Mathias Trabandt (2018) se sont penchés sur l’ensemble des modèles DSGE ; Jordi Galí (2018) s’est focalisé sur leurs variantes « nouvelles keynésiennes » ; enfin, Mark Gertler et Simon Gilchrist (2018) ont montré comment ils ont cherché à mieux prendre en compte la sphère financière.

Avant la crise financière mondiale, les modèles nouveaux keynésiens avaient tendance à ignorer la contrainte qu’exerce la borne inférieure zéro (zero lower bound) sur la politique monétaire : cette dernière semblait ainsi capable de contrer n’importe quel choc de demande, ce qui confirmait aux yeux de certains que la politique budgétaire n’avait pas à être utilisée pour stabiliser l’activité. Or, lors de la Grande Récession, les banques centrales ont fortement réduit leurs taux directeurs sans pour autant ramener rapidement l’économie au plein emploi. Cela suggérait pour certains que le choc avait été si puissant que le taux d’intérêt naturel avait été poussé en territoire négatif. Or, la borne inférieure empêchant les banques centrales de ramener les taux à leur niveau naturel, la politique monétaire se retrouvait alors incapable de clore l’écart de production. Dans une telle situation de trappe à liquidité, l’écart de production constitue une source persistante de déflation, or les pressions déflationnistes accroissent le taux d’intérêt réel, ce qui éloigne davantage la production de son niveau potentiel et l’économie du plein emploi, aggravant la récession initiale. L’expérience du Japon lors des années quatre-vingt-dix avec ce qui s’apparentait à une trappe à liquidité avait toutefois amené plusieurs nouveaux keynésiens, notamment Gauti Eggertsson et Michael Woodford (2003), à prendre en compte la borne inférieure zéro et à en déduire la politique optimale. La Grande Récession a donné un nouvel essor à ce type de travaux.

Les travaux sur la borne inférieure zéro ont notamment conduit à réévaluer le rôle de la politique budgétaire. Lors d’une récession, une relance budgétaire risque d’être peu efficace si la banque centrale resserre parallèlement sa politique monétaire pour en compenser les éventuels effets inflationnistes, mais si le taux bute sur sa borne inférieure et, par conséquent, si la politique monétaire est excessivement restrictive (c’est-à-dire insuffisamment expansionniste pour ramener l’économie au plein emploi), alors la banque centrale ne relèvera pas son taux directeur face à la relance budgétaire. Par exemple, Gauti Eggertsson (2011) a montré que lorsqu’un choc de demande négatif pousse le taux d’intérêt naturel en territoire négatif, une hausse des dépenses publiques stimule l’activité, tandis qu’une baisse des impôts sur les revenus du travail ou du capital tend au contraire à nuire à celle-ci ; en effet, une baisse des impôts, tout comme d’autres politiques d’offre, alimente les pressions déflationnistes, ce qui pousse le taux d’intérêt réel à la hausse et déprime davantage la demande. Christiano et alii (2011) ont quant à eux cherché à déterminer la taille du multiplicateur des dépenses publiques en fonction de la borne inférieure zéro. Leur modèle DSGE suggère que le multiplicateur est d’autant plus élevé que les agents s’attendent à ce que la borne inférieure contraindra longuement la politique monétaire.

Les modèles DSGE se focalisent habituellement sur un agent représentatif immortel, censé mimer le comportement de l’ensemble des agents économiques. Une telle hypothèse est bien problématique : elle ne permet pas de concevoir la coexistence d’emprunteurs et de prêteurs, de prendre en compte l’impact des inégalités… ce qui les empêche d’expliquer l’accumulation des déséquilibres qui ont donné lieu à la crise financière et les conséquences de celle-ci. Leurs récentes versions ont commencé à tenir compte de l’hétérogénéité des agents. Les récents modèles DSGE, en l’occurrence ceux estampillés « modèles HANK » ont davantage pris en compte l’hétérogénéité des agents. Ils ont notamment supposé, d’une part, que les agents essuyaient des chocs idiosyncratiques et, d’autre part, qu’ils faisaient face à une limite en termes d’emprunt, si bien qu’ils ne peuvent pleinement s’assurer contre les chocs idiosyncratiques. Par conséquent, les agents ont beau être identiques avant que le choc se produise, ils peuvent présenter différentes propensions à consommer après celui-ci. Ainsi, en fonction de l’impact du choc sur la répartition des revenus et des richesses, les effets de ce choc sur l’activité peuvent aussi bien être amplifiés qu’atténués. Par exemple, la prise en compte de l’hétérogénéité des agents a permis à Adrien Auclert (2017) et à Kaplan et alii (2018) de mieux identifier les canaux via lesquels la politique monétaire se transmet à l’activité. En partant de l’hypothèse qu’une partie des ménages étaient susceptibles d’être contraints en termes de liquidité, Galí et alii (2007) ont de leur côté montré que de telles contraintes amplifiaient l’impact des dépenses publiques sur le PIB.

Pour Galí (2018), l’hypothèse de l’agent représentatif à durée de vie infinie pose deux autres problèmes. D’une part, elle implique un lien étroit entre taux d’intérêt réel et taux d’escompte temporel du consommateur le long d’une trajectoire de croissance équilibrée, or une telle relation ne permet pas de rendre compte de la possibilité d’un taux d’intérêt naturel durablement négatif. D’autre part, cette hypothèse ne permet pas non plus de rendre compte de la possibilité de bulles rationnelles à l’équilibre. Par conséquent, plusieurs nouveaux keynésiens ont cherché à développé des modèles à générations imbriquées qui comportent des rigidités nominales. C’est par exemple le cas d’Eggertsson et alii (2017), qui ont cherché à comprendre pourquoi le taux d’intérêt naturel a baissé dans l’économie américaine et à en déterminer les implications pour l’orientation de la politique monétaire. Dans deux modèles à générations imbriquées avec concurrence monopolistique et prix visqueux, Galí (2014, 2017) a de son côté montré que les bulles peuvent émerger comme équilibres ; ces deux modélisations suggèrent qu’il est plus efficace que les banques centrales se content de chercher à stabiliser la seule inflation plutôt qu’à chercher également à contrer le gonflement de bulles spéculatives. 

Malgré ces diverses avancées, Galí (2018) estime que les modèles DSGE ne parviennent toujours pas à saisir l’un des aspects cruciaux derrière les crises financières, en l’occurrence l’accumulation progressive de déséquilibres finissant par se dénouer avec une multiplication des défauts de paiement, une fuite des capitaux et un effondrement des prix d’actifs, puis par entraîner une chute de la demande, de la production et de l’emploi. Tout comme leurs prédécesseurs et notamment le modèle d’accélérateur financier de Bernanke et alii (1999), les récents modèles rendent compte de fluctuations stationnaires impulsées par des chocs exogènes : généralement, ils se contentent d’introduire des frictions financières qui amplifient les effets de chocs générés en dehors de la sphère financière. Autrement dit, les modèles DSGE n’expliquent la crise financière que comme résultant d’un choc exogène surprenant les agents. Leurs plus récentes variantes n’ont pas réussi à faire émerger de façon endogène les crises financières.

 

Références

AUCLERT, Adrien (2017), « Monetary policy and the redistribution channel », NBER, working paper, n° 23451.

BERNANKE, Ben S., Mark GERTLER & Simon GILCHRIST (1999), « The financial accelerator in a quantitative business cycle framework », in John B. Taylor & Michael Woodford (dir.), Handbook of Macroeconomics, vol. 1C, Elsevier.

BLANCHARD, Olivier (2017), « Sur les modèles macroéconomiques », in Revue de l’OFCE, n° 153.

CALVO, Guillermo (1983), « Staggered prices in a utility maximizing framework », in Journal of Monetary Economics, vol. 12.

CHRISTIANO, Lawrence, Martin EICHENBAUM & Sergio REBELO (2011), « When is the government spending multiplier large? », in Journal of Political Economy, vol. 119, n° 1.

CHRISTIANO, Lawrence J., Martin S. EICHENBAUM & Mathias TRABANDT (2018), « On DSGE models », NBER, working paper, n° 24811, juillet.

EGGERTSSON, Gauti (2011), « What fiscal policy is effective at zero interest rates? », in NBER Macroeconomics Annual, vol. 2010.

EGGERTSSON, Gauti, Neil MEHROTA & Jacob ROBBINS (2017), « A model of secular stagnation: Theory and quantitative evaluation », NBER, working paper, n° 23093.

EGGERTSSON, Gauti, & Michael WOODFORD (2003), « The zero bound on interest rates and optimal monetary policy », in Brookings Papers on Economic Activity, vol. 2003, n° 1.

GALÍ, Jordi (2014), « Monetary policy and rational asset price bubbles », in American Economic Review, vol. 104, n° 3.

GALÍ, Jordi (2017), « Monetary policy and bubbles in a new Keynesian model with overlapping generations », CREI, working paper,

GALÍ, Jordi (2018), « The state of new Keynesian economics: A partial assessment », NBER, working paper, n° 24845, juillet.

GALÍ, Jordi , J David LÓPEZ-SALIDO & Javier VALLÉS (2007), « Understanding the effects of government spending on consumption », in Journal of the European Economic Association, vol. 5, n° 1.

GERTLER, Mark, & Simon GILCHRIST (2018), « What happened: Financial factors in the Great Recession », NBER, working paper, n° 24746.

GOODFRIEND, Marvin, & Robert G. KING (1997), « The new neoclassical synthesis and the role of monetary policy », in NBER Macroeconomics Annual 1997, vol. 12.

KAPLAN, Greg, Benjamin MOLL & Giovanni L. VIOLANTE (2018), « Monetary policy according to HANK », in American Economic Review, vol. 108, n° 3.

STIGLITZ, Joseph E. (2017), « Where modern macroeconomics went wrong », NBER, working paper, n° 23795.

TAYLOR, John B. (1993), « Discretion versus policy rules in practice », Carnegie-Rochester Series on Public Policy, vol. 39.

Partager cet article

Repost0
25 juillet 2018 3 25 /07 /juillet /2018 16:17
Les récessions laissent des cicatrices permanentes. Mais les prévisionnistes le savent-ils ?

Avant la crise financière mondiale, l’idée d’une fluctuation de la production autour d’une tendance stable faisant plutôt consensus parmi les économistes : si l’économie connaissait une récession, la production s’éloignerait certes de sa trajectoire tendancielle, mais, lors de la reprise, la croissance serait plus rapide qu’en temps normal et la production finirait ainsi par rejoindre sa tendance d’avant-crise. C’est typiquement ce que proposaient comme scénario les modèles qualifiés de « nouveaux keynésiens ».

La faiblesse de la reprise que l’on a pu observer dans les pays développés après la Grande Récession a toutefois remis en cause une telle vision des choses en suggérant que les contractions de l’activité ont beau être temporaires, elles peuvent avoir des effets permanents : suite à une récession, la croissance n’est pas forcément plus rapide qu’avant-crise, si bien que la production (et donc le niveau de vie) peut ne pas revenir à la trajectoire tendancielle qu’elle suivait tendanciellement avant la récession. C’est le constat auquel ont abouti de nombreuses analyses, notamment celle de Jane Haltmaier (2012), celle de Laurence Ball (2014), celle du FMI (2015), celle de Robert Martin et alii (2015) ou encore celle d’Olivier Blanchard et alii (2016). De leur côté, Antonio Fatas et Larry Summers (2017) montrent que les plans d’austérité budgétaire sont susceptibles d’avoir des effets pervers à long terme sur l’activité. Ainsi, les modèles habituellement utilisés ont pu amener à sous-estimer, d’une part, la nécessité d’assouplir les politiques conjoncturelles lors des récessions et, d’autre part, la nocivité des politiques restrictives. Pour Valerie Cerra et Sweta Saxena (2017), il est par conséquent temps de changer de paradigme.

Afin de voir lequel des deux schémas des cycles d’affaires les prévisionnistes ont en tête, John Bluedorn et Daniel Leigh (2018) ont étudié les prévisions à long terme des conjecturistes professionnels dans 38 pays développés et en développement au cours de la période allant de 1989 à 2017. Si les prévisionnistes estiment que les fluctuations de la production correspondent essentiellement à des écarts temporaires autour d’une tendance, on devrait s’attendre à ce que les prévisionnistes ne changent pas leurs prévisions de production à long terme suite à une variation non anticipée de la production dans la période courante. Or, les données suggèrent que les prévisions relatives à la production sont extrêmement persistantes : une révision non anticipée de 1 % la production courante se traduit typiquement par une révision dans le même sens d’environ 2 % du niveau de production prévu dix ans après, aussi bien dans les pays développés que les pays en développement (cf. graphique). Ainsi, les conjecturistes professionnels ont eu tendance, du moins durant ces trois dernières décennies, à considérer que les chocs touchant la production courante ont des effets permanents.

GRAPHIQUE  Révisions des prévisions de la production à long terme versus révisions des prévisions de la production courante (en points de %)

Poursuivant leur analyse, Bluedorn et Leigh constatent que les prévisionnistes ne semblent pas penser que la production tende à croître plus rapidement qu’à la normale suite aux récessions pour revenir à sa trajectoire tendancielle d’avant-crise ; ils s’attendent plutôt à ce que la croissance de la production converge lentement vers son rythme de long terme précédent, si bien que leurs prévisions suggèrent que la production tend à diverger de sa tendance d’après-crise suite aux récessions. Autrement dit, les prévisionnistes prennent depuis longtemps comme hypothèse ce que les études n’ont confirmé que récemment.

Bluedorn et Leigh se demandent ensuite si les conjecturistes surestiment la persistance de la production, c’est-à-dire si le véritable impact à long terme des chocs perçus est plus faible que les conjecturistes ne s’y attendent typiquement. Si les conjecturistes surestimaient systématiquement l’impact à long terme des fluctuations de la production courante, il devrait y avoir une relation négative entre les révisions de la production courante et les erreurs de prévision de la production au cours des dix années suivantes. Bluedorn et Leigh régressent alors l’erreur de prévision pour le niveau du PIB réel sur les dix années suivants la révisions de la production dans la période courante. Ce faisant, ils ne constatent pas que les conjecturistes se trompent systématiquement à propos de la persistance de la production.

 

Références

BALL, Laurence M. (2014), « Long-term damage from the Great Recession in OECD countries », NBER, working paper, n° 20185, mai.

BLANCHARD, Olivier, Eugenio CERUTTI & Lawrence SUMMERS (2015), « Inflation and activity – Two explorations and their monetary policy implications », FMI, working paper, novembre.

BLUEDORN, John, & Daniel LEIGH (2018), « Is the cycle the trend? Evidence from the views of international forecasters », FMI, working paper, n° 18/163. 

CERRA, Valerie, & Sweta C. SAXENA (2017), « Booms, crises, and recoveries: A new paradigm of the business cycle and its policy implications », FMI, working paper, n° 17/250.

FATÁS, Antonio, & Lawrence H. SUMMERS (2016), « The permanent effects of fiscal consolidations », NBER, working paper, n° 22374.

FMI (2015), « Where are we headed? Perspectives on potential output », World Economic Outlook, chapitre 3.

HALTMAIER, Jane (2012), « Do recessions affect potential output? », Fed, international finance discussion paper, n° 1066.

MARTIN, Robert, Teyanna MUNYAN & Beth Anne WILSON (2015), « Potential output and recessions: Are we fooling ourselves? », Fed, international finance discussion paper, n° 1145.

Partager cet article

Repost0
11 juillet 2018 3 11 /07 /juillet /2018 10:28
Gordon et l’hypothèse du taux de chômage naturel

Il y a soixante ans, Albin W. Phillips (1958) décelait une relation décroissante entre variation des salaires et taux de chômage en étudiant près d’un siècle de données empiriques relatives à l’économie britannique : plus le taux de chômage augmentait, moins les salaires augmentaient rapidement. En faisant l’hypothèse d’une croissance de la productivité constante, les keynésiens en déduisaient une relation décroissante entre inflation et taux de chômage : plus le taux de chômage augmente, moins les prix auraient tendance à augmenter, ce qui amena Paul Samuelson et Robert Solow (1960) à suggérer que les autorités monétaires pouvaient choisir un « menu » entre inflation et chômage. Les keynésiens adoptèrent ainsi la courbe de Phillips, non seulement parce qu’elle leur permit de confirmer l’idée de rigidité des salaires et de dynamiser leur cadre théorique en reliant l’évolution du chômage à celle des prix, mais aussi parce qu’ils pouvaient ainsi continuer de justifier l’adoption de politiques conjoncturelles : il suffisait a priori que les autorités laissent l’inflation s’accélérer pour réduire le chômage.

Lors de son allocution présidentielle à l’American Economic Association, le monétariste Milton Friedman (1968) assena il y a un demi-siècle ce qui semble être le premier coup sérieux porté au keynésianisme en avançant l’hypothèse du taux de chômage naturel. A court terme, il y a effectivement une courbe de Phillips, c’est-à-dire une relation décroissante entre inflation et chômage : une accélération de l’inflation réduit le chômage en amenant les travailleurs à  sous-estimer leur pouvoir d’achat, si bien que leurs salaires réels diminuent et que les entreprises sont incitées à accroître leur demande de travail. Mais une fois que les travailleurs ont pris conscience de leur erreur et qu’ils corrigent en conséquence leurs anticipations, ils réclament une hausse de leurs salaires nominaux, si bien que les entreprises réduisent leur demande de travail et le chômage revient à son niveau initial, celui-là même que Friedman qualifie de « naturel », mais l’inflation reste supérieure à ce qu’elle était initialement : c’est l’hypothèse accélérationniste. A long terme, la courbe de Phillips serait donc verticale : qu’importe le niveau d’inflation, le taux de chômage est à son niveau naturel. Friedman en concluait que la politique monétaire était neutre à long terme : elle ne peut durablement réduire le chômage en-deçà de son niveau naturel (à moins de générer une inflation insoutenable) et ce d’autant plus que ce dernier est déterminé par des facteurs du côté de l’offre.

Cette première attaque lancée contre la citadelle keynésienne ouvrit la voie à un second assaut, mené cette fois-ci par les nouveaux classiques. Robert Lucas et ses adeptes affirmèrent que la courbe de Phillips était verticale aussi bien à long terme qu’à long terme : dès lors que les agents ont des anticipations rationnelles, ils ne se trompent dans leurs anticipations d’inflation que si des chocs aléatoires touchent la politique monétaire. Même si les nouveaux classiques délaissent la question du chômage, les enseignements tirés de leurs modélisations sont clairs : le chômage en vigueur ne serait autre qu’un chômage naturel et ne pourrait donc refluer qu’à travers l’adoption de politiques structurelles. De leur côté, des keynésiens comme Robert Solow et James Tobin cherchèrent à répliquer, mais cela n’empêcha pas le concept de taux de chômage d’équilibre d’être largement accepté dans la profession, au point que, très rapidement, même des keynésiens comme Rudiger Dornbusch et Stanley Fischer ou Robert J. Gordon (1978) évoquèrent la courbe de Phillips verticale dans leurs manuels de macroéconomie respectifs. 

Plusieurs historiens de la pensée ont remis en question le récit habituellement fait de la diffusion de l’hypothèse du taux de chômage naturel [Cherrier et Goutsmedt, 2017]. Par exemple, James Forder (2014) a noté que Samuelson et Solow avaient eux-mêmes remarqué que la courbe de Phillips était instable et conclu que les autorités monétaires ne pouvaient s’appuyer dessus de façon assurée. Ainsi, Friedman aurait délibérément passé sous silence ces réserves lors de son allocution présidentielle. Récemment, Aurélien Goutsmedt et Goulven Rubin (2018) ont noté que ce ne sont pas les monétaristes et les nouveaux classiques qui contribuèrent le plus à la diffusion du concept de chômage naturel, mais les keynésiens eux-mêmes. 

Pour comprendre pourquoi et comment les keynésiens ont pu reprendre un concept qui avait initialement été introduit pour les ébranler, Goutsmedt et Rubin se alors sont concentrés sur la trajectoire intellectuelle de l’un d’entre eux, en l’occurrence Robert Gordon, l’économiste du MIT qui gagna en célébrité ces dernières années de ce côté-ci de l’Atlantique avec sa thèse d’une « fin de la croissance ».

Au début des années soixante-dix, Gordon s’opposait à l’hypothèse du taux de chômage naturel au motif qu’elle ne serait pas vérifiée par les données empiriques : les estimations que Solow (1969) (son directeur de thèse) et lui-même avaient réalisées chacun de leur côté indiquaient que le paramètre associé à l’inflation anticipée était inférieur à l’unité, ce qui suggérait que l’inflation ne s’ajustait pas totalement par rapport aux salaires. Gordon (1971a, 1971b) en concluait que la thèse accélérationniste de Friedman n’était pas valide et qu’il y avait bien un arbitrage entre inflation et chômage à long terme. Pour autant, il ne pensait pas que la courbe de Phillips était stable : comme Samuelson et Solow, il estimait qu’elle était susceptible de se déplacer, aussi bien à gauche qu’à droite. Ainsi, pour expliquer l’accélération de l’inflation que connaissait alors l’économie américaine, Gordon privilégiait l’explication qu’avançait George Perry (1970) : les pressions inflationnistes résulteraient des changements dans la composition de la population active, notamment avec l’arrivée massive des femmes et des jeunes sur le marché du travail dans les années soixante, qui aurait déplacé la courbe de Phillips sur la droite.

La conversion de Gordon commença vers 1972. Cette année-là, il introduisit un modèle intermédiaire incorporant un taux de chômage naturel au-delà d’un certain niveau d’inflation, mais où la pente de la courbe de Phillips à long terme était variable en-deçà de ce seuil, tout en soulignant que l’approche accélérationniste n’était pas valide dans le cadre d’une déflation. A partir de 1973, les nouvelles données empiriques amènent peu à peu Gordon à adopter l’hypothèse du taux de chômage naturel : au fil des années, la pente de la courbe de Phillips à long terme, telle qu’elle se dessinait à travers les données, se rapprochait de la verticale. En 1977, Gordon indiqua explicitement avoir adopté l’hypothèse du taux de chômage naturel. En 1978, dans son manuel, il abandonna son modèle intermédiaire en proposant un modèle plus simple, sûrement pour des raisons pédagogiques. 

La critique du nouveau classique Thomas Sargent (1971) a sûrement contribué à convaincre Gordon d’utiliser une courbe de Phillips verticale à long terme. Mais si cette critique montra que les tests utilisés par les keynésiens ne pouvaient pas rejeter l’hypothèse du taux de chômage naturel, ils ne la validaient pas non plus. Goutsmedt et Rubin notent que Gordon a adopté l’hypothèse du taux de chômage nature alors même que les données empiriques ne suggéraient toujours pas que le paramètre estimé sur l’inflation anticipée était proche de l’unité. Pour eux, le revirement de Gordon s’explique essentiellement par deux choses. D’une part, celui-ci subit directement l’influence de Friedman, qu’il côtoya à l’Université de Chicago. D’autre part, l’adoption de l’hypothèse du taux de chômage naturel ne l’empêchait pas de justifier l’adoption de politiques conjoncturelles en vue de stabiliser l’activité. En effet, il l’introduisit dans un modèle de concurrence imparfaite où les rigidités salariales empêchaient l’apurement des marchés et faisaient apparaître du chômage involontaire.

Ainsi, la diffusion du concept de taux de chômage naturel ne semble pas avoir été synonyme de défaite pour les keynésiens. Quelques décennies plus tôt, plusieurs d’entre eux cherchaient déjà à donner des fondements microéconomiques à la macroéconomie keynésienne. Don Patinkin (1956) tenta notamment de montrer que le keynésianisme n’était pas incompatible avec l’hypothèse d’un auto-ajustement de l’économie ; par contre, il estimait que le retour vers le plein-emploi était tellement lent que cela justifiait l’usage des politiques conjoncturelles pour stabiliser l’activité. Le raisonnement de Gordon était à peine différent : le taux de chômage tend peut-être vers son niveau naturel, mais il le fait si lentement que l’assouplissement des politiques conjoncturelles apparaît nécessaire. Mais alors que les keynésiens comme Patinkin jugeaient que la relance budgétaire était plus efficace que l’assouplissement monétaire, les nouveaux keynésiens comme Gordon jugent au contraire que cette dernière est plus efficace que la première pour éliminer la composante conjoncturelle du chômage.

Pour conclure, Goutsmedt et Rubin soulignent à quel point le récit habituellement fait des débats autour de la courbe de Phillips lors des années soixante-dix ignore la richesse des échanges et en particulier des réactions de la part des keynésiens. Les travaux empiriques que ces derniers réalisaient à l’époque constataient que le coefficient associé aux anticipations d’inflation était variable, si bien qu’ils concluaient que la courbe de Phillips à long terme était susceptible de varier. La conversion de Gordon et des autres keynésiens n’a pas été sans coûts. Si Gordon n’avait pas abandonné son modèle à coefficient variable et si ce dernier avait été largement diffusé, les économistes n’auraient pas été surpris par l’absence d’inflation lors de la Grande Récession. Les dernières modélisations ont cherché à estimé le paramètre sur les anticipations d’inflation au lieu de considérer qu’elle est égale à l’unité. Elles trouvent une faible élasticité de l’inflation courante vis-à-vis de l’inflation passée, ce qui amène certains comme Olivier Blanchard (2016) à se demander si’ l’économie américaine ne s’est pas libérée de la « malédiction accélérationniste ». 

 

Références

BLANCHARD, Olivier (2016), « The US Phillips curve: Back to the 60s? », PIIE, policy brief, n° 16-1.

CHERRIER, Beatrice, & Aurélien GOUTSMEDT (2017), « The making and dissemination of Milton Friedman’s 1967 AEA presidential address », in The Undercover Historian (blog), le 27 novembre. Traduction française, « L’élaboration et la réception du discours présidentiel de Friedman », in Annotations (blog).

DORNBUSCH, Rudiger, & Stanley FISCHER (1978), Macroeconomics, McGraw-Hill Companies.

FORDER, James (2014), Macroeconomics and the Phillips Curve Myth, Oxford University Press.

FRIEDMAN, Milton (1968), « The role of monetary policy », in American Economic Review, vol. 58, n° 1.

GORDON, Robert J. (1971a), « Inflation in recession and recovery », in Brookings Papers on Economic Activity, vol. 1971, n° 1.

GORDON, Robert J. (1971b), « Steady anticipated inflation: Mirage or oasis? », in Brookings Papers on Economic Activity, vol. 1971, n° 2.

GORDON, Robert J. (1972), « Wage-price controls and the shifting Phillips curve », in Brookings Papers on Economic Activity, vol. 1972, n° 2.

GORDON, Robert J. (1977), « Can the inflation of the 1970s be explained? », in Brookings Papers on Economic Activity, vol. 1977, n° 1.

GORDON, Robert J. (1978), Macroeconomics, Little, Brown and Company.

GOUTSMEDT, Aurélien, & Goulven RUBIN (2018), « Robert J. Gordon and the introduction of the natural rate hypothesis in the Keynesian framework », Centre d’Economie de la Sorbonne, document de travail, n° 2018.13.

PATINKIN, Don (1956), Money, Interest and Prices.

PERRY, George L. (1970), « Changing labor markets and inflation », in Brookings Papers on Economic Activity, vol. 1970, n° 3.

PHILLIPS, Albin William (1958), « The relation between unemployment and the rate of change of money wage rates in the United Kingdom, 1861–1957 », in Economica, vol. 25, n° 100. 

SAMUELSON, Paul A. & Robert M. SOLOW (1960), « Problem of achieving and maintaining a stable price level: Analytical aspects of anti-inflation policy », in American Economic Review, vol. 50, n° 2.

SARGENT, Thomas J. (1971), « A note on the “accelerationist” controversy », in Journal of Money, Credit and Banking, vol. 3, n° 3.

SOLOW, Robert M. (1969), Price Expectations and the Behavior of the Price Level, Manchester University Press.

Partager cet article

Repost0
17 juin 2018 7 17 /06 /juin /2018 21:45
Informatisation, productivité et emploi

A la fin des années quatre-vingt, Robert Solow (1987) notait que « les ordinateurs sont partout, sauf dans les statistiques de productivité ». En fait, c’est au cours de la décennie suivante que le développement des technologies d’information et de communication a amorcé une forte accélération de la croissance de la productivité. Et celle-ci a naturellement alimenté les craintes pour l’emploi.

Selon des économistes comme Erik Brynjolfsson et Andrew McAfee (2011, 2014), le développement des technologies de l’information a stimulé et devrait continuer de stimuler la croissance de la productivité dans tous les secteurs aux Etats-Unis, en particulier ceux intensifs en technologies de l’information, si bien que le paradoxe de Solow ne serait vraiment plus d’actualité ; mais en outre, cet essor conduirait à une substitution croissante des travailleurs par les machines. D’une part, la baisse de la part du revenu national rémunérant le travail et, d’autre part, le découplage entre croissance de la productivité et croissance du salaire moyen [Stansbury et Summers, 2017], deux tendances que l’on observe aussi bien aux Etats-Unis que dans d’autres pays développés, tendent à accréditer une telle thèse ; d’ailleurs, Loukas Karabarbounis et Brent Neiman (2014) expliquent cette déformation du partage de la valeur ajoutée par une baisse des prix des biens d’investissement qui serait associée à la diffusion des technologies d’information.

Daron Acemoglu, David Autor, David Dorn, Gordon Hanson et Brendan Price (2014) ont cherché à savoir si les avancées technologiques associées aux technologies de l’information ont eu tendance à accroître la productivité aux Etats-Unis tout en y rendant les travailleurs redondants. Premièrement, en se focalisant sur les secteurs qui utilisent les nouvelles technologies de l’information plutôt que sur les secteurs qui les produisent, ils peinent à mettre en évidence que la croissance de la productivité soit plus rapide dans les secteurs les plus intensifs en technologies de l’information. En tout cas, les données ne suggèrent pas que la croissance de la productivité soit plus rapide dans les secteurs intensifs en technologies de l’information depuis le tournant du siècle. Deuxièmement, si les technologies de l’information accroissent la productivité et réduisent les coûts, cela devrait accroître la production dans les secteurs intensifs en technologies de l’information. Or, il apparaît que dans les secteurs intensifs en technologies de l’information où la croissance de la productivité du travail s’est accélérée, cette accélération a été associée à une baisse de la production et à une baisse encore plus rapide de l’emploi. Il est difficile de concilier ce constat avec l’idée que l’informatisation et les nouveaux équipements intensifs en technologies d’information impulsent un nouvel essor de la productivité. Pour Acemoglu et ses coauteurs, leurs résultats amènent non seulement à revoir les explications habituellement avancées pour résoudre le paradoxe de Solow, du moins en ce qui concerne l’industrie, mais aussi à douter de la thèse de Brynjolfsson et McAfee.

Se demandant alors pourquoi les machines seraient substituées par des machines, si ce n’est pour accroître la productivité, Charles-Marie Chevalier et Antoine Luciani (2018) ont cherché à déterminer si ce sont les mêmes endroits au sein du secteur manufacturier ou non qui connaissent à la fois de destructions d’emplois et d’une absence de gains de productivité du travail sous l’effet de l’informatisation. Pour cela, ils ont étudié les données françaises allant de 1994 à 2007 et relatives à 228 secteurs manufacturiers, en distinguant les secteurs selon leur niveau technologique et les emplois selon leur niveau de qualification. En effet, le travail peut aussi bien être complémentaire que substituable avec le capital : comme l’ont souligné David Autor, Frank Levy et Richard Murnane (2003), cela dépend du degré routinier des tâches assurées par les travailleurs, puisqu’un travailleur a d’autant plus de chances d’être remplacé par une machine qu’il assure des tâches routinières. C’est d’ailleurs ce qui explique la polarisation de l’emploi, c’est-à-dire le déclin de la part des emplois moyennement qualifié et la hausse tant de la part des emplois qualifiés que des emplois non qualifiés : puisque ce sont les tâches réalisées par les travailleurs moyennement qualifiées qui sont les plus routinières, ce sont eux qui, pour l’heure, ont le plus de chances d’être remplacés par des machines [Harrigan et alii, 2016].

L’analyse réalisée par Chevalier et Luciani suggère que, contrairement à l’économie américaine, les secteurs français qui produisent du capital informatique ne présentent pas de gains de productivité en lien avec l’informatisation, ce qui suggère que la « French tech » souffre bien d’un sous-développement. Par contre, en ce qui concerne les secteurs qui se contentent d’utiliser ce capital informatique, l’informatisation tend à légèrement stimuler la productivité du travail, tout en réduisant significativement la taille des effectifs. Ces baisses d’effectifs sont concentrées dans les industries de faible technologie, en particulier pour la main-d’œuvre peu qualifiée, et s’accompagnent au final par de significatifs gains de productivité. De tels effets ne sont pas manifestes en ce qui concerne les secteurs de moyenne ou haute technologie : l’informatisation ne s’y traduit pas par une réduction des effectifs, et ce qu’importe le niveau de qualification de la main-d’œuvre, mais par contre par une hausse de la part de l’emploi qualifié. L’informatisation semble favoriser les ventes et l’emploi dans le secteur tertiaire, sans pour l’heure s’y traduire par des gains significatifs en termes de productivité du travail. Au final, au niveau agrégé, il apparaît que l’informatisation semble alimenter de profonds changements structurels : d’un côté, elle améliore la productivité dans les secteurs en déclin et, de l’autre, elle entraîne un enrichissement en travail pour les secteurs en essor. 

 

Références

ACEMOGLU, Daron, David AUTOR, David DORN, Gordon H. HANSON & Brendan PRICE (2014), « Return of the Solow paradox? IT, productivity, and employment in US manufacturing », in American Economic Review, vol. 104, n° 5.

AUTOR, David, Frank LEVY & Richard J. MURNAME (2003), « The skill content of recent technological change: an empirical exploration », in The Quarterly Journal of Economics, vol. 118, n° 4.

BRYNJOLFSSON, Erik, & Andrew MCAFEE (2011), Race Against the Machine, Digital Frontier Press.

BRYNJOLFSSON, Erik, & Andrew MCAFEE (2014), The Second Machine Age, W. W. Norton & Company

CHEVALIER, Charles-Marie, & Antoine LUCIANI (2018), « Computerization, labor productivity and employment: Impacts across industries vary with technological level », INSEE, document de travail, n° G2018/2.

HARRIGAN, James, Ariell RESHEF & Farid TOUBAL (2016), « The march of the techies: Technology, trade, and job polarization in France, 1994-2007 », NBER, working paper, n° 22110.

KARABARBOUNIS, Loukas, & Brent NEIMAN (2014), « The global decline of the labor share », in Quarterly Journal of Economics, vol. 129, n° 1.

SOLOW, Robert M. (1987), « We’d better watch out ».

Partager cet article

Repost0
20 mai 2018 7 20 /05 /mai /2018 13:40
L’endettement public évince-t-il l’investissement des entreprises ?

Dans le sillage de la crise financière mondiale, la dette publique a fortement augmenté dans les pays développés, non seulement parce que les Etats ont adopté des plans de relance et eu à secourir le secteur bancaire, mais aussi plus simplement parce que la contraction de l’activité a réduit mécaniquement les recettes fiscales. En conséquence, l’encours de la dette publique a quasiment doublé entre 2007 et 2017, en passant de 35 à 66 milliers de milliards de dollars ; au cours de cette période, l’endettement public est passé de 71 à 105 % du PIB dans les pays développés et de 36 à 48 % du PIB dans les pays en développement.

De nombreuses études se sont alors penchées sur le lien entre dette publique et activité économique. Carmen Reinhart et Kenneth Rogoff (2010) ont par exemple suggéré qu’un endettement public élevé s’accompagnait d’une activité plus faible, sans pour autant trancher sur le sens de causalité. Or, comme le rappellent Ugo Panizza et Andrea Presbitero (2014), il se peut tout simplement que ce soit la faiblesse de l’activité qui tende à pousser l’endettement public vers des niveaux élevés. D’autre part, un niveau d’endettement élevé peut nuire à la croissance économique, non pas en soi, mais parce qu’il incite les gouvernements à adopter (à tort ou à raison) des plans d’austérité pour se désendetter.

L’un des arguments avancés par la littérature néoclassique pour démontrer la nocivité de l’endettement public et l’inefficacité des plans de relance est celui de l’effet d’éviction (crowding out effect). Si l’Etat finance un plan de relance par l’endettement, cela signifie qu’il émettra des titres. Or, les épargnants risquent de se détourner des titres des entreprises privées pour acheter les titres publics, jugés moins risqués, en particulier lors d’une récession. D’autre part, la hausse de l’offre de titres se traduit par une hausse des taux d’intérêt. Les entreprises auront alors plus de difficultés à financer leurs investissements, en particulier si elles sont également contraintes dans l’accès au crédit, ce qui risque d’être le cas des petites entreprises [Broner et alii, 2014]. Au final, la hausse des dépenses publiques tend peut-être d’un côté à stimuler la demande, mais le surcroît de dette publique nécessaire pour la financer tend peut-être au contraire à la déprimer, si bien que l’effet net sur la demande pourrait au final être nul, voire négatif.

Les keynésiens taclent cet argument sur deux fronts. D’une part, lors d’une récession, en l’occurrence lorsque les entreprises ont des problèmes de débouchés, elles sont loin d’utiliser la totalité de leurs capacités de production (pour preuve, elles ont tendance à licencier). Comme elles n’ont pas vraiment besoin d’accroître leurs capacités de production, elles vont donc peu investir, donc peu émettre de titres. Bref, l’offre de titres augmente peut-être, mais moins que l'endettement public. D’autre part, même si les entreprises émettaient autant de titres qu’auparavant, les titres publics ne vont pas forcément se substituer à des titres privés dans les portefeuilles des épargnants. En effet, lors d’une récession provoquée par une insuffisance de la demande globale, cette dernière a pour contrepartie une forte épargne. Autrement dit, la demande de titres, et en particulier de titres sûrs, augmente fortement : la demande de titres est donc loin de rester constante. La hausse de la dette publique permet ainsi d’absorber l’excès de dette et de satisfaire par là les préférences des ménages, c’est-à-dire leur besoin d’un placement sans risque.

Yi Huang, Ugo Panizza et Richard Varghese (2018) ont analysé les données relatives à un échantillon de près de 550.000 entreprises dans 69 pays, en l’occurrence aussi bien des pays développés que des pays émergents, au cours de la période allant de 1998 à 2014. Ils mettent en évidence une corrélation négative entre la dette publique et l’investissement des entreprises : les niveaux élevés de dette publique sont associés à un plus faible investissement privé et avec une plus forte sensibilité de l’investissement aux fonds autogénérés. Cette corrélation pourrait refléter une causalité keynésienne allant de la faiblesse de l’investissement vers la dette publique (ou plutôt, l’action d’une troisième variable, en l’occurrence la faiblesse de l’activité) : lorsque les entreprises investissent peu, ce qui risque d’être le cas lors d’une récession, l’Etat va avoir tendance à stimuler l’activité, donc à s’endetter. Huang et ses coauteurs pensent toutefois que la causalité va dans le sens inverse.

En effet, ils constatent que les niveaux élevés de dette publique nuisent particulièrement aux secteurs qui sont (pour des raisons technologiques) très dépendants des financements externes. Ensuite, leurs données suggèrent que la sensibilité de l’investissement aux fonds internes augmente avec le niveau de dette publique, ce qui suggère que celui-ci ce traduit par un resserrement des contraintes de financement pour les entreprises. Enfin, il apparaît que la dette publique accroît la sensibilité de l’investissement aux flux de trésorerie pour les entreprises les plus petites et les plus jeunes, c’est-à-dire celles qui sont les plus susceptibles d’être contraintes en termes de crédit, mais qu’elle n’a pas d’effet sur la sensibilité de l’investissement des entreprises les plus grandes et les plus vieilles aux flux de trésorerie.

Pour autant, l’analyse menée par Huang et alii ne dit rien quant à l’effet de la dette publique sur l’ensemble de l’investissement, si bien qu’il est possible que des niveaux plus élevés de dette publique accroissent l’investissement pour l’ensemble des secteurs et des entreprises, mais que l’investissement augmente moins pour les entreprises qui sont les plus exposées aux contraintes de crédit. Ensuite, l’étude ne se focalise que sur une seule composante de la demande globale, en l’occurrence l’investissement des entreprises, et ne prend pas en compte la position de l’économie dans le cycle d’affaires. Les constats auxquels elle aboutit n’impliquent donc pas qu’une expansion budgétaire financée par endettement soit injustifiée lors des ralentissements de l’activité.

 

Références

BRONER, Fernando, Aitor ERCE, Alberto MARTIN & Jaume VENTURA (2014), « Sovereign debt markets in turbulent times: Creditor discrimination and crowding-out effects », in Journal of Monetary Economics, vol. 61.

HUANG, Yi, Ugo PANIZZA & Richard VARGHESE (2018), « Does public debt crowd out corporate investment? International evidence », CEPR, discussion paper, n° 12931.

PANIZZA, Ugo, & Andrea F PRESBITERO (2014), « Public Debt and Economic Growth: Is There a Causal Effect? », in Journal of Macroeconomics, vol. 41.

REINHART, Carmen M., & Kenneth S. ROGOFF (2010), « Growth in a time of debt », in American Economic Review, vol. 100, n° 2, mai.

Partager cet article

Repost0
27 avril 2018 5 27 /04 /avril /2018 07:18
Mondialisation : qu’est-ce que les économistes ont pu manquer ?

L’élection de Donald Trump, la victoire du « Leave » lors du référendum autour du Brexit et l’essor de partis « populistes » dans de nombreux pays développés apparaissent pour certains comme un contrecoup de la mondialisation : une partie de la population, notamment les travailleurs peu qualifiés, rejetterait le libre-échange parce qu’elle n’en verrait que trop peu les gains, voire ne penserait n’en subir que des coûts. Ce rejet se serait notamment matérialisé à travers l’adoption de mesures protectionnistes de la part des autorités américaines, notamment vis-à-vis de la Chine, des mesures qui pourraient déboucher sur une véritable guerre commerciale suite à une escalade des représailles. Ces événements ont ravivé parmi les économistes un débat qu’ils pensaient avoir tranché il y a deux décennies.

Les économistes, même orthodoxes, n’ont jamais dénié le fait que l’ouverture d’un pays au commerce puisse avoir de profonds effets distributifs, c’est-à-dire qu’il puisse y avoir des gagnants et des perdants. Selon les théories traditionnelles du commerce international, l’intégration commerciale est susceptible d’accroître les inégalités de revenu au sein des pays développés. Par exemple, dans le modèle HOS, à deux biens, les économies relativement abondantes en capital se spécialisent dans les productions nécessitant relativement plus de capital, tandis que les économies relativement abondantes en travail se spécialisent dans les productions nécessitant relativement plus de travail. Cela se traduit dans chaque économie par une déformation du partage de la valeur ajoutée : au sein des économies abondantes en capital, la part du revenu national rémunérant le capital augmente et (symétriquement) la part rémunérant le travail diminue. Les propriétaires du capital gagnant en moyenne un revenu plus élevé que les travailleurs, les inégalités tendent par là à se creuser. C’est le corollaire du théorème Stolper-Samuelson.

Dans le prolongement du modèle HOS les théories néo-factorielles aboutissent au même résultat en distinguant les travailleurs selon leur niveau de qualification. Les pays développés, relativement bien dotés en travail qualifié, devraient se spécialiser dans les productions utilisant relativement plus de celui-ci, tandis que les pays en développement, surtout dotés en travail non qualifié, se spécialisent dans les productions utilisant relativement plus de celui-là. Dans les pays développés, cela signifie que les travailleurs qualifiés, davantage demandés, voient leur rémunération augmenter, tandis que les travailleurs peu qualifiés, peu demandés et notamment exposés au chômage, voient leur revenu décliner.

Sur le plan théorique, les économistes devraient donc craindre que l’ouverture au commerce internationale détériore la situation des travailleurs les moins qualifiés dans les pays développés, ne serait-ce que temporairement ; la spécialisation devrait amener ces pays à créer davantage d’emplois qualifiés, ce qui compenserait les destructions d’emplois peu qualifiés et permettrait à ceux qui les occupaient de se reclasser. Pour autant, au milieu des années quatre-vingt-dix, les économistes, notamment Paul Krugman (1995), ne pensaient pas que la mondialisation et surtout l’essor que connaissaient alors des pays à bas salaires comme la Chine aient de puissants effets sur l’emploi sur les pays développés. Certes, leurs données suggéraient que la croissance du commerce avait des effets dépressifs sur les salaires des travailleurs peu éduqués, mais ces effets semblaient quantitativement modestes. Les importations de biens manufacturés en provenance de pays en développement ne représentaient d’ailleurs que l’équivalent de 2 % de leur PIB ; cela ne semblait pas suffisant pour modifier les salaires relatifs de plus de quelques pourcents. Aux yeux de nombreux économistes, la hausse des inégalités que connaissaient les pays développés depuis les années quatre-vingt semblait plutôt être liée essentiellement au progrès technique.

Krugman (2018) reconnaît que le consensus des années quatre-vingt-dix s’est révélé erroné ou, tout du moins, excessivement optimiste. En effet, ce que saisissaient les données du début des années quatre-vingt-dix n’était que les prémices d’un phénomène qu’Arvind Subramanian et Martin Kessler (2013) ont depuis lors qualifié d’« hypermondialisation » (hyperglobalization). Jusqu’aux années quatre-vingt, le commerce mondial, relativement au PIB, n’était qu’à peine plus élevé qu’à la veille de la Première Guerre mondiale. Mais durant les deux décennies suivantes, le commerce mondial a poursuivi son expansion pour rapidement atteindre un volume qui n’avait jamais été observé. En outre, si les exportations de biens manufacturés en provenance des pays en développement ne représentaient qu’une faible part de l’économie mondiale au début des années quatre-vingt-dix, elles représentent désormais une part trois fois plus élevée (cf. graphique).

GRAPHIQUE  Volume des exportations de biens manufacturés réalisés par les pays en développement (en % du PIB mondial)

source : Krugman (2018), d’après les données de la Banque mondiale

Cela ne veut pas forcément dit que les effets sur les pays développés soient désormais trois fois plus amples qu’ils ne l’étaient au début des années quatre-vingt-dix. D’une part, une part importante des exportations des pays en développement ont eux-mêmes pour destination. D’autre part, avec la fragmentation internationale du processus productif, c’est-à-dire le développement de chaînes de valeur mondiales, le contenu en facteurs du commerce entre pays en développement et pays développés n’a pas changé aussi rapidement que son volume : une partie des biens exportés par les pays en développement (par exemple les iPhones produits en Chine) contiennent des composants venant de pays développés.

Ces deux dernières décennies ont aussi été marquées par d’énormes déséquilibres de comptes courants, or d’amples variations de comptes courants sont susceptibles d’entraîner de sérieux problèmes d’ajustement. Par exemple, aux Etats-Unis, jusqu’à la fin des années quatre-vingt-dix, l’emploi manufacturier chutait certes en termes relatifs, c’est-à-dire relativement à l’emploi total, mais pas en termes absolus. Mais après 1997, ce n’est plus le cas : son montant absolu décline également, et ce parallèlement à un accroissement du déficit des échanges (hors pétrole) équivalent à 2,5 % du PIB. Selon Krugman, ce creusement du déficit a pu réduire la part de l’activité manufacturière dans le PIB de 1,5 point de pourcentage (soit plus de 10 %, si bien qu’il a pu contribuer par là à plus de la moitié de la baisse (de 20 %) de l’emploi manufacturier entre 1997 et 2005. La hausse des importations a ainsi constitué un puissant choc pour plusieurs travailleurs américains, ce qui a contribué à nourrir le rejet de la mondialisation.

Lors des années quatre-vingt-dix, les économistes se demandaient quel était l’impact du commerce international sur de larges ensembles de classes sociales et non sur des travailleurs de catégories ou secteurs spécifiques. En outre, ils supposaient d’une certaine façon que le facteur travail était mobile (professionnellement et géographiquement) au sein de chaque économie. Délaissant une telle hypothèse, David Autor, David Dorn et Gordon Hanson (2013) se sont focalisés sur les effets du « choc chinois » (« China shock ») sur les marchés du travail locaux, or ces effets se sont révélés être amples et durables : de nombreux travailleurs ont perdu leur emploi du fait de la concurrence étrangère et cet événement a durablement déprimé leurs revenus par la suite.

Mais selon Krugman, ce n’est pas parce que les économistes ont sous-estimé les coûts de la mondialisation qu’il est justifié que les pays développés adoptent des mesures protectionnistes. Tout d’abord, l’hypermondialisation semble n’avoir été qu’un événement temporaire, unique, associée à l’émergence de l’économie chinoise. D’ailleurs, le volume des échanges, relativement au PIB mondial, s’est stabilisé ces dernières années. Surtout, chercher à inverser le processus, en embrassant le protectionnisme, provoquerait de profondes réallocations de main-d’œuvre et celles-ci seraient aussi douloureuses que celles générées par le « choc chinois ». En outre, les entreprises ont investissant massivement en supposant que les économies resteraient ouvertes ; si cette hypothèse ne se vérifiait pas, de nombreux actifs issus de ces investissements (notamment des usines) deviendraient de véritables « épaves ».

 

Références

AUTOR, David H., David DORN & Gordon H. HANSON (2013), « The China syndrome: Local labor market effects of import competition in the United States », in American Economic Review, vol. 103, n° 6.

KRUGMAN, Paul (1995), « Growing world trade: Causes and consequences », Brookings Papers on Economic Activity, n° 1995-1.

KRUGMAN, Paul (2018), « Globalization: What did we miss? ».

SUBRAMANIAN, Arvind, & Martin KESSLER (2013), « The hyperglobalization of trade and its future », Peterson Institute for International Economics, working paper, n° 13-6.

WOOD, Adrian (2018), « The 1990s trade and wages debate in retrospect », in voxEU.org, 25 avril.

Partager cet article

Repost0

Présentation

  • : D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher