Overblog
Suivre ce blog Administration + Créer mon blog
15 mars 2019 5 15 /03 /mars /2019 16:12
La synchronisation mondiale de l’inflation

Ces dernières décennies ont été marquées par un véritable mouvement de désinflation : l’inflation et sa volatilité ont eu tendance à diminuer à partir du milieu des années quatre-vingt dans les pays développés, puis à partir du milieu des années quatre-vingt-dix dans les pays émergents et en développement. Diverses explications ont été proposées. Elles mettent notamment l’accent sur la mondialisation, sur l’essor des exportations de produits à bas coûts en provenance des pays émergents, sur la plus grande crédibilité des banques centrales dans la lutte contre l’inflation, etc.

En outre, de plus en plus d’études suggèrent que les taux d’inflation nationaux sont assez synchronisés entre eux ; c’est le cas de celle de Hakkio (2009) et de celle réalisée par Ciccarelli et Mojon (2010). Mais ces études ne s’appuient souvent que sur des échantillons restreints, en l’occurrence aux seuls pays développés. Jongrim Ha, Ayhan Kose et Franziska Ohnsorge (2019) ont récemment cherché à déterminer dans quelle mesure les taux d’inflation nationaux sont synchronisés au niveau mondial, mais en étudiant un large échantillon de pays, comprenant 25 pays développés et 74 pays émergents et en développement sur la période allant de 1970 à 2017. Leur analyse aboutit à cinq grands résultats.

Premièrement, Ha et ses coauteurs identifient bel et bien une composante mondiale dans les taux d’inflation, mais elle dépend du degré de développement des pays. Celle-ci explique 12 % de la variation des taux d’inflation nationaux sur la période allant de 1970 à 2017. Elle est plus importante (24 %) pour le pays développé médian, moins importante (10 %) dans le pays émergent médian et négligeable pour le pays à faible revenu médian.

Deuxièmement, la contribution de la composante mondiale à la variation de l’inflation était plus grande entre 1970 et 1985, c’est-à-dire au cours d’une période émaillées par deux chocs pétroliers et deux récessions mondiales), qu’entre 1986 et 2000 (cf. graphique). Les taux d’inflation se sont davantage synchronisés à partir de 2001, notamment dans le sillage de la crise financière mondiale de 2008, puis du contre-choc pétrolier de 2014-2016. Au cours de cette dernière période, la composante mondiale de l’inflation a expliqué 22 % de l’inflation nationale dans l’échantillon de pays développés. Ces résultats contrastent avec ceux obtenus par les précédentes études, qui ne mettaient pas en évidence une hausse du degré de synchronisation au cours de la période récente.

GRAPHIQUE  Contribution du facteur mondial à l’inflation (en %)

Troisièmement, les taux d’inflations nationaux se révèlent être davantage synchronisés que les taux de croissance de la production. Par exemple, depuis 2001, la contribution médiane du facteur mondial à la variation des taux de croissance de la production s’élevait à 12 %, soit près de deux fois moins que la contribution du facteur mondial à la variation des taux d’inflation.

Quatrièmement, outre une synchronisation au niveau mondial, il y a également une synchronisation des taux d’inflation au niveau de groupes de pays en particulier. Tout comme la synchronisation au niveau mondial, cette synchronisation régionale s’est accentuée après 2000.

Cinquièmement, la synchronisation de l’inflation se manifeste sur un nombre croissant d’indicateurs. Sur la période allant de 1970 à 1985, l’ampleur de la synchronisation de l’inflation n’apparaissait clairement que pour des indicateurs d’inflation donnant un poids important aux biens et services échangeables ; plus récemment, elle a été mise en évidence pour tous les indicateurs d’inflation.

Ha et ses coauteurs évoquent les différentes raisons susceptibles d'expliquer la synchronisation mondiale des taux d’inflation domestiques. Tout d’abord, celle-ci peut découler de l’existence de chocs communs, qui se diffusent pareillement et simultanément aux pays. Par exemple, les chocs touchant les prix des matières premières ou les chocs de demande aux origines des récessions mondiales peuvent fortement affecter le comportement des inflations domestiques, et ce dans le même sens. De même, une récession dans une grande économie risque d’avoir des répercussions sur l’activité et l’inflation de ses partenaires à l’échange [Huidrom et alii, 2017].

Plusieurs études ont mis l’accent sur les politiques monétaires nationales. D’une part, plusieurs banques centrales peuvent chercher à se coordonner ou à coopérer. D’autre part, si elles adoptent le même cadre de politique monétaire, elles auront tendance à se comporter similairement face aux chocs mondiaux. Par exemple, les banques centrales ont de plus en plus cherché à cibler un faible taux d’inflation à partir des années quatre-vingt-dix ; adoptant les mêmes objectifs, elles ont eu plus de chances de se comporter de la même façon.

Enfin, la synchronisation mondiale de l’inflation peut s’expliquer par des changements structurels. Par exemple, ces dernières décennies ont été marquées par un vague de mondialisations commerciale et financière, ce qui a pu contribuer à transmettre plus facilement des chocs d’un pays à l’autre. Un resserrement des liens commerciaux accroît l’exposition d’un pays aux chocs étrangers, si bien que l’inflation domestique devient plus sensible aux chocs touchant les prix à l’importation [Bianchi et Civelli, 2015]. Récemment, beaucoup d’études ont mis l’accent sur le rôle qu’a pu jouer l’apparition de chaines de valeur mondiales dans le sillage de la décomposition internationale des processus productifs [Auer et alii, 2017].

Cette plus grande synchronisation des taux d’inflation domestiques n’est pas sans affecter la mise en œuvre de la politique monétaire. Plusieurs banquiers centraux, notamment Ben Bernanke (2007), Mark Carney (2015) et Mario Draghi (2015) ont notamment souligné la nécessité pour les banques centrales de tenir compte de l’environnement international dans leurs décisions. Si l’inflation domestique dépend de plus en plus de facteurs extérieurs, alors les canaux de transmissions de la politique monétaire s’affaiblissent, si bien qu’il pourrait être de plus en plus nécessaire que les autorités budgétaires participent à la stabilisation de l’activité domestique. D’autre part, cette perte d’efficacité des politiques monétaires domestiques prises isolément plaide pour une plus forte coopération entre les banques centrales.

 

Références

Auer, Raphael, Claudio Borio & Andrew Filardo (2017), « The globalisation of inflation: The growing importance of global value chains », BRI, working paper, n° 602.

BERNANKE, Ben (2007), « Globalization and monetary policy », discours prononcé à Stanford.

BIANCHI, Francesco, & Andrea CIVELLI (2015), « Globalization and inflation: Evidence from a time varying VAR », in Review of Economic Dynamics, vol. 18, n° 2.

CARNEY, Mark (2015), « How is inflation affected by globalisation? », discours prononcé à la conférence de Jackson Hole.

Ciccarelli, Matteo, & Benoît Mojon (2010), « Global inflation », in Review of Economics and Statistics, vol. 92, n° 3.

DRAGHI, Mario (2015), « Global and domestic inflation », discours prononcé à l’Economic Club of New York. Traduction française, « Inflation mondiale et inflation intérieure ».

HA, Jongrim, M. Ayhan KOSE & Franziska L. Ohnsorge (2019), « Global inflation synchronization », Banque mondiale, policy research working paper, n° 8768.

HAKKIO, Craig S. (2009), « Global inflation dynamics », Federal Reserve Bank of Kansas City, research working paper, n° 09-01.

HUIDROM, Raju, M. Ayhan KOSE & Franziska OHNSORGE (2017), « How important are spillovers from major emerging markets? », Banque mondiale, policy research working paper, n° 8093.

Partager cet article
Repost0
6 mars 2019 3 06 /03 /mars /2019 16:59
Faut-il s'inquiéter de la dette publique lorsque les taux d’intérêt sont faibles ?

Alors qu’elles atteignaient déjà des niveaux jugés élevés, les dettes publiques ont fortement augmenté dans les pays développés dans le sillage de la crise financière mondiale, sous l’effet de l’érosion des recettes fiscales, puis de l’adoption de plans de relance, avant que la crainte que l’endettement public se retrouve sur une trajectoire explosive n’incite les gouvernements à embrasser l’austérité budgétaire. Aujourd’hui, une décennie après, l’activité économique semble à nouveau s’essouffler dans plusieurs pays à travers le monde. Les taux directeurs de plusieurs banques centrales étant déjà bas, les gouvernements pourraient être contraints de recourir à la relance budgétaire ; les autorités chinoises viennent d’ailleurs d’annoncer qu’elles laisseraient leur déficit public se creuser pour stimuler l'activité domestique. De l’autre côté de l’Atlantique, l’administration Trump n’a pas attendu une récession pour faire de même : elle a financé ses réductions d’impôts via une hausse de la dette publique, alors même que l’économie américaine est relativement proche du plein emploi. Et certains démocrates semblent explicitement reprendre certaines idées de la « modern monetary theory », notamment l’idée que les déficits publiques ne sont pas un problème lorsque l’inflation est très faible, comme aujourd’hui.

Lors de son allocution présidentielle à l’American Economic Association début janvier, Olivier Blanchard (2019a, 2019b) s’est justement penché sur les coûts de la dette publique (1). Il rappelle que l’accroissement de la dette publique est accusé d’entraîner un surcroît d’impôts dans le futur, donc de freiner par ce biais l’investissement, la consommation et plus largement l’activité économique. Blanchard doute que ce soit forcément le cas, en particulier dans le contexte actuel, marqué par de faibles taux d’intérêt. En l’occurrence, non seulement les taux d’intérêt sont faibles, mais ils sont plus faibles que les taux de croissance du PIB. Dans une telle situation, le gouvernement peut se contenter de refinancer sa dette : il peut émettre de nouveaux titres pour verser les intérêts qu’il doit, auquel cas la dette publique augmentera dans la proportion du taux d’intérêt. Mais la production nationale augmentera plus vite, et par là même les recettes fiscales, si bien que le ratio dette publique sur PIB pourrait avoir tendance à décliner sans que le gouvernement ait à augmenter les impôts. 

Or, selon les prévisions actuelles, la situation actuelle devrait se maintenir un long moment. Par exemple, aux Etats-Unis, le taux de croissance à dix ans du PIB nominal américain devrait être supérieur d’environ 1 point de pourcentage aux taux d’intérêt nominaux des obligations publiques. Le différentiel est encore même plus important dans d’autres économies développées : il s’élève à 2,3 points de pourcentage au Royaume-Uni, 2 points de pourcentage dans la zone euro et 1,3 point de pourcentage au Japon.

D’autre part, Blanchard note qu’une telle situation a été la règle plutôt que l’exception dans le passé. Par exemple, aux Etats-Unis, le taux d’intérêt à un an des bons du Trésor a été en moyenne inférieur au taux de croissance au cours des 150 dernières années. Depuis 1950, cela a été le cas au cours de chaque décennie, sauf lors des années quatre-vingt, lorsque le resserrement monétaire de Volcker s’est traduit par des taux d’intérêt énormes et une faible croissance économique (cf. graphique 1). En étudiant les données relatives à 55 pays depuis 1800, Paolo Mauro et alii (2015) ont abouti aux mêmes constats que Blanchard, de même que Philip Barrett (2018) à partir d’un échantillon plus restreint de pays. Au final, si l’avenir est à l’image du passé, alors l’Etat pourrait facilement refinancer sa dette, si bien que l’endettement public pourrait ne pas avoir de coût budgétaire.

GRAPHIQUE 1  Taux de croissance du PIB nominal et taux d’intérêt des bons du Trésor à un an aux Etats-Unis (en %)

Pour autant, ce n’est pas parce que l’endettement public est possible qu’il est désirable. Même lorsqu’il est dénué de coût budgétaire, il est accusé d’entraîner d’autres effets pervers susceptibles de réduire le bien-être collectif. En l’occurrence, beaucoup craignent que l’émission de titres publics évince l’investissement, ce qui aurait pour conséquence de freiner l’accumulation de capital, donc de déprimer la production et la consommation dans le futur : l’endettement public améliorait certes la situation des générations actuelles, mais au détriment des générations suivantes. Si Blanchard pense que de telles pertes existent, il estime toutefois qu’elles sont certainement plus faibles que ce qui est habituellement supposé.

Selon la littérature traditionnelle, le comportement de la consommation suite à un transfert intergénérationnel (comme celui opéré par un surcroît de dette publique) dépend en définitive de la relation entre le taux d’intérêt et le taux de croissance [Diamond, 1965]. Si le taux d’intérêt est plus faible que le taux de croissance, alors l’économie est dite « dynamiquement inefficiente », auquel cas la production et l’investissement diminuerait, mais la consommation tendrait à augmenter. Pour déterminer si c’est le cas, il faut alors déterminer quel taux d’intérêt utiliser. Faut-il prendre le taux de rendement moyen du capital ou bien le taux sans risque, c’est-à-dire celui des obligations souveraines ? Le second est plus faible que le taux de croissance, ce qui suggère que le taux de rendement du capital ajusté au risque est actuellement faible, donc que l’endettement public exerce des effets positifs sur le bien-être collectif. Par contre, le taux de rendement moyen du capital semble bien supérieur au taux de croissance. En effet, le ratio rapportant les bénéfices des sociétés américaines sur le montant du capital au coût de remplacement est resté élevé et relativement stable au cours du temps, ce qui suggère que la productivité marginale élevée et donc que l’endettement public exerce des effets négatifs sur le bien-être collectif (cf. graphique 2).

GRAPHIQUE 2  Ratios bénéfices sur coût de remplacement et bénéfices sur valeur boursière (en %)

Mais il apparaît aussi que le ratio rapportant les bénéfices des sociétés américaines sur leur valeur boursière a fortement diminué le début des années quatre-vingt : le q de Tobin a doublé au cours de la période. Par conséquent, soit le capital au coût de remplacement est mal mesuré et ne capture pas entièrement le capital immatériel, soit une part croissante des bénéfices provient des rentes, comme le suggèrent les études de Simcha Barkai (2016), de Jan De Loecker et Jan Eeckhout (2017) ou encore de Germán Gutiérrez et Thomas Philippon (2017). Dans le premier cas, le taux de bénéfices mesuré surestime le véritable taux. Dans le deuxième cas, le taux de bénéfices ne reflète pas seulement la productivité marginale du capital, mais aussi les rentes. Dans les deux cas, la productivité marginale du capital est surestimée. Au final, les preuves empiriques sont cohérentes avec l’idée d’une baisse de la productivité marginale du capital, donc avec l’idée de faibles coûts de l’endettement public en termes de bien-être. 

Bien sûr, Blanchard reconnaît que plusieurs contre-arguments peuvent être avancés. Par exemple, certains craignent que les choses soient différentes, que l’avenir ne soit pas comme le passé, en l’occurrence que le taux d’intérêt sans risque soit régulièrement plus élevé que le taux de croissance. D’autres craignent la présence d’équilibres multiples. Selon eux, les investisseurs perçoivent la dette publique comme sûre et où les taux d’intérêt sont par conséquent faibles, mais s’ils perçoivent (pour une raison ou une autre) la dette publique comme risquée, ils vont exiger un taux d’intérêt plus élevé, ce qui rendra la dette effectivement risquée : parce que les anticipations peuvent être autoréalisatrices, l’économie peut basculer à tout moment d’un bon à un mauvais équilibre. Pour Blanchard, l’idée des équilibres multiples constitue le contre-argument le plus sérieux, mais il note que ceux-ci ne disent en rien quel est le niveau approprié de dette publique : qu’importe son niveau initial, la baisse de cette dernière ne fait totalement disparaître le risque de se retrouver à un mauvais équilibre. En l’occurrence, l’adoption d’un plan d’austérité budgétaire ne réduit pas forcément le risque que l’on bascule à un mauvais équilibre, il pourrait même accroître ce risque, surtout si ses effets négatifs sur l’activité ne peuvent être compensés par un assouplissement de la politique monétaire.

Pour conclure, Blanchard recense les arguments justifiant le recours à l’endettement public lorsque l’économie américain connaît une faible demande globale, c’est-à-dire une situation où elle produit moins que son potentiel et où les taux de la politique monétaire sont contrainte par leur borne inférieure zéro (zero lower bound). Premièrement, lors d’une récession, non seulement les ménages et les entreprises sont plus contraints par leur revenu courant, mais en outre il y a peu de chances que la banque centrale réagisse à une relance budgétaire en relevant ses taux, si bien que les multiplicateurs budgétaires sont susceptibles d’être élevés : même un petit surcroît de dépenses publiques (donc une émission limitée de titres publics) est susceptible de grandement stimuler la production. Deuxièmement, dans un tel contexte, le surcroît de recettes publiques généré par la stimulation de l’activité est susceptible de compenser la hausse de la dette publique, si bien que la relance budgétaire pourrait au final s’autofinancer, surtout en présence d’effets d’hystérèse [DeLong et Summers, 2012]. Troisièmement, le financement des projets d’infrastructures publiques, dont le taux de rendement social ajusté selon le risque, dépasse le taux sûr auquel le gouvernement émet des titres. Quatrièmement, une situation de faible demande globale se caractérise aussi par un faible taux d’intérêt d’équilibre, en l’occurrence plus faible que le taux de croissance potentielle. Or, si un pays (comme cela semble notamment être le cas le Japon) est confronté à une stagnation séculaire, c’est-à-dire connaît une demande globale structurellement faible et un taux d’équilibre proche de zéro, voire négatif, alors le gouvernement pourrait avoir à générer des déficits primaires permanents pour ramener l’économie au plein emploi [Summers, 2015]

 

(1) Thomas Philippon (2019), Alexandre Delaigue (2019) et Jean-Marc Vittori (2019) en ont déjà donné de bons résumés.

 

Références

BARKAI, Simcha (2016), « Declining labor and capital shares », Université de Chicago, document de travail.

BARRETT, Philip (2018), « Interest-growth differentials and debt limits in advanced economies », FMI, working paper.

BLANCHARD, Olivier (2019a), « Public debt and low interest rates », PIIE, working paper, n° 19-4.

BLANCHARD, Olivier (2019b), « Public debt: Fiscal and welfare costs in a time of low interest rates », PIIE, policy brief, n° 19-2.

DE LOECKER, Jan, & Jan EECKHOUT (2017), « The rise of market power and the macroeconomic implications », NBER, working paper, n° 23687, août.

DELAIGUE, Alexandre (2019), « Quand l’ex chef économiste du FMI ébranle les idées reçues sur la dette », in Atlantico, 8 janvier.

DELONG, J. Bradford, & Lawrence H. SUMMERS (2012), « Fiscal policy in a depressed economy », Brookings Papers on Economic Activity, vol. 44.

DIAMOND, Peter (1965), « National debt in a neoclassical growth model », in American Economic Review, vol. 55, n° 5-1.

GUTIERREZ, Germán, &Thomas PHILIPPON (2017), « Declining Competition and Investment in the U.S. », NBER, working paper, n° 23583.

MAURO, Paolo, Rafael ROMEU, Ariel BINDER & Asad ZAMAN (2015), « A modern history of fiscal prudence and profligacy », in Journal of Monetary Economics, vol. 76.

PHILIPPON, Thomas (2019), « Le vrai coût de la dette publique », in Les Echos, 10 janvier.

SUMMERS, Lawrence (2015), « Demand side secular stagnation », in American Economic Review Papers and Proceedings, vol. 105.

VITTORI, Jean-Marc (2019), « Et si la dette publique était un faux problème ? », in Les Echos, 18 février.

Partager cet article
Repost0
23 février 2019 6 23 /02 /février /2019 11:24
Le singulier engagement de Robert Lucas dans le débat public

Si le monétarisme a ouvert les hostilités contre le keynésianisme, ce sont les nouveaux classiques, emmenés par Robert Lucas, qui lui ont asséné les coups les plus durs. Le keynésien Alan Blinder (1988) le regrette amèrement, voyant dans leur essor « le triomphe de la théorisation a priori sur l’empirisme, de l’esthétique intellectuelle sur l’observation et, dans une certaine mesure, de l’idéologie conservatrice sur le progressisme ». La place de Lucas dans les débats et les pratiques autour de la politique monétaire est toutefois ambiguë. Certains considèrent qu’il a contribué au tournant néolibéral de la fin des années soixante-dix, mais en y jouant un rôle mineur, tout du moins en comparaison avec celui qu’ont pu jouer Milton Friedman, James Buchanan et Arthur Laffer. D’autres, comme les historiens de la pensée économique Hoover (1988), Backhouse et Boianovsky (2013) et De Vroey (2009) considèrent Lucas comme le promoteur d’un changement majeur dans la théorie et la méthodologie macroéconomiques. A leurs yeux, la rupture introduite par les nouveaux classiques est encore plus importante que celle opérée par les monétaristes : finalement, ces derniers acceptaient peu ou prou le même cadre théorique que les keynésiens orthodoxes (notamment le modèle IS/LM), seules les interprétations et préconisations en termes de politique économique divergeaient. Avec l’arrivée des nouveaux classiques, ce ne sont plus les réponses qui changent, ce sont avant tout les questions que se posent les économistes. Il n’est alors pas étonnant de voir les hétérodoxes, en particulier les post-keynésiens, cristalliser leurs critiques sur la figure même de Lucas.

Aurélien Goutsmedt, Danielle Guizzo et Francesco Sergi (2018) ont étudié le programme de Robert Lucas en termes de politique économique et son engagement dans le débat public entre 1968 et 1987. Ils ont cherché à identifier précisément ses idées en matière de politique économique et la façon par laquelle il a promu celles-ci. Le programme qu’il a proposé s’oppose à la « gestion méticuleuse au jour le jour » proposée par les keynésiens, consistant notamment à entreprendre des actions de court terme pour régler des problèmes économiques de la période courante. Lucas a appelé à adopter une vision de long terme pour chercher à atténuer les fluctuations économiques : selon lui, il faut identifier correctement les sources institutionnelles de l’instabilité économique pour opérer les changements institutionnels appropriés [Lucas, 1977].

A ses yeux, cela correspond à ce qu’appelaient déjà de leurs vœux des théoriciens du cycle d’affaires comme Friedrich Hayek et Wesley C. Mitchell au début du vingtième siècle, mais ce programme avait été occultée par l’essor du keynésianisme à partir des années trente. En rédigeant la Théorie générale (1936), Keynes aurait notamment commis l’erreur d’abandonner l’objectif d’expliquer le cycle d’affaires, objectif qu’il poursuivait pourtant dans son Traité sur la monnaie (1930), pour se rabattre sur le seul objectif d’expliquer le chômage involontaire en un point du temps [De Vroey, 2009]. Non seulement il s’agit d’une véritable régression sur le plan théorique selon Lucas, mais celle-ci aurait eu pour conséquence de tromper toute une génération d’économistes sur le rôle de la politique économique et sur ce qu’ils peuvent apporter à celle-ci. « L’abandon de l’effort d’expliquer les cycles a été accompagné de la croyance que la politique économique était à même de causer immédiatement, ou à très court terme, un déplacement de l’économie de son état présent jugé indésirable, quelle que soit la manière dont on y soit arrivé, vers un état plus favorable » [Lucas, 1977, cité par De Vroey]. En l’occurrence, selon le programme keynésien, les politiques budgétaire et monétaire pouvaient et devaient être utilisées pour atteindre un taux de chômage particulier.

Ce conflit en termes d’agendas trouverait notamment sa source dans une divergence de croyances politiques, existante depuis plusieurs siècles, entre interventionnistes et partisans du laissez-faire : les premiers (auxquels se rattachaient naguère les mercantilistes et à présent les keynésiens) et les seconds se distingueraient selon la confiance dont ils feraient preuve ou non envers la capacité des économies de marché à s’autoréguler. L’essor du keynésianisme aux Etats-Unis aurait été alimenté par une plus grande acceptation de l’intervention de l’Etat dans l’économie. La macroéconomie keynésienne aurait été utilisée comme justification de cet activisme.

Les changements provoqués par la publication de la Théorie générale ont conduit à transformer le rôle que se donnaient les économistes : certains d’entre eux joueraient le rôle d’experts auprès des institutions en charge de la politique économique, tandis que les autres se contenteraient d’accroître le savoir universitaire pour équiper ces experts de nouvelles idées et les aider ainsi dans leur tâche. Le maintien d’une forte croissance dans les décennies suivant la Seconde Guerre mondiale, tenant pour Lucas davantage à la chance qu’aux politiques adoptées au cours de cette période, aurait cautionné le programme keynésien en matière de politique économique, jusqu’à ce que les chocs pétroliers et le ralentissement subséquent de la croissance dans les pays développés ne viennent démentir la justesse de ce programme. Pire, ce sont précisément les mesures keynésiennes adoptées dans les années soixante qui auraient conduit à la stagflation des années soixante-dix.

Pour Lucas, ces errements de la théorie et de la politique économique tiendraient finalement pour beaucoup au concept keynésien de chômage involontaire. Ce dernier ne correspondant à rien de concret, donc ne pouvant être mesuré, il est à ses yeux aberrant de faire de sa réduction un objectif de politique économique. Cela ne veut pas dire que Lucas considère la question du chômage comme sans importance ; il s’agit bien d’un problème à ses yeux, mais d’un problème pour lequel seules l’économie du travail et l’économie du bien-être pouvaient proposer des explications et des remèdes. Les macroéconomistes devaient par contre se contenter d’expliquer la seule chose qu’ils étaient à même d’expliquer, en l’occurrence le cycle d’affaires. Il rejoint les keynésiens à l’idée qu’il faut amortir les fluctuations des agrégats macroéconomiques, mais cet objectif ne peut-être atteint avec la « gestion méticuleuse au jour le jour » qu’ils proposent. Non seulement Lucas a foi en la capacité de l’économie de marché à s’autoréguler, mais il estime qu’un interventionnisme ne peut qu’amplifier le cycle d’affaires. C’est notamment ce que suggèrent ses fameux modèles de 1972 et 1977.

L’amortissement des fluctuations économiques passerait par l’adoption  de règles contraignant l’action des autorités. Celles que propose Lucas (1980) ne font, selon lui, qu’amender celles que proposait déjà Friedman (1948) quelques décennies plus tôt : la croissance à un rythme constant de la masse monétaire, la fixité du niveau des dépenses publiques et des taux d’imposition, l’équilibre budgétaire à long terme et l’absence d’intervention de l’Etat dans la fixation des salaires et des prix. De telles règles permettent d’offrir l’environnement le plus stable et le plus prévisible au secteur privé en empêchant tout dérapage de l’inflation et tout choc monétaire et budgétaire susceptible d’amplifier le cycle d’affaires. 

Lucas considérait d’ailleurs que les propositions des économistes de l’offre comme Laffer contrevenaient à son programme en matière de politique économique. L’administration Reagan avait par exemple adopté des baisses massives d’impôts, mais celles-ci manquaient de cohérence d’un point de vue intertemporel : elles entraient en conflit avec l’objectif d’équilibre des finances publiques et celui de stabilité des taux d’imposition, les baisses d’impôt étant sûrement promises à être suivies par des hausses d’impôts pour rembourser l’emprunt public ; elles entraient aussi en conflit avec l’objectif de stabilité des prix, l’accroissement de la dette publique étant susceptible de conduire, d’après Lucas, à un financement de l’endettement public via la création monétaire.

Pour autant, Lucas n’a pas rejoint dans le débat public les économistes qui proposaient des mesures similaires aux siennes, notamment les monétaristes. Il faut dire que ces derniers sont peut-être plus proches des keynésiens orthodoxes que des nouveaux classiques sur bien des plans, en premier lieu au niveau théorique. Ils partagent un effet une approche marshallienne de l’économie, tandis que les nouveaux classiques adoptent une approche néo-walrasienne, couplée avec l’adoption des anticipations rationnelles et de la discipline de l’équilibre et fusionnant modèle et théorie [De Vroey, 2009]. La critique de Lucas (1976) s’attaquait d’ailleurs à la modélisation telle que la concevaient les keynésiens et les monétaires : ceux-ci n’ont pas su proposer de modélisations capables d’évaluer plusieurs alternatives en matière de politique économique, notamment parce qu’ils ne prennent pas en compte le fait qu’un changement de politique économique amènent les agents à changer de comportement. Ses modèles, notamment celui de 1977, seraient immunes à cette critique, car les relations qui les sous-tendent seraient structurels, liés aux préférences des agents et à la technologie. 

En fait, poursuivant leur analyse, Goutsmedt et ses coauteurs en concluent que Lucas n’a pas activement cherché à promouvoir son programme en matière de politique économique. Contrairement à ses contemporains James Buchanan, Milton Friedman, Arthur Laffer, Robert Solow ou encore James Tobin, il n’a pas proposé de « plan d’action » pour mettre en œuvre efficacement ses recommandations en matière de politique économique, il n’a pas été une figure importante dans la presse ou le débat politique, il n’a pas non plus contribué activement au travail d’institutions en charge de la politique économique, de lobbies ou de think tanks. Contrairement à Walter Heller et Albert Hirschman, il n’a jamais été un conseiller officiel, ni même informel, pour les politiciens ou responsables de politique économique. Contrairement à Arthur Pigou, il n’est pas intervenu dans le débat public via les médias, des livres de vulgarisation ou des conférences pour exposer ses idées aux non-initiés. Contrairement à Franco Modigliani et Lawrence Klein, il n’a pas été membre d’un organisme consultatif pour les institutions responsables de la politique économique pour les guider dans la mise en œuvre de cette dernière.

Pour autant, Lucas n’est pas non plus resté isolé du débat public : il s’est intéressé aux débats politiques, il a entretenu une correspondance avec des politiciens, fit quelques interventions dans la presse et il anima le débat avec ses pairs qui travaillaient auprès d’institutions en charge de la politique économique. Mais cette participation dans le débat public n’a pas été délibérée : c’est le public qui sollicita Lucas pour qu’il exprime son opinion et ses conseils, non l’inverse. En fait, Lucas n’a jamais cherché à jouer un rôle d’expert et à faire valoir ses compétences pour parler de questions en matière de politique économique. Il a laissé d’autres de ses compères s’impliquer dans le débat politique. C’est par exemple le cas des théoriciens des cycles d’affaires réels comme Edward Prescott et Finn Kydland et surtout le cas de nouveaux classiques comme Thomas Sargent qui ont contribué à diffusé ses idées en matière de politique économique. C’est une finalement nouvelle raison nous amenant à croire qu’« il fallut un Sargent pour que Lucas puisse être Lucas » [Goutsmedt, 2018]

 

Références

BLINDER, Alan. S. (1988), « The fall and rise of Keynesian economics », in Economic Record, vol. 64, n° 4.

BACKHOUSE, Roger, & Mauro BOIANOVSKY (2013), Transforming Modern Macroeconomics. Exploring Disequilibrium Microfoundations (1956-2003), Cambridge University Press.

DE VROEY, Michel (2009), Keynes, Lucas, d’une macroéconomie à l’autre, Dalloz. 

FRIEDMAN, Milton (1948), « A monetary and fiscal framework for economic stability », in American Economic Review, vol. 38, n° 3.

GOUTSMEDT, Aurélien (2018), « Thomas Sargent face à Robert Lucas : une autre ambition pour la nouvelle économie classique », in OEconomia, vol. 8, n° 2.

GOUTSMEDT, Aurélien, Danielle GUIZZO & Francesco SERGI (2018), « An agenda without a Plan: Robert E Lucas’s trajectory through the public debate », CHOPE, working paper, n° 2018-14.

HOOVER, Kevin D. (1988), The New Classical Macroeconomics. A Skeptical Inquiry, Basil Blackwell.

LUCAS, Robert E. (1972), « Expectations and the neutrality of money », in Journal of Economic Theory, vol. 4, n° 2.

LUCAS, Robert E. (1976), « Econometric policy evaluation: A critique », Carnegie-Rochester Conference Series on Public Policy, vol. 1.

LUCAS, Robert E. (1977), « Understanding business cycles », Carnegie-Rochester Conference Series on Public Policy, vol. 5.

LUCAS, Robert E. (1980), « Rules, discretion, and the role of the economic advisor, in Stanley Fischer (dir.), Rational Expectations and Economic Policy, University of Chicago Press.

Partager cet article
Repost0
20 février 2019 3 20 /02 /février /2019 14:17
Les obligations souveraines depuis Waterloo

La bataille de Waterloo en 1815 n’a pas eu qu’un impact géopolitique. Elle constitue une date clé en finance internationale en marquant la naissance des marchés modernes de la dette publique et de ses cycles récurrents de hausse et d’effondrement [Reinhart et alii, 2003]. La défaite de Napoléon et la libération de l’Espagne de la domination française a conduit à l’indépendance d’une douzaine de nouvelles républiques en Amérique latine, dont les Etats ont rapidement cherché à se financer à l’étranger, notamment à Londres. Les pays émergents, notamment la Grèce qui émit alors ses premières obligations internationales [Reinhart et Trebesch, 2015], ont alors connu le premier boom de leur dette, un boom qui prit fin brutalement en 1825 en entraînant une panique financière. Depuis, les cycles de prêts et de défauts se sont répétés, touchant très souvent les mêmes pays (cf. graphique 1).

GRAPHIQUE 1  Fréquence annuelle de restructurations de la dette souveraine avec des créanciers privés étrangers

source : Meyer et alii (2019)

Dans la mesure où le marché de la dette souveraine externe connaît fréquemment des défauts, il semble peu rationnel de la part des investisseurs financiers de trouver ces titres attrayants. Pour comprendre pourquoi les investisseurs présentent un certain appétit pour cette classe d’actifs, Josefin Meyer, Carmen Reinhart et Christoph Trebesch (2019) ont cherché à déterminer ses rendements totaux. Pour ce faire, il leur a fallu tout d’abord prendre en compte l’évolution des cours obligataires. Ils ont alors compilé une nouvelle base de données comprenant environ 220.000 cours mensuels de 1.400 obligations publiques émises par 91 pays en devises étrangères et échangées à Londres et à New York entre 1815 et 2016. Ensuite, pour déterminer le rendement total de ces obligations, il leur a fallu déterminer les pertes que les créanciers ont essuyées avec les défauts souverains et les restructurations des dettes publiques. Pour cela, Meyer et ses coauteurs se sont appuyées sur leur base de données relative à 300 épisodes de crises de la dette souveraine qui ont éclaté depuis 1815.

GRAPHIQUE 2  Tendances dans les rendements des obligations souveraines 

source : Meyer et alii (2019)

Leur principal constat est que sur ce marché, à l’instar des marchés boursiers, les rendements sur les obligations souveraines externes ont été suffisamment élevés pour compenser le risque que prenaient leurs détenteurs (cf. graphiques 2 et 3). Les rendements réels ex post ont atteint en moyenne chaque année 6,8 % au cours des deux siècles étudiés, notamment lors des épisodes de défauts, des grandes guerres et des crises mondiales. Cela représente un excès de rendement d’environ 4 % par rapport aux obligations publiques étasuniennes ou britanniques considérées comme dénuées de risque, si bien que leurs rendements sont comparables à ceux des actions et sont supérieurs à ceux des obligations d’entreprises. Pour autant, les rendements tendent à être plus faibles dans les décennies davantage marquées par des crises.

GRAPHIQUE 3  Tendances dans les rendements des obligations souveraines 

source : Meyer et alii (2019)

Ces résultats contribuent à expliquer une énigme qui travaille les économistes en finance internationale depuis plusieurs décennies, en l'occurrence le fait que les emprunteurs souverains connaissent des cycles récurrents de surendettement et de défauts, suivis par leur retour sur le marché : beaucoup d’Etats émettent à nouveau des titres, malgré le fait qu’ils aient pu régulièrement faire défaut, même quelques temps auparavant. Jonathan Eaton et Mark Gersovitz (1981) estimaient qu’un Etat ne pouvait qu’être indéfiniment exclu des marchés financiers internationaux après avoir fait défaut, or ce n’est définitivement pas ce que montrent les données historiques [Panizza et alii, 2009]. Par exemple, en 2016, l’Etat argentin a de nouveau émis des titres sur les marchés internationaux à peine quelques mois après son septième défaut de paiement. 

GRAPHIQUE 4  Ampleur des allègements de dette souveraine (en %)

source : Meyer et alii (2019)

Pour autant, les rendements constatés sont difficiles à concilier avec les modèles de base de la littérature théorique et avec le degré du risque de crédit sur le marché, mesuré par les taux de défaut et de reprise au cours de l’histoire. Mais en s’appuyant sur leurs données relatives à 300 restructurations de dette souveraine depuis 1815, Meyer et ses coauteurs constatent que les dettes publiques sont rarement totalement annulées : leur allègement (haircut) médian s’élève à 44 % (cf. graphique 4). 

GRAPHIQUE 5  Rendements cumulatifs des obligations publiques autour des défauts souverains (en %)

De plus, les cours obligataires augmentent assez rapidement pendant et après les épisodes de défaut (cf. graphique 5). En conséquence, en moyenne, les créanciers récupèrent leur investissement dans les cinq années qui suivent le défaut souverain ; dans un quart des cas, ils comblent leurs pertes en moins d’un an. Certes, il y a des épisodes exceptionnels, comme des guerres, des révolutions ou des éclatements d’empires où ce n’est absolument pas le cas, mais en général, lors de la plupart des crises de la dette souveraine, les pertes que subissent les créanciers ne sont que partielles.

 

Références

EATON, Jonathan, & Mark GERSOVITZ (1981), « Debt with potential repudiation: Theoretical and empirical analysis », in Review of Economic Studies, vol. 48, n° 2.

MEYER, Josefin, Carmen M. REINHART & Christoph TREBESCH (2019), « Sovereign bonds since Waterloo », NBER, working paper, n° 25543.

PANIZZA, Ugo, Frederico STURZENEGGER & Jeromin ZETTELMEYER, (2009), « The economics and law of sovereign debt and default », in Journal of Economic Literature, vol. 47, n° 3.

REINHART, Carmen M., Kenneth S. ROGOFF & Miguel A. SAVASTANO (2003), « Debt Intolerance », in Brookings Papers on Economic Activity, vol. 34, n° 1.

REINHART, Carmen M., & Christoph TREBESCH (2015), « The pitfalls of external dependence: Greece, 1829-2015 », document de travail présenté lors de la conférence du Brookings Panel on Economic Activity, 10-11 septembre.

Partager cet article
Repost0
17 février 2019 7 17 /02 /février /2019 12:01
Quelles seront les répercussions à long terme du Brexit ?

Le référendum qui s’est tenu le 23 juin 2016 sur la question d’une éventuelle sortie du Royaume-Uni de l’UE s’est soldé par une victoire du « Leave ». Les négociations entre le Royaume-Uni et l’UE en vue de redéfinir leur relation ont commencé en juin 2017, avec pour date butoir le 29 mars 2019 pour trouver un accord, notamment sur la question de la frontière irlandaise et le possible maintien du Royaume-Uni dans une union douanière avec l’UE. Si aucun accord n’est trouvé à cette date-là, le Royaume-Uni deviendra un Etat tiers à l’UE, cette dernière passera officiellement de 28 à 27 pays-membres et les relations entre les deux entières seront régies par les règles de l’OMC. Pour l’heure, c’est bien vers un scénario d’une absence d’accord (« no deal »), c’est-à-dire celui d’un « Brexit dur » désordonné, vers lequel on semble aller. Qu’importe ce qui sera décidé ou non le 29 mars : une période de transition s’étendant jusqu’à fin 2020 est prévue.

En sortant de l’union douanière, la Grande-Bretagne verrait ses coûts d’échange en biens et services avec l’UE augmenter avec le relèvement des droits de douane. Autrement dit, les résidents du Royaume-Uni vont devoir payer plus cher pour importer des produits étrangers : les ménages verront leur pouvoir d’achat diminuer, tout en accédant à une moindre variété de produits ; les entreprises verront leurs coûts de production augmenter et pourront plus difficilement acquérir les produits étrangers pour les utiliser comme équipements ou comme biens intermédiaires. Outre les droits de douane, ce sont des barrières non tarifaires qui se restaureront, d'où des complexifications administratives, une lenteur dans les transactions, etc. A cela s’ajoute, surtout à court terme, la hausse de l’incertitude : tant que la nouvelle relation entre le Royaume-Uni et l’UE n’est pas définie, les entreprises sont incitées à adopter un comportement attentiste et à ne pas lancer de nouveaux projets d’investissement. En raison de la hausse de l'incertitude et des coûts de transaction, les flux d’investissements directs à l’étranger risquent de diminuer, surtout à destination du Royaume-Uni. En outre, avec la sortie du marché unique, ce sont aussi des barrières dans la mobilité des travailleurs qui se restaureront, réduisant le flux de travailleurs qualifiés vers le Royaume-Uni. Ces divers effets pervers pourraient d’ailleurs constituer un choc de productivité négatif pour le Royaume-Uni, dans la mesure où sa main-d’œuvre sera moins qualifiée et utilisera des produits moins performants comme équipements ou intrants.

Mais certains résidents du Royaume-uni tireront un gain d’une sortie de l’UE [Krugman, 2016]. En effet, le pays s’est spécialisé dans les services financiers et il a précisément vu son avantage dans cette spécialisation se renforcer avec son appartenance à l’UE : en raison des économies d’échelle, il est rentable de concentrer la production d’un service donné (en l’occurrence ici, celle des services financiers) en un lieu unique. Or, le rôle que la City de Londres joue en tant que centre financier majeur a conduit à pousser le taux de change de la livre sterling à la hausse ; et cette livre forte a pénalisé le secteur industriel et ses exportations, ce qui a pu non seulement contribuer à la désindustrialisation du Royaume-Uni (selon un mécanisme proche de celui de la « maladie hollandaise »), mais aussi accroître en retour ses incitations à se spécialiser dans les services financiers. Réciproquement, la sortie de l’UE pourrait certes nuire au secteur financier du Royaume-Uni, dans la mesure où les activités financières risquent d’être délocalisées sur le continuent pour profiter des économies d’échelle ; mais d’un autre côté, elle pourrait aussi rendre plus compétitive l’industrie britannique en conduisant à une dépréciation de la livre sterling. Bien sûr, l’accélération de l’inflation risque d’atténuer ces éventuels gains.

Dans tous les cas, le Brexit constitue au niveau agrégé un choc négatif, aussi bien pour le Royaume-Uni que pour l’UE. Si la sortie de l’UE n’est pas encore effective, elle a déjà des effets sur l’économie du Royaume-Uni. La croissance de son PIB en 2018 s’élève à 1,4 %, soit le rythme le plus lent depuis 2012. Le PIB est déjà inférieur de 2,5 % à ce qu’il aurait été s’il avait continué de croître au rythme qu’il suivait tendanciellement avant le référendum [Waechter, 2019]. La sortie effective de l’UE pourrait accroître ce coût, en particulier si elle se fait de façon désordonnée. 

Patrick Bisciari (2019) a passé en revue les diverses études officielles et universitaires qui ont cherché à déterminer l’impact à long terme du Brexit sur le PIB, aussi bien pour le Royaume-Uni que pour les autres pays-membres de l’UE. Il ne manque pas de souligner que les estimations sont très diverses d’une étude à l’autre, notamment parce qu’elles n’analysent pas le même scénario, notamment à propos de la forme que prendra la nouvelle relation commerciale entre le Royaume-Uni et l’UE ; et même pour un scénario à peu près similaire, les analyses ne font jamais les mêmes hypothèses et n’observent pas forcément les mêmes canaux de transmission pour juger des effets du choc du Brexit.

Bisciari a d’abord compilé les résultats des diverses études analysant le scénario de l’OMC, en l’occurrence celui d’un Brexit dur mais ordonné, ce qui est le scénario le plus souvent retenu. Comme pour d’autres scénarii, les estimations sont très diverses d’une étude à l’autre. L’impact en termes de PIB serait négatif pour le Royaume-Uni et l’UE à 27. Il serait plus large pour le premier que pour le second, essentiellement parce que l’UE à 27 représente un marché à l’export et un fournisseur plus importants pour le Royaume-Uni que ce dernier ne l’est pour l’UE à 27. Les estimations les plus pessimistes pointent des pertes supérieures à 5 points de pourcentage, voire supérieures à 10 points de pourcentage, pour le Royaume-Uni ; c’est notamment le cas du Trésor (2016) britannique, de Levell et alii (2018), de Pisani et Vergara Caffarelli (2018). Le gouvernement du Royaume-Uni (2018) estime que le seul canal du commerce entraînerait des pertes équivalentes à 7,6 % du PIB, et ce davantage en raison des barrières non tarifaires que des barrières tarifaires. Lorsqu’il considère le seul canal du commerce, le FMI (2018) aboutit à des pertes équivalentes à 4,2 % du PIB selon un modèle de concurrence monopolistique à la Krugman (1980) et à 6,4 % du PIB selon un modèle de concurrence monopoliste avec hétérogénéité des firmes à la Melitz (2003).

GRAPHIQUE  Estimations des pertes en termes de PIB dans le scénario de l’OMC (en %)

source : Bisciari (2019)

En moyenne, les pertes seraient de 0,6 % pour l’UE à 27 dans son ensemble. L’ampleur des pertes pour un pays dépend de son ouverture vis-à-vis du Royaume-Uni et certaines économies souffriraient davantage que cette dernière d’un Brexit dur. Ce sont l’Irlande, Malte et, seulement ensuite, le Royaume-Uni qui subiraient les pertes les plus amples, en l’occurrence supérieurs à 3 points de PIB. En l’occurrence, l’exposition de l’Irlande s’expliquerait par sa proximité géographique avec le Royaume-Uni, tandis que celle de Malte tient à son appartenance au Commonwealth. Après eux, ce sont les trois pays du Benelux qui seraient les plus affectés par un Brexit dur : les pertes médianes du Luxembourg représentaient plus du double que celles observées en moyenne pour l’ensemble de l’UE à 27 et s’expliqueraient par sa spécialisation dans les services financiers ; celles des Pays-Bas seraient à peine supérieurs à un point de pourcentage ; celles de la Belgique seraient d’environ un point de pourcentage. Les estimations médianes des pertes seraient égales à celles subies en moyenne par l’UE à 27, tandis qu’elles seraient légèrement inférieures à ces dernières pour les autres pays, notamment l’Allemagne, la France, l’Italie et l’Espagne, grâce notamment à l’importance de leur marchés domestiques et à la diversification de leur commerce extérieur qui leur permettent d’absorber plus facilement le choc du Brexit.

Diverses études, notamment celle du Vincent Vicard (2018) pour le CAE, ont analysé d’autres scénarii que celui de l’OMC. Aucune d’entre elles ne suggère un gain en termes de PIB en cas de Brexit soft, que ce soit pour le Royaume-Uni ou l’ensemble des pays-membres restants de l’UE. Ces études suggèrent que les pertes seraient réduites (relativement au scénario de l’OMC) si le Royaume-Uni et l’UE aboutissaient à un accord favorisant le commerce entre eux. Même dans le cas d’un accord commercial, les pertes en termes de PIB d’un Brexit soft seraient plus élevées pour le Royaume-Uni que pour l’UE à 27 dans son ensemble. Le maintien dans le Marché unique demeure la meilleure option pour que le Royaume-Uni minimise ses pertes : celles-ci seraient par deux, de même que pour l’UE à 27 dans son ensemble. Les pertes sont également réduites en cas de maintien dans l’union douanière.

Les coûts à long terme d’une sortie de l’UE, qu’importe la forme qu’elle prendra, ne seront pas négligeables, mais ils sont loin d’être aussi massifs que certains ont pu le prédire. Par contre, il est possible que le coût du Brexit soit plus important à court qu’à long terme ; la Banque d’Angleterre (2018) évoquait la possibilité d'un choc plus dommageable que la récente crise financière. Selon Paul Krugman (2019), c’est surtout l’absence d’infrastructures douanières aux frontières qui pourrait particulièrement nuire aux échanges commerciaux entre le Royaume-Uni et l’UE ; malgré le fait que le référendum ait été tenu il y a près de trois ans, il n’y a pas eu depuis de réelles avancées sur ce front-là, ce qui démontre l’extrême impréparation des responsables politiques des deux côtés de la Manche. Ce sont ainsi les barrières non tarifaires qui vont se révéler les plus dommageables : les files d’attente des poids-lourds s’allongeront sur les routes et autoroutes, à Douvres comme à Calais, les biens prioritaires ne passeront pas forcément à temps les frontières, etc

Du côté de l’UE et notamment de la zone euro, le choc du Brexit est d’autant plus mal venu que la croissance semble ralentir depuis quelques mois parmi les pays-membres, que plusieurs d’entre eux sont toujours éloignés du plein emploi et que la marge de manœuvre des politiques conjoncturelles semble réduite : les niveaux de dette publique sont élevés et les taux directeurs de la BCE sont déjà à zéro, si bien que les gouvernements et la banque centrale peuvent difficilement stabiliser l’économie en cas de choc majeur. 

 

Références

Banque d’Angleterre (2018), EU withdrawal scenarios and monetary and financial stability, novembre.

BISCIARI, Patrick (2019), « A survey of the long-term impact of Brexit on the UK and the EU27 economies », Banque nationale de Belgique, working paper, n° 366.

FMI (2018), « Brexit : Sectoral impact and policies », United Kingdom - Selected issues, country report, n° 18/317.

Gouvernement du Royaume-Uni (2018), EU Exit: Long-Term Economic Analysis, novembre.

KRUGMAN, Paul (1980), « Scale economies, product differentiation, and the pattern of trade », in American Economic Review, vol. 70.

KRUGMAN, Paul (2016), « Notes on Brexit and the pound », in The Conscience of a Liberal (blog), 11 octobre. Traduction française, « Quelques remarques sur le Brexit et la livre sterling ».

KRUGMAN, Paul (2019), « What to expect when you’re expecting Brexit », 16 janvier. Traduction française, « Brexit : le court terme pourrait aussi être mauvais pour le reste de l’Europe ».

LEVELL, Peter, Anand MENON, Thomas SAMPSON & Jonathan PORTES (2018), « The economic consequences of the Brexit deal », CEP.

MELITZ, Marc J. (2003), « The impact of trade on intra-industry reallocations and aggregate industry productivity », in Econometrica, vol. 71, n° 6.

PISANI, Massimiliano, & Filippo VERGARA CAFFARELLI (2018), « What will Brexit mean for the UK and euro area economies? A model-based assessment of trade regimes », Banque d’Italie, temi di discussione, n° 1163.

Trésor de sa Majesté (2016), HM Treasury analysis: the long-term economic impact of EU membership and the alternatives, 19 avril.

VICARD, Vincent (2018), « Une estimation de l’impact des politiques commerciales sur le PIB par les nouveaux modèles quantitatifs de commerce », Focus du CAE, n° 22.

WAECHTER, Philippe (2019), « Le coût cumulé est élevé depuis le référendum », 12 février.

Partager cet article
Repost0
10 février 2019 7 10 /02 /février /2019 08:46
L’inflation est-elle au coin de la rue ?

L’économie américaine est officiellement sortie de la Grande Récession en juin 2009. L’expansion qui s’est amorcée à cette date ne s’est, jusqu’à présent, pas interrompue, si bien que les Etats-Unis auront connu, quoiqu’il arrive, l’une des plus longues expansions de son histoire. Depuis le début de la reprise, le taux de chômage a régulièrement diminué et atteint des niveaux particulièrement faibles : il est passé sous les 4 % ces derniers mois, soit un niveau inférieur à celui qu’il atteignait à la veille de la crise financière. La durée exceptionnelle de l’expansion et la faiblesse du taux de chômage alimentent les craintes d’une forte accélération de l’inflation. Et pourtant, cette dernière reste à un faible niveau. Elle se comporte à peu près pareillement dans d’autres pays développés, en particulier la zone euro (même s’il faut avouer que la reprise a été moins robuste au sein de celle-ci). Jared Bernstein (2017) y voit « l’énigme numéro une en économie ».

Ce n’est pas la première fois que le comportement de l’inflation surprend les économistes. Ces derniers ont souvent étudié le lien entre inflation et activité au prisme de la courbe de Phillips, mais le comportement de l’inflation lors de la Grande Récession, puis lors de la subséquente reprise a semblé infirmé une telle relation. En effet, malgré la forte hausse du chômage aux Etats-Unis et dans plusieurs pays développés, l’inflation y est restée relativement stable, alors qu’une courbe de Phillips traditionnelle aurait suggéré qu’une forte déflation apparaisse dans un tel contexte. Certains ont alors parlé d’une « désinflation manquante » (missing deflation). Pour l’expliquer, certains ont suggéré que la crédibilité des banques centrales aurait permis d’ancrer les anticipations d’inflation ; d’autres ont évoqué un aplatissement de la courbe de Phillips [FMI, 2013]. Pour d’autres encore, comme Larry Summers (2017) et The Economist (2017), la courbe de Phillips serait tout simplement morte. Alan Blinder (2018) suggère qu’elle est peut-être « juste partie en vacances », tandis qu’Olivier Blanchard (2016) la croit toujours vivante, mais précise qu’elle n’a jamais été bien fébrile : la relation n’a jamais été bien robuste.

Deux nouvelles lignes de défense de la courbe de Phillips ont été récemment proposées. Dans la première, Laurence Ball et Sandeep Mazumder (2019) estiment que le comportement de l’inflation est plus facile à comprendre si nous divisons l’inflation globale en une inflation sous-jacente et un résidu transitoire et si l’inflation sous-jacente est mesurée, comme le préconisaient Michael Bryan et Stephen Cecchetti (1994), par la médiane pondérée des taux d’inflation des différents secteurs. L’inflation sous-jacente est habituellement mesurée en prenant le taux d’inflation et en retranchant de celui-ci les prix des aliments et de l’énergie. Ces derniers sont en effet très volatiles, mais d’autres secteurs connaissent aussi d’amples variations des prix qui influencent fortement le taux d’inflation global. La médiane pondérée est moins volatile que la mesure traditionnelle de l’inflation sous-jacente, car elle élimine les amples variations des prix dans toutes les industries.

Ball et Mazumder démontrent l’opportunité d’utiliser la médiane pondérée en étudiant le comportement de l’inflation en 2017 et au début de l’année 2018. Au cours de cette période, la mesure traditionnelle de l’inflation sous-jacente suggérait que celle-ci avait chuté, chose que le comité de politique monétaire de la Fed ne parvenait pas à comprendre. Mais la médiane pondérée ne chuta pas autant au cours de cette période, parce qu’elle excluait la forte baisse des prix que connurent plusieurs secteurs de l’économie.

Pour Ball et Mazumder, la courbe de Phillips est bien vivante aux Etats-Unis, mais elle n’explique que l'inflation sous-jacente. Une courbe de Phillips reliant la médiane pondérée au chômage apparaît clairement dans les données pour la période allant de 1985 à 2017 et il n’y a pas de rupture dans cette relation en 2008.

De leur côté, Olivier Coibion et Yuriy Gorodnichenko (2015) avaient suggéré que l’absence de déflation durant la Grande Récession étant tout à fait compatible avec la courbe de Phillips, à condition que celle-ci soit augmentée des anticipations. En l’occurrence, la hausse des prix du pétrole entre 2009 et 2011 aurait amené les ménages à relever leurs anticipations d’inflation, ce qui aurait empêché l’inflation de ralentir autant que l’aurait mécaniquement impliqué la chute de l’activité.

GRAPHIQUE 1  La courbe de Phillips augmentée des anticipations

Olivier Coibion, Yuriy Gorodnichenko et Mauricio Ulate (2019) ont compilé les données relatives à plusieurs économies pour lesquelles des enquêtes ont été réalisées depuis suffisamment longtemps auprès des entreprises ou des ménages, en l’occurrence 17 pays développés et la zone euro prise dans son ensemble. Ils mettent en évidence une relation négative et robuste entre l’écart d’inflation (c’est-à-dire l’écart entre l’inflation observée et l’inflation anticipée) et l’écart de chômage (c’est-à-dire l’écart entre le taux de chômage observé et le taux de chômage naturel) : lorsque l’inflation tend à être supérieure à l’inflation anticipée dans un pays, alors le taux de chômage tend à être inférieur à son niveau naturel (cf. graphique 1). Par contre, il n’y a pas de véritable relation entre les variations de l’inflation et les écarts de chômage, ce qui amène Coibion et ses coauteurs à douter que le lien entre l’inflation et le degré de mollesse de l’activité puisse être décrit par une courbe de Phillips accélérationniste à la Friedman (1968) : les anticipations d’inflation jouent un rôle crucial, mais il ne s’agit pas d’anticipations adaptatives.

GRAPHIQUE 2  Ecarts d’inflation américain et mondial

Coibion et ses coauteurs estiment que cette relation permet de juger du degré de mou dans l’activité économique : il est possible d’avoir une idée de l’écart de chômage en déterminant l’écart d’inflation. Par exemple, si l’inflation est bien en-deçà de son niveau anticipé, il est peu probable que le chômage soit en-deçà de son niveau naturel. En utilisant les données qu’ils ont collectées sur les anticipations d’inflation, Coibion et ses coauteurs cherchent alors à estimer l’écart d’inflation mondial, c’est-à-dire la composante commune dans l’écart entre l’inflation observée et l’inflation anticipée que l’on observe dans les pays développés. L’écart d’inflation aux Etats-Unis et l’écart d’inflation mondial présentent les mêmes évolutions (cf. graphique 2). Durant l’essentiel des années deux mille, ils ont été nuls ou proches de zéro, puis ils ont commencé à devenir négatifs au début de la Grande Récession. Les niveaux d’inflation se sont davantage éloignés de leurs niveaux anticipés entre 2011 et 2014. Depuis le point bas qu’ils ont atteint au milieu des années deux mille dix, les écarts d’inflation se sont régulièrement réduits, suggérant que les pressions déflationnistes qui se sont manifestées dans le sillage de la Grande Récession se sont pour l’essentiel dissipées. Pour autant, les écarts d’inflation restent négatifs, ce qui suggère que l’activité reste molle non seulement aux Etats-Unis, mais aussi dans la plupart des autres pays développés. Autrement dit, les écarts de production se referment, mais il y a encore du mou dans l’activité économique. Par conséquent, l’inflation ne semble pas sur le point de fortement s’accélérer, du moins pas tant que les anticipations d’inflation ne soient pas fortement révisées à la hausse ou que le chômage ne chute pas brutalement.

 

Références

BALL, Laurence M., & Sandeep MAZUMDER (2019), « The nonpuzzling behavior of median inflation », NBER, working paper, n° 25512.

BERNSTEIN, Jared (2017), « Two inflation puzzles, one inflation monster », in The Washington Post, 11 septembre.

BLANCHARD, Olivier (2016), « The US Phillips curve: Back to the 60s? », PIIE, policy brief, n° 16-1.

BLINDER, Alan (2018), « Is the Phillips curve dead? And other questions for the Fed », in Wall Street Journal, 3 mai.

BRYAN, Michael, & Stephen CECCHETTI (1994), « Measuring core inflation », in Gregory Mankiw (dir.), Monetary Policy, NBER.

COIBION, Olivier, & Yuriy GORODNICHENKO (2015), « Is the Phillips curve alive and well after all? Inflation expectations and the missing disinflation » in American Economic Journal: Macroeconomics, vol. 7, n° 1.

COIBION, Olivier, Yuriy GORODNICHENKO & Mauricio ULATE (2019), « Is inflation just around the corner? The Phillips Curve and global inflationary pressures », NBER, working paper, n° 25511.

The Economist (2017), « The Phillips Curve may be broken for good », 1er novembre.

FMI (2013), « The dog that didn’t bark: Has inflation been muzzled or was it just sleeping », World Economic Outlook, chapitre 3, avril. Traduction française, « Telle l’histoire du chien qui n’a pas aboyé : l’inflation a-t-elle été muselée, ou s’est-elle simplement assoupie? », Perspectives de l’économie mondiale, chapitre 3.

FRIEDMAN, Milton (1968), « The role of monetary policy », in American Economic Review, vol. 58.

SUMMERS, Lawrence (2017), « America needs its unions more than ever », in The Financial Times, 3 septembre.

Partager cet article
Repost0
8 février 2019 5 08 /02 /février /2019 21:21
Pourquoi la reprise a tardé ? La crise de l'euro au prisme de la crise du SME

Alors que les Etats-Unis ont renoué avec la croissance dès 2009, la zone euro ne l’a véritablement fait qu’à partir du deuxième trimestre de l’année 2017, soit dix ans après le début de la crise financière mondiale. Afin d’éclairer pourquoi la reprise a été si longue à s’amorcer suite à la crise de l’euro, Giancarlo Corsetti, Barry Eichengreen, Galina Hale et Eric Tallman (2019) ont comparé celle-ci avec la crise du système monétaire européen qui a éclaté en 1992-1993.

Certes, de nombreuses différences existent entre les deux crises. Par exemple, elles n’ont pas résulté des mêmes chocs. La crise du SME au début des années quatre-vingt-dix a été déclenchée par un resserrement monétaire en Allemagne : la Bundesbank avait fortement relevé ses taux d’intérêt pour contenir l’inflation générée dans le sillage de la réunification. Les autres banques centrales du SME ont alors été poussées à resserrer également leur politique monétaire pour défendre leur parité, ce qui a transmis le choc de demande à l’ensemble des pays-membres. Quant à la crise de l’euro, elle a été amorcée en 2008 par un choc provenant de l’extérieur, en l’occurrence la crise financière des Etats-Unis, qui s’est notamment transmise aux pays européens via le système bancaire. Mais ce choc est survenu dans un contexte de déséquilibres qui auraient fini par se dénouer tôt ou tard. Des pays de la périphérie de la zone euro connaissaient un ample déficit courant et la formation de bulles immobilières alimentées par les entrées de capitaux. Le resserrement des conditions de financement dans le sillage de la crise financière mondiale a entraîné un arrêt dans ces flux de capitaux, ce qui fit éclater les bulles immobilières et imposa à ces pays un douloureux rééquilibrage de leur balance courante.

Et pourtant, Corsetti et ses coauteurs notent que ces deux épisodes partagent de nombreux points communs : les pays ayant les fondamentaux les plus mauvais ont connu une fuite des capitaux, des anticipations auto-réalisatrices ont amplifié les turbulences sur les marchés financiers et des changes, les primes de risque se sont accrues, le secteur bancaire a connu de grandes difficultés, etc.

Malgré ces similarités, les pays du SME ont connu au début des années quatre-vingt-dix de moindres pertes de production que celles essuyées par les pays-membres de la zone euro il y a une décennie. Et ils ont renoué plus rapidement avec la croissance économique. En comparant les deux épisodes, Corsetti et ses coauteurs espèrent identifier ce qui explique pourquoi la reprise a tant tardé suite à la crise de l’euro. Ils ont tiré six leçons de cet exercice.

Premièrement, à partir de 2009 il y a eu un puissant cercle vicieux entre les turbulences bancaires et les difficultés rencontrées par les finances publiques : plus les banques rencontraient des difficultés, plus l’Etat devait intervenir pour les secourir, plus la dette publique s’en trouvait ; les banques détenaient beaucoup de titres publics domestiques, si bien que lorsque la dette publique d’un pays augmentait, la situation financière des banques domestiques se dégradait mécaniquement [Brunnermeier et alii, 2016]. Il n’y avait pas un tel cercle vicieux en 1992, notamment parce que les bilans des banques étaient moins importants et qu’en conséquence la résolution des défaillances bancaires pesait moins sur les finances publiques.

Deuxièmement, le renversement du solde courant était plus massif en 2010 qu’au début des années quatre-vingt-dix, ce qui impliquait un plus ample ajustement des prix relatifs.

Troisièmement, il était plus difficile de réaliser cet ajustement des prix relatifs en 2010. En 1992, les pays avaient encore leur propre monnaie nationale, si bien qu’ils pouvaient s’ajuster via leur taux de change. En 2010, les pays de la zone euro partageaient la même monnaie, si bien qu’ils ne disposaient plus de ce moyen d’ajustement. De plus, le taux de change de la zone euro est principalement déterminé par la situation des pays constituant son « cœur », notamment l’Allemagne. Par conséquent, il ne s’est pas déprécié aussi amplement que le nécessitaient les pays périphériques pour ajuster plus facilement leurs prix relatifs.

Quatrièmement, les déficits et dettes publics étaient moins importants au début des années quatre-vingt-dix et, pour cette raison-là, les banques centrales nationales pouvaient plus facilement intervenir pour stabiliser le marché de la dette publique, si bien que les primes de risque souverain étaient moins sensibles aux perspectives entourant les finances publiques. Ainsi, en 2010, les gouvernements disposaient d’une moindre marge de manœuvre pour assouplir leur politique budgétaire et étaient au contraire davantage incités à adopter des mesures d’austérité pour stabiliser leur endettement (cf. graphique). Autrement dit, non seulement la politique budgétaire n’a pas pu être utilisée pour contenir la récession, mais elle a pu au contraire l’aggraver.

GRAPHIQUE  La consolidation budgétaire dans le sillage de la crise de l’euro (en % du PIB)

Cinquièmement, la réduction des déficits courants après 2009 ne pouvaient passer que par une réduction des importations. Cette dernière s’est opérée via une baisse des dépenses publiques et une baisse de la consommation de ménages cherchant à se désendetter. La baisse subséquente de la demande domestique a non seulement aggravé la récession, mais elle a aussi déprimé les recettes publiques et augmenté les défauts de paiement, ce qui a détérioré le bilan des entreprises, des banques et des gouvernements.

Sixièmement, en 1992-1993, les banques centrales des pays qui ont pu rencontrer de tels problèmes pouvaient réduire leurs taux d’intérêt pour soutenir la demande domestique et contenir la détérioration des bilans. Mais la BCE fixe ses taux directeurs en considérant la situation de l’ensemble de la zone euro, si bien qu’en 2009-2010 elle n’a pas réduit ses taux d’intérêt autant que le nécessitait la situation des pays-membres les plus en difficulté.

Au final, Corsetti et ses coauteurs en concluent qu’il n’est possible de gérer d’amples chocs macroéconomiques que s’il existe un soutien crédible pour les banques et les marchés de la dette publique. En l’absence d’un tel soutien, les chocs tendent à s’amplifier de façon endogène. Les banques et les marchés de la dette publique disposaient d’un tel soutien au cours de la crise du SME, mais non durant la crise de la zone euro. Aucune réforme n'a pour l'heure changé la donne, ce qui laisse la zone euro vulnérable à nouvelle crise.

 

Références

BRUNNERMEIER, Markus K., Luis GARICANO, Philip R. LANE, Marco PAGANO, Ricardo REIS, Tano SANTOS, David THESMAR, Stijn VAN NIEUWERBURGH & Dimitri VAYANOS (2016), « The sovereign-bank diabolic loop and ESBies », in American Economic Review, vol. 106, n° 5.

CORSETTI, Giancarlo, Barry EICHENGREEN, Galina HALE & Eric TALLMAN (2019), « The Euro crisis in the mirror of the EMS: How tying Odysseus to the mast avoided the sirens but led him to Charybdis », Federal Reserve Bank of San Francisco, working paper, n° 2019-04.

Partager cet article
Repost0
3 février 2019 7 03 /02 /février /2019 15:19
La Fed doit-elle être contrainte ?

Jeffrey Frankel (2019) est récemment revenu sur deux questions qui le travaillent depuis longtemps. D’une part, dans quelle mesure la banque centrale doit-elle être contrainte, c’est-à-dire dans quelle mesure la politique monétaire doit-elle être sous la seule discrétion de la banque centrale ? D'autre part, si une règle doit être suivie, plus ou moins scrupuleusement, de quelle règle doit-il s’agir ?

S’attaquant tout d’abord à la seconde question, Frankel rappelle que, par le passé, les banques centrales ont eu des difficultés à atteindre des cibles nominales, qu’il s’agisse du prix de l’or, du taux de change, du taux de croissance de la monnaie ou du taux d’inflation. Lorsque le chef de file des monétaristes Milton Friedman (1948) donna la priorité de la règle sur la discrétion, il avait en tête une règle imposant une croissance constante de l’offre de monnaie. C’est un tel objectif que les banques centrales cherchèrent à atteindre au début des années quatre-vingt, mais elles l’abandonnèrent rapidement car la demande et la vitesse de circulation de la monnaie étaient plus instables que ne le pensaient Friedman.

A partir des années quatre-vingt-dix, les banques centrales adoptèrent le ciblage d’inflation : en l'occurrence, elles ont cherché à cibler un taux d’inflation de 2 % [Svensson, 1999]. Mais elles échouèrent là aussi souvent à atteindre leur objectif : très souvent le taux d’inflation a pu être supérieur à la cible. Depuis la crise financière mondiale de 2008, le taux d’inflation est dans beaucoup de pays inférieur à la cible poursuivie par les autorités monétaires, malgré les mesures massives que ces dernières ont pu adopter : la Fed a par exemple quadruplé sa base monétaire, ce qui a certes pu ramener l’économie américaine à une situation que l’on peut qualifier de plein-emploi, mais sans vraiment avoir d’effet sur l’inflation.

La Grande Récession et la faiblesse de la reprise qui s’ensuivit ont rouvert le débat sur les objectifs poursuivis par les banques centrales. L’une des alternatives au ciblage d’inflation qui a recueilli beaucoup d’attention est le ciblage du niveau des prix. En ciblant un niveau des prix, les banques centrales seraient d’autant plus incitées à assouplir ou resserrer leur politique monétaire qu’elles ont antérieurement raté leur cible, ce qui leur permettrait de corriger en partie leur erreur. Frankel estime que cette alternative est moins efficace que le ciblage d’inflation, dans la mesure où elle repose davantage sur la crédibilité d’une telle cible aux yeux du public. Une autre alternative consiste à garder le ciblage d’inflation, mais en relevant la cible à 3 %, voire 4 % [Blanchard et alii, 2010 ; Ball, 2014]. Pour Frankel, un tel relèvement est d’autant moins crédible que les banques centrales se sont révélées incapables d’atteindre une cible plus modeste de 2 %.

Frankel doute également de l’efficacité des règles qui imposent à la banque centrale une fonction de réaction comprenant plusieurs variables. Il prend l’exemple de la règle de Taylor (1993). Si elle avait été adoptée, cette dernière aurait imposé à la banque centrale d’adopter en 2008, lorsque l’économie américaine basculait dans la récession, un taux d’intérêt de – 3 %, soit un niveau impossible à fixer.

Si les banques centrales devaient aujourd’hui choisir une cible, Frankel plaide pour l’adoption du ciblage du PIB nominal. Cette dernière avait été initialement proposée par James Meade (1978) et James Tobin (1980). Elle a été remise au goût du jour autour de 2011-2012, dans le contexte de lente reprise et de faible inflation que les pays développés connaissaient dans le sillage de la crise financière, notamment par Christina Romer (2011), Hatzius (2011), Michael Woodford (2012) et ceux qui se sont autoproclamés « monétaristes de marché » comme David Beckworth, Scott Sumner et Lars Christensen.

Si Frankel y voit la meilleure alternative, ce n’est pas parce qu’il s’agit d’une cible parfaite, mais parce qu’elle est la moins dommageable parmi les alternatives. Le ciblage du PIB nominal a notamment pour vertu d’être robuste dans le cas de chocs de productivité ou de fluctuations des produits de base, alors que les cibles d’inflation sont vulnérables face à de tels chocs. En effet, imaginons que l’économie connaisse un choc d’offre négatif, auquel cas les prix auront tendance à augmenter et l’économie à basculer dans une récession. Si la banque centrale cible un taux d’inflation, elle réagira en resserrant sa politique monétaire, ce qui est non seulement injustifié (l’inflation ne résulte pas d’un excès de demande), mais aussi néfaste (le resserrement monétaire aggrave la récession). Si la banque centrale cible un niveau du PIB nominal, elle resserra certes sa politique monétaire, mais moins amplement, dans la mesure où l’inflation tend à augmenter le PIB nominal, tandis que la récession tend au contraire à réduire ce dernier. Autrement dit, le choc se traduira à la fois par une perte en termes de production et une perte en termes de stabilité des prix. D’autre part, le ciblage d’inflation aurait l’avantage d’améliorer la répartition des risques entre débiteurs et créanciers, ce qui contribue à assurer la stabilité financière.

Dans tous les cas, Frankel s’avoue de plus en plus convaincu que la contrainte (qu’il s’agisse ou non d’une cible du PIB nominal) doit être très souple. Même le plus sincère des banquiers centraux peut s’avérer incapable d’atteindre sa cible, en raison d’événements imprévisibles. C’est une raison pour ne pas imposer une cible précise à court terme ; il peut y avoir une bande autour de la cible ou bien cette dernière peut être appréciée à plus long terme.

Après avoir étudié la contrainte que les règles peuvent exercer sur la banque centrale, Frankel se penche sur celle qu’exerce le gouvernement. Ces dernières années, beaucoup ont critiqué l’indépendance de la Réserve fédérale : beaucoup craignaient lors de la Grande Récession que les mesures extrêmement accommodantes adoptées par la banque centrale ne fassent déraper l’inflation, alors même que le taux de chômage avoisinait les 10 %. Plus récemment, alors que le taux de chômage américain est repassé sous les 4 %, Donald Trump a ouvertement critiqué le relèvement des taux directeurs de la Fed, n’hésitant pas à dire de cette dernière qu’elle est « hors de contrôle » et à critiquer son président, Jerome Powell, celui-là même qu’il a mis en place.

Les déclarations de Trump (1) et les épisodes historiques que Frankel (2007) a étudiés suggèrent que si la banque centrale perdait de son indépendance vis-à-vis du pouvoir politique, sa politique monétaire risquerait de devenir plus procyclique, ce qui amplifierait le cycle d’affaires. Autrement dit, la banque centrale risque d’assouplir sa politique monétaire quand l’économie est en expansion et les tensions inflationnistes fortes, accroissant le risque de surchauffe et d’instabilité financière ; et elle risque de resserrer sa politique monétaire dans un contexte de récession et de pressions déflationnistes, aggravant celles-ci.

 

(1) Le 29 septembre 2011, alors que le chômage s’élevait toujours à 9 %, Trump qualifia sur Twitter de dangereux le maintien des taux directeurs à un faible niveau et appela la Fed à abandonner cette politique, sous peine de générer un dérapage de l’inflation. Autrement dit, Trump appelle la Fed à resserrer sa politique monétaire lorsque le chômage est élevé et à l’assouplir lorsqu’il est faible.

 

Références

BALL, Laurence (2013), « The case for a long-run inflation target of four percent », FMI, working paper, n° 14/92.

BLANCHARD, Olivier, Giovanni DELL’ARICCIA & Paolo MAURO (2010), « Rethinking macroeconomic policy », FMI, staff position note, n° 10/03.

FRANKEL, Jeffrey (2007), « Responding to crises », in Cato Journal, vol. 27, n° 2.

FRANKEL, Jeffrey (2019), « Should the Fed be constrained? », Harvard Kennedy School, research working paper, n° 19-003.

FRIEDMAN, Milton (1948), « A monetary and fiscal framework for economic stability », in American Economic Review, vol. 38, n° 3.

HATZIUS, Jan (2011), « The case for a nominal GDP level target », in Goldman Sachs, US Economics Analyst, n° 11/41.

MEADE, James (1978), « The meaning of internal balance », in The Economic Journal, vol. 88.

ROMER, Christina (2011), « Dear Ben: It’s time for your Volcker moment », in The New York Times, 30 octobre.

SVENSSON, Lars (1999), « Inflation targeting as a monetary policy rule », in Journal of Monetary Economics, vol. 43, n° 3.

TAYLOR, John B. (1993), « Discretion versus policy rules in practice », Carnegie-Rochester Conference Series on Public Policy, vol. 39.

TOBIN, James (1980), « Stabilization policy ten years after », in Brookings Papers on Economic Activity, n° 1.

WOODFORD, Michael (2012), « Methods of policy accommodation at the interest-rate lower bound », document de travail présenté à la conférence de Jackson Hole.

Partager cet article
Repost0
16 novembre 2018 5 16 /11 /novembre /2018 19:05
Petite macroéconomie des droits de douane

La Grande Récession et la faible reprise qui suivit ont alimenté les craintes que les gouvernements adoptent des mesures protectionnistes ; certains ont d’ailleurs soupçonné que la faiblesse du commerce international dans le sillage de la crise s'explique en partie par l’adoption de telles mesures. Mais malgré la violence de la crise financière, l’économie mondiale a été épargnée par une guerre commerciale. Du moins jusqu’à l’année dernière. Ces derniers mois, l’administration Trump a relevé les droits de douane sur plusieurs produits, notamment en provenance d’Europe et de Chine, ce qui a amené les pays visés à répliquer en retour, au risque de conduire à une guerre commerciale généralisée ; il faut dire qu'aux yeux de Trump, « les guerres commerciales sont bonnes et se gagnent facilement ».

En renchérissant le prix des biens importés, l’instauration de droits de douane vise à inciter les résidents à se détourner des biens importés pour acheter davantage de biens domestiques, ce qui permet aux entreprises domestiques de vendre plus, donc les incite à produire davantage et à embaucher. Au niveau agrégé, l’objectif est d’accroître la production nationale, de réduire le chômage et d'améliorer le solde commercial. Les pays qui connaissent un déficit commercial et une faible croissance économique sont donc particulièrement tentés d’adopter des mesures protectionnistes. La faiblesse de la reprise et surtout la persistance d’un important déficit commercial aux Etats-Unis, dans un contexte de désindustrialisation chronique, ont ainsi particulièrement exposé ce pays à la tentation protectionniste.

Ces mesures risquent toutefois de se révéler contre-productives [Krugman, 2018a ; 2018b]. Tout d’abord, une hausse des droits de douane est susceptible d’alimenter l’inflation. En effet, les résidents ont accès à des biens plus chers. D’un côté, les ménages voient ainsi directement leur pouvoir d’achat diminuer. De l’autre, comme le prix de leurs intrants augmente, les entreprises voient leurs coûts de production augmenter. Celles-ci risquent alors de relever leurs prix de vente pour tenter de préserver leurs marges, ce qui contribue à alimenter en retour l’inflation. En outre, comme les entreprises domestiques risquent de moins utiliser les technologies les plus efficaces, cela ralentit la diffusion du progrès technique. Dans tous les cas, les biens domestiques vont peu à peu perdre en compétitivité vis-à-vis des produits étrangers, non seulement sur le marché domestiques, mais également sur les marchés internationaux, ce qui pèse sur leurs ventes. Et comme les biens intermédiaires se renchérissent, augmentant les coûts de leur assemblage et donc de la production de biens finaux dans l’économie domestique, certaines entreprises vont réagir en délocalisant leur production à l’étranger, ce qui pénalise à nouveau l’emploi domestique.

Par exemple, les taxes supplémentaires adoptées par l’administration Trump sur l’acier et l’aluminium vont peut-être bénéficier au secteur de la métallurgie et y créer des emplois, mais cela alourdit les coûts dans les nombreux secteurs utilisant en aval l’acier et l’aluminium comme intrants et ainsi y détruire des emplois. Les premiers secteurs y tireront certes un gain, mais au détriment des autres secteurs, en particulier des secteurs exportateurs, mais aussi des travailleurs et des consommateurs américains. Au final, les taxes supplémentaires sur les importations auront les mêmes effets qu’une hausse de la fiscalité sur les résidents [DeLong, 2018].

Ces effets seront aggravés par la réaction du taux de change : les droits de douane vont entraîner une appréciation de la monnaie, ce qui ampute les gains de compétitivité que les producteurs domestiques pouvaient en tirer. L’appréciation est d’autant plus probable que la banque centrale (soucieuse de la stabilité des prix) risque de réagir aux pressions inflationnistes en resserrant sa politique monétaire, ce qui alimente les entrées de capitaux.

Enfin, les partenaires à l’échange sont susceptibles de réagir en adoptant également des droits de douane en représailles ; c'est tout particulièrement le cas ces derniers de la Chine vis-à-vis des Etats-Unis. Les économistes ne sont pas forcément d’accord quant à savoir si les guerres commerciales ont été à l’origine de la Grande Dépression dans les années trente ; par contre celles-ci ont bien contribué à aggraver la contraction de l’activité mondiale.

Au final, l’économie va certes moins importer, mais elle risque également de moins exporter, si bien que le solde commercial a peu de chances de s’améliorer. En fait, le solde extérieur dépend étroitement du rapport entre l’investissement et l’épargne : un déficit extérieur s’explique par une épargne domestique insuffisante. Autrement dit, si un pays importe plus qu’il exporte, c’est avant tout parce qu’il n’épargne pas assez ou dépense de trop. La politique commerciale influence certes le volume des importations et celui des exportations, mais pas la différence entre ces deux valeurs. Ainsi, si l’administration Trump désire améliorer le solde extérieur de l’économie américaine, elle devrait chercher à accroître le taux d’épargne. Tant que ce dernier reste faible, le déficit extérieur persistera. A cet égard, l’expansion budgétaire adoptée par l’administration Trump risque de se révéler contre-productive, dans la mesure où elle stimule la demande globale à un moment où l’économie américaine est relativement proche du plein emploi : les tensions inflationnistes peuvent fortement s’accentuer, la Réserve fédérale risque de resserrer sa politique monétaire plus rapidement que prévu, le dollar continuera de s’apprécier et le solde commercial va se dégrader.

Bien sûr, tout cela reste théorique et demande une vérification empirique. Or ces dernières décennies, les macroéconomistes se sont très peu penchés sur la question du protectionnisme ; le mouvement vers le libre-échange était considéré comme acquis. L’essentiel des études a en fait surtout cherché à évaluer les gains et coûts des accords commerciaux.

A l’occasion d’une conférence organisée par le FMI, Davide Furceri, Swarnali Hannan, Jonathan Ostry et Andrew Rose (2018) ont présenté une étude cherchant à identifier les répercussions macroéconomiques des droits de douane. Pour cela, ils ont étudié un échantillon de données relatives à 151 pays, en l’occurrence 34 pays développés et 117 pays en développement, au cours de la période allant de 1963 à 2014. Ils constatent que les relèvements des droits de douane se traduisent à moyen terme par des baisses significatives de la production et de la productivité domestiques. Ces mesures se traduisent aussi par une hausse du chômage, un creusement des inégalités de revenu et une appréciation du taux de change. Par contre, ils n’ont que de faibles effets sur le solde commercial, notamment en conséquence de l’appréciation du taux de change qui renchérit les prix des biens exportés.

Les répercussions exactes dépendent toutefois étroitement de la position de l'économie dans le cycle d'affaires et de son niveau de développement. En effet, Furceri et ses coauteurs notent que les effets sur la production et la productivité tendent à être amplifiés lorsque les droits de douane augmentent durant les récessions. De plus, les répercussions des hausses de droits de douane sont plus nocives pour les pays développés que pour les pays pauvres. Enfin, il apparaît que le protectionnisme et la libéralisation commerciale ont des effets asymétriques : les répercussions sur la production à moyen terme suite à une hausse des droits de douane ne sont pas symétriques à ceux observés suite à une baisse des droits de douane.

 

Références

DELONG, Bradford (2018), « Trump’s Tax on America », in Project Syndicate, 6 mars. Traduction française, « Les taxes de Trump sur l'Amérique ».

FURCERI, Davide, Swarnali A. HANNAN, Jonathan D. OSTRY & Andrew K. ROSE (2018), « Macroeconomic consequences of tariffs », document de travail présenté à la dix-neuvième conférence Jacques Polak.

KRUGMAN, Paul (2018a), « The macroeconomics of trade war », 3 mars 2018. Traduction française, « La macroéconomie de la guerre commerciale ».

KRUGMAN, Paul (2018b), « Trump’s negative protection racket », 10 mars. Traduction française, « La surtaxe des importations américaines d’acier ? Un racket de protection peu efficace... ».

KRUGMAN, Paul (2018c), « Trade wars, stranded assets, and the stock market », 4 avril. Traduction française, « Les guerres commerciales, les actifs épaves et le marché boursier ».

Partager cet article
Repost0
4 octobre 2018 4 04 /10 /octobre /2018 11:20
Dix ans après la crise financière, où en est la reprise ?

Il y a dix ans, en 2008, l’économie mondiale basculait dans la récession. Si la reprise s’est amorcée assez rapidement, en l’occurrence dès l’année suivante, les répercussions de la crise ont été durables. Certains pays ont des taux de chômage toujours bien plus élevés qu’avant-crise ; dans les pays qui ont retrouvé un faible taux de chômage, ce dernier peut dissimuler un ample sous-emploi. Avec d’une part la faiblesse de l’activité, qui a pesé sur les rentrées fiscales, et d’autre part l’adoption de plans de relance au début de la crise, l’endettement des gouvernements a fortement augmenté : la dette publique médiane est passée de 36 % à 52 % du PIB. Le bilan des banques centrales représente aujourd’hui un multiple de leur niveau d’avant-crise, en particulier dans les pays développés. Le niveau élevé de la dette publique, l’ampleur des bilans des banques centrales et le maintien des taux directeurs à un niveau faible dans plusieurs économies développées amènent certains à craindre que les gouvernements et les banques centrales sont moins armées aujourd’hui pour affronter une récession qu’ils ne l’étaient il y a une décennie. Enfin, la crise a conduit à accélérer la reconfiguration de l’économie mondiale : la croissance étant restée plus faible dans les pays développés que dans les pays en développement, la convergence entre pays développés et pays en développement s’est poursuivie et ces derniers contribuent aujourd’hui à 60 % du PIB mondial, contre 44 % il y a une décennie.

Dans les nouvelles Perspectives de l’économie mondiale du FMI, Wenjie Chen, Mico Mrkaic et Malhar Nabar (2018) ont fait un bilan de la reprise mondiale une décennie après la crise financière de 2008. Ils ont étudié un échantillon de 180 pays, comportant de nombreux pays développés et en développement. Dans cet échantillon, 91 pays, représentant ensemble les deux tiers du PIB mondial, ont connu une chute de leur production en 2009. A titre de comparaison, pour montrer la violence de la récente crise financière, Chen et ses coauteurs notent que lors de la récession mondiale de 1982, ce ne sont que 48 pays, représentant 46 % du PIB mondial de l’époque, qui connurent une chute de leur production. De plus, parmi les 180 pays étudiés, 24 pays, notamment 18 pays développés, ont connu une crise bancaire en 2007-2008.

Chen et ses coauteurs ont cherché à mesurer l’écart entre la production et le niveau que cette dernière aurait atteint si elle avait continué à suivre sa trajectoire tendancielle d’avant-crise. Leur étude confirme les résultats obtenus par de précédentes études, notamment celles de Laurence Ball (2014) : les pertes en termes de production suite à la Grande Récession apparaissent durables. En effet, en 2015 et 2017, l’écart entre la production et sa tendance d’avant-crise est de même amplitude sur la période allant de 2015 à 2017 que sur la période allant de 2011 à 2013 (cf. graphique 1). Autrement dit, la production n’est en général pas revenue à sa trajectoire d’avant-crise, si bien que les populations semblent irrémédiablement plus pauvres qu’elles ne l’auraient été s’il n’y avait pas eu la crise financière. De plus, au sein de chaque pays, ces pertes sont loin d’avoir été partagées également entre les résidents : les pays qui ont connu les plus fortes chutes de production et les plus fortes hausses du chômage dans les premiers temps de la crise sont généralement les pays qui ont connu les plus fortes hausses des inégalités de revenu depuis lors. 

GRAPHIQUE 1  Ecart entre le PIB et sa trajectoire d’avant-crise (en %)

Les pertes en termes de production ont été durables aussi bien pour les pays qui ont subi une crise bancaire en 2007-2008 que pour ceux qui en ont été épargnés. En l’occurrence, parmi les 24 pays de l’échantillon qui ont connu une crise bancaire, 85 % d’entre eux ont un niveau de production toujours inférieur à sa trajectoire tendancielle d’avant-crise. Ce résultat ne devrait plus nous étonner : diverses études, comme celle du FMI (2009), ont déjà noté que les économies qui connaissent une crise bancaire tendent à ne pas effacer les pertes de production occasionnées par celle-ci. Les explications sont simples : d’une part, le secteur bancaire est moins capable et moins enclin à financer de nouveaux projets d’investissement ; d’autre part, l’assèchement du crédit oblige les agents les plus endettés (aussi bien les ménages que les entreprises) à restreindre leurs dépenses pour rembourser leurs prêts. Mais il apparaît aussi que parmi les pays de l’échantillon étudié qui n’ont pas connu de crise bancaire en 2007-2008, 60 % d’entre eux n’ont pas réussi à revenir à leur trajectoire d’avant-crise : en 2008, si dans un pays l’activité n’a pas été affectée par une crise bancaire domestique, elle a certainement été affectée par une baisse des exportations à destination des pays qui en ont connu une. Finalement, comme le notaient notamment Valerie Cerra et Sweta Saxena (2008, 2017) et Olivier Blanchard et alii (2015), une économie est susceptible de ne pas parvenir à rejoindre sa trajectoire d’avant-crise, même lorsque la récession ne s’accompagne pas de crise financière.

Afin d’expliquer la persistance des dommages occasionnés par la crise mondiale, Chen et ses coauteurs recherchent les causes du côté de l’offre (1). Leur analyse suggère que la faiblesse de l’investissement a tout particulièrement contribué à ces pertes : dans l’échantillon étudié, l’investissement était en moyenne, en 2017, inférieur de 25 % par rapport à sa tendance d’avant-crise. La faiblesse de l’investissement peut notamment s’expliquer (du côté de l’offre) par des difficultés dans l’accès au crédit et (du côté de la demande) par le pessimisme des entreprises quant aux débouchés futurs. Cette faiblesse de l’investissement a contraint la reprise en déprimant le stock de capital et en ralentissant la diffusion du progrès technique. D’un côté, dans l’échantillon de pays qui ont subi une crise bancaire en 2007-2008, 80 % d’entre eux ont connu une chute de leur stock de capital par rapport à sa trajectoire d’avant-crise ; cette part s’élève à 65 % pour les pays de l’échantillon qui n’ont pas connu de crise bancaire. De l’autre, les données suggèrent en effet que les dépenses en recherche-développement et l’adoption de nouvelles technologies (notamment celle des robots industriels) ont ralenti dans les pays qui ont connu les plus amples pertes en production : si les entreprises investissent moins, elles risquent de moins renouveler leurs équipements obsolètes.

Pour expliquer pourquoi les économies n’ont pas forcément connu la même trajectoire après la crise, Chen et ses coauteurs se penchent sur les politiques économiques, aussi bien celles adoptées avant la crise que celles adoptées après. Leur analyse suggère que les pays qui avaient les réglementations bancaires les plus strictes ont moins eu de chances de connaître une crise bancaire. De plus, les pays qui ont le plus cherché à contenir les dérapages de leur endettement public à la veille de la crise ont subi moins de pertes de production par la suite : en l’occurrence, les pays qui ont connu les plus faibles hausses de la dette publique entre 2005 et 2008 sont ceux dont la production s’est le moins écarté de sa tendance lors de la crise de 2008. Ce résultat ne signifie pas que le niveau de l’endettement public ait en soi pesé sur la reprise. Par contre, les gouvernements qui cherchaient à contenir leur endettement à la veille de la crise ont certainement eu davantage de manœuvre pour adopter des plans de relance lors de celle-ci et ils ont sûrement été moins incités à adopter des plans d’austérité lors de la reprise. Enfin, l’analyse de Chen et alii suggère que les pays qui avaient un taux de change flexible ont connu les plus faibles pertes en termes de production : une dépréciation de la devise a pu contribuer à compenser l’insuffisance de la demande domestique en stimulant les exportations.

GRAPHIQUE 2  Ecart médian entre le PIB et sa tendance d’avant-crise (en %)

Ce dernier résultat contribue certainement à expliquer la piètre performance de la zone euro : comme chacun de ses membres a perdu l’usage du taux de change comme variable d’ajustement, l’ajustement face à la récession est davantage passé par la production et les prix. En effet, entre 2011 et 2013, la perte de production médiane était plus ample dans les pays de la zone euro que dans les autres pays développés ; entre 2015 et 2017, elle s’est accrue pour les autres pays développés, mais elle s’est encore davantage accrue pour les pays de la zone euro, si bien que l’écart s’est creusé (cf. graphique 2). Le décrochage de la zone euro par rapport aux autres pays développés s’explique certainement aussi par des (mauvaises) décisions en matière de politique économique. En se concentrant sur la demande, Chen et ses coauteurs n’ont par exemple pas cherché à évaluer les répercussions des plans d’austérité. Or, plusieurs études suggèrent que ces répercussions ont durables [Fatás et Summers, 2018], en particulier dans la zone euro [Fatás, 2018].

 

(1) Ce choix est discutable. Il repose sur l’hypothèse qu’un changement de tendance à long terme s’explique forcément du côté de l’offre. Or, il est également possible qu’une insuffisance durable de la demande globale puisse se répercuter sur le potentiel de croissance à long terme, via ce que la littérature a qualifié d’« effets d’hystérèse ». D’ailleurs, plusieurs études, comme celle de Laurence Ball (2014) et celle d’Olivier Blanchard et alii (2015), confortent cette dernière hypothèse.

 

Références

BALL, Laurence M. (2014), « Long-term damage from the Great Recession in OECD countries », NBER, working paper, n° 20185, mai.

BLANCHARD, Olivier, Eugenio CERUTTI & Lawrence SUMMERS (2015), « Inflation and activity – Two explorations and their monetary policy implications », FMI, working paper, novembre.

CERRA, Valerie, & Sweta C. SAXENA (2008), « Growth dynamics: The myth of economic recovery », in American Economic Review, vol. 98, n° 1.

CERRA, Valerie, & Sweta C. SAXENA (2017), « Booms, crises, and recoveries: A new paradigm of the business cycle and its policy implications », FMI, working paper, n° 17/250.

CHEN, Wenjie, Mico MRKAIC & Malhar NABAR (2018), « The global recovery 10 years after the 2008 financial meltdown », In FMI, World Economic Outlook, octobre.

FATÁS, Antonio (2018), « Fiscal policy, potential output and the shifting goalposts », CEPR, discussion paper, n° 13149.

FATÁS, Antonio, & Lawrence H. SUMMERS (2018), « The permanent effects of fiscal consolidations », in Journal of International Economics, vol. 112.

FMI (2009), « What’s the damage? Medium-term output dynamics after financial crises », World Economic Outlook: Sustaining the Recovery, chapitre 4.

Partager cet article
Repost0
16 août 2018 4 16 /08 /août /2018 18:03
Vieillissement démographique, robotisation et stagnation séculaire

Keynésiens et néoclassiques tendent à s’accorder à l’idée que le vieillissement démographique devrait freiner la croissance, mais pas pour les mêmes raisons. Pour les analyses d’obédience néoclassique, le vieillissement devrait freiner la croissance en réduisant l’épargne, dans la mesure où les personnes âgées risquent de consommer davantage qu’elles ne gagnent de revenu lors de leur retraite, mais aussi en réduisant le réservoir de main-d’œuvre disponible. Robert Gordon (2012) estime pour cette raison que le vieillissement est l’un des « vents contraires » susceptibles de mettre « fin » à la croissance économique.

Pour les analyses keynésiennes, le vieillissement démographique risque au contraire de freiner la croissance en déprimant la demande globale : les entreprises devraient moins investir, puisqu’il y a moins de main-d’œuvre à équiper, tandis que les ménages risquent de moins consommer, dans la mesure où l’anticipation de leur plus longue espérance de vie devrait les amener à épargner davantage lors de leur vie active. Ces dernières années, certains ont estimé que le vieillissement démographique que connaissent les pays développés est l’un des facteurs susceptibles de piéger ceux-ci dans une stagnation séculaire [Summers, 2015], renouant ainsi avec une thèse que développaient certains keynésiens au sortir de la Deuxième Guerre mondiale [Hansen, 1938].

Tous les économistes n’aboutissent pas à des conclusions aussi pessimistes. Par exemple, David Cutler, James Poterba, Louise Sheiner et Larry Summers (1990) reconnaissent que le vieillissement démographique peut réduire la part des travailleurs en emploi dans la population, ce qui tend à réduire la production par tête. Mais, d’un autre côté, il peut accroître l’intensité capitalistique, c’est-à-dire le volume d’équipement par travailleur, via l’approfondissement du capital. De plus, il peut stimuler le progrès technique dans la mesure où la pénurie de main-d’œuvre devrait inciter les entreprises à chercher à économiser en main-d’œuvre, donc à substituer des machines à celle-ci. C’est l’idée que développait déjà John Habakkuk (1962) il y a un demi-siècle : les incitations à innover sont plus forte lorsque la main-d’œuvre est rare relativement aux autres facteurs de production. Au final, l’impact net du vieillissement sur la croissance dépendra de l’équilibre entre, d’une part, le premier effet (négatif) et, d’autre part, les deux derniers (l’approfondissement du capital et la stimulation de l’innovation). 

Selon Daron Acemoglu et Pascual Restrepo (2017), les données ne révèlent d’ailleurs pas de relation négative entre vieillissement et croissance économique : en fait, il y a une corrélation positive entre la hausse du ratio de nombre de personnes âgées sur le nombre de jeunes et la croissance de la production par tête après 1990. En l’occurrence, les pays qui ont vu leur population vieillir rapidement sont ceux qui ont eu tendance à connaître la plus forte croissance ces dernières décennies.

Pour expliquer leur constat, Acemoglu et Restrepo mettent l’accent sur la troisième force mise en avant par Cutler et alli : une raréfaction de travailleurs d’âge intermédiaire est susceptible d’inciter les entreprises à automatiser les tâches assurées jusqu’à présent par ceux-ci. En utilisant les données américaines, Acemoglu et Restrepo (2018) constatent que la hausse du ratio rapportant le nombre de travailleurs âgés sur le nombre de travailleurs d’âge intermédiaire est associée à une plus grande adoption de robots. En étudiant les données internationales, ils observent que les technologies d’automatisation tendent à se déployer d’autant plus rapidement dans le secteur manufacturier d’un pays que ce dernier connaît un vieillissement rapide. Le vieillissement pourrait en l’occurrence expliquer 40 % des écarts en termes d’adoption de robots industriels que l’on peut constater d’un pays à l’autre.

GRAPHIQUE 1  Corrélation entre vieillissement démographique et croissance économique entre 1990 et 2008

source : Eggertsson et alii (2018)

Pour Acemoglu et Restrepo, leurs données amènent à rejeter la thèse de la stagnation séculaire. Ce n’est pas le cas selon Gauti Eggertsson, Manuel Lancastre et Larry Summers (2018). D’une part, la relation positive entre le vieillissement démographique et la croissance économique pourrait s’expliquer avant tout par le fait que le vieillissement est associé à un approfondissement du capital et à une baisse des taux d’intérêts réels ; effectivement, les taux d’intérêt ont eu tendance à baisser à travers le monde depuis 1990. D’autre part, il faut tenir compte du fait que les taux d’intérêt nominaux ne peuvent pas pleinement s’ajuster à la baisse : ils peuvent buter sur une borne inférieure. Tant que les taux d’intérêt peuvent s’ajuster, l’économie est dans un « régime néoclassique ». La thèse de la stagnation séculaire amène à prédire que, lorsqu’une crise éclate, les pays qui connaissaient le vieillissement le plus rapide et une faible inflation ont tendance à connaître les plus amples excès d’épargne et donc une forte récession lorsque les taux d’intérêt butent effectivement sur leur borne inférieure. Dans ce cas, les économies se retrouvent dans un « régime keynésien ».

GRAPHIQUE 2  Corrélation entre vieillissement démographique et croissance économique entre 2008 et 2015

 

source : Eggertsson et alii (2018)

Pour vérifier leur théorie, Eggertsson et ses coauteurs se sont alors tournés vers les données empiriques relatives à 168 pays. Ils font apparaître une corrélation positive entre vieillissement et croissance économique entre 1990 et 2008, ce qui suggère que les économies étaient alors dans un « régime néoclassique » (cf. graphique 1). Ce faisant, ils confirment les constats empiriques d’Acemoglu et Restrepo (2017). Par contre, après 2008, l’impact du vieillissement sur la croissance économique s’est révélé être négatif ; les économies où les taux d’intérêt ont été contraints par leur borne inférieure avaient ainsi basculé dans un « régime keynésien » (cf. graphique 2). Le lien entre croissance et vieillissement n’est donc pas systématiquement positif. Malheureusement, le vieillissement risque de nuire à la croissance une grande partie de ces prochaines décennies : selon Michael Kiley et John Roberts (2017), la borne inférieure pourrait désormais contraindre les taux d’intérêt de 30 % à 40 % du temps.

 

Références

ACEMOGLU, Daron, & Pascual RESTREPO (2017), « Secular stagnation? The effect of aging on economic growth in the age of automation », NBER, working paper, n° 23077.

ACEMOGLU, Daron, & Pascual RESTREPO (2018), « Demographics and Automation », NBER, working paper, n° 24421.

CUTLER, David M., James M. POTERBA, Louise SHEINER, & Lawrence H. SUMMERS (1990), « An aging society: Opportunity or challenge? », in Brookings Papers on Economic Activity, vol. 21, n° 1.

EGGERTSSON, Gauti B., Manuel LANCASTRE & Lawrence H. SUMMERS (2018), « Aging, output per capita and secular stagnation », NBER, working paper, n° 24902.

GORDON, Robert J. (2012), « Is U.S. economic growth over? Faltering innovation confronts the six headwinds », NBER, working paper, n ° 18315, août.

HABAKKUK, Hrothgar John (1962), American and British Technology in the Nineteenth Century, Cambridge University Press.

HANSEN, Alvin H. (1938), Full Recovery or Stagnation?

KILEY, Michael T., & John M. ROBERTS (2017), « Monetary policy in a low interest rate world », in Brookings Papers on Economic Activity, vol. 48, n° 1.

SUMMERS, Lawrence (2015), « Demand side secular stagnation », in American Economic Review: Papers & Proceedings, vol. 105, n° 5.

Partager cet article
Repost0
2 août 2018 4 02 /08 /août /2018 15:01
Aux sources du cycle d’affaires

Pour expliquer les cycles d’affaires, les économistes ont très souvent favorisé des récits ou des modèles où les fluctuations sont générées par une unique source de « chocs » : les monétaristes et les nouveaux classiques mettent l’accent sur les chocs monétaires ; les théoriciens des cycles d’affaires réels (real business cycles) sur les chocs technologiques, correspondant aux variations de la productivité globale des facteurs (PGF) ; les keynésiens sur la demande globale ; les nouveaux keynésiens sur les chocs de demande, mais dans un contexte de rigidités nominales ; Nicholas Bloom (2009) sur les chocs d’incertitude, etc.

Plusieurs études ont cherché à identifier quel est le modèle le plus pertinent, quelle est la nature du choc qui semble impulser le cycle d’affaires. Par exemple, Jordi Galí (1999) a constaté que les chocs technologiques semblent pousser la productivité et l’emploi dans des directions opposées, que l’emploi diminue durablement suite à un choc technologique positif et que la productivité mesurée s’accroît temporairement suite à un choc de demande positif. Selon lui, ces constats empiriques amènent à rejeter les modèles de cycles d’affaires réels, mais ils peuvent facilement être reproduits dans un modèle nouveau keynésien, caractérisé par une concurrence monopolistique et des prix visqueux. Partant de l’observation que les cycles d’affaires aux Etats-Unis au cours des trois dernières décennies ont été caractérisés par des chocs technologiques contracycliques, Beaudry et Portier (2014) pensent également que les modèles de cycles d’affaires réels ne peuvent expliquer ces cycles d’affaires. D’un autre côté, ces derniers sont également caractérisés par une inflation constante. Ce dernier constat ne colle pas avec les modèles nouveaux keynésiens où les chocs de demande négatifs se traduisent par des pressions déflationnistes et les chocs de demande positifs par des pressions inflationnistes. De leur côté, Michal Andrle, Jan Brůha et Serhat Solmaz (2013, 2016) notent en étudiant la zone euro, puis l’ensemble des pays développés, que le cycle d’affaires semble tiré par un unique facteur et que la tendance de la production réelle et de l’inflation à varier dans le même sens (à la fréquence du cycle d’affaires) amène à penser qu’il s’agit de la demande globale.

A travers un modèle autorégressif vectoriel, George-Marios Angeletos, Fabrice Collard et Harris Dellas (2018) se sont récemment penchés sur l’évolution de plusieurs variables macroéconomiques clés, en l’occurrence le chômage, le PIB, la consommation, l’investissement, le nombre total d’heures travaillées, la productivité du travail, la PGF ajustée en fonction de l’utilisation des capacités de production, la part du revenu rémunérant le travail, l’inflation et le taux des fonds fédéraux. Ils ont cherché à identifier le choc qui contribue le plus à la volatilité de ces variables aux fréquences du cycle d’affaires. Une fois ce choc identifié, ils se sont appuyés sur ses propriétés empiriques pour évaluer la pertinence de plusieurs modèles.

Il apparaît que le choc qui explique l’essentiel du cycle d’affaires explique peu la variation à long terme de la production, de l’investissement, de la consommation et de la productivité du travail. Symétriquement, le choc qui explique l’essentiel de la volatilité à long terme d’une quelconque de ces variables contribue de façon négligeable au cycle d’affaires. Ce constat fait écho à ceux obtenus par Olivier Blanchard et Danny Quah (1989) et par Jordi Galí (1999), suggérant que le choc derrière la productivité et la production à long terme n’explique qu’une faible part des variations du chômage et des heures travaillées au cours du cycle d’affaires. Il amène à rejeter les modèles qui, à l’instar de celui de Paul Beaudry et Franck Portier (2006), expliquent les fluctuations de l’activité par les nouvelles quant à la croissance de la productivité à moyen ou long terme. Angeletos et ses coauteurs estiment plutôt que leur analyse est cohérente avec l’idée que le cycle d’affaires est impulsé par les changements dans les croyances des agents qui ne concernent pas la productivité et qui découlent des nouvelles quant aux perspectives économiques à court terme.

En outre, le choc qui explique l’essentiel du cycle d’affaires est déconnecté des variations de la PGF à chaque fréquence. Un tel constat amène à rejeter le modèle de base des cycles d’affaires réels à la Kydland et Prescott (1982), où les cycles d’affaires sont impulsés par des chocs technologiques, aussi bien que ses variantes qui introduisent d’autres chocs (notamment des chocs financiers et des chocs d’incertitude) pour expliquer les fluctuations de la PGF. Ce constat ne colle pas non plus avec les modèles nouveaux keynésiens, comme celui de Guido Lorenzoni (2009), qui expliquent les fluctuations de la demande globale par les révisions des anticipations des agents quant à l’évolution future de la productivité. 

La modélisation d’Angeletos et alii amène également à rejeter le modèle nouveau keynésien de base. En effet, selon ce dernier, les chocs de demande amènent la production à s’écarter de son potentiel et ces écarts influenceraient l’inflation. Or, le principal choc du cycle d’affaires est presque orthogonal à l’inflation à chaque fréquence. En effet, le principal choc qui explique l’essentiel de la variation du chômage n’explique qu’une faible part de la variation de l’inflation ; symétriquement, le choc qui explique l’essentiel de la variation de l’inflation n’explique qu’une faible part de la variation du chômage. Il y a également une déconnexion entre l’inflation et la part du revenu rémunérant le travail, qui est habituellement utilisée comme indicateur du coût marginal réel auquel les nouveaux keynésiens prêtent un rôle crucial dans leurs modèles. 

Bref, les données empiriques semblent ne pas coller avec les théories qui donnent un rôle proéminent aux fluctuations de la PGF, aux nouvelles à propos de la productivité à moyen ou long terme ou encore aux chocs de demande tels que les conçoivent les nouveaux keynésiens. Elles semblent plutôt accréditer les théories qui donnent le premier rôle aux fluctuations tirées par la demande, mais sans faire intervenir rigidités nominales, ni de courbes de Phillips. Au final, Angeletos et ses coauteurs notent que même le modèle DSGE le plus efficace ne contient pas le mécanisme de propagation dessiné par les constats empiriques. Toutefois, plusieurs modèles récents sont selon eux assez prometteurs : Angeletos et La’O (2013), Bai et alii (2017), Beaudry et alii (2018), Beaudry et Portier (2018), Benhabib et alii (2015) ou encore Ilut et Schneider (2014) ont précisément cherché à faire émerger des fluctuations tirées par la demande sans introduire de rigidités nominales ou de courbe de Phillips dans leur modélisation.

 

Références

ANDRLE, Michal, Jan BRŮHA & Serhat SOLMAZ (2013), « Inflation and output comovement in the euro area: Love at second sight? », FMI, working paper, n° 13/192.

ANDRLE, Michal, Jan BRŮHA & Serhat SOLMAZ (2016), « Output and inflation co-movement: An update on business-cycle stylized facts », FMI, working paper, n° 16/241.

ANGELETOS, George-Marios, Fabrice COLLARD & Harris DELLAS (2018), « Business cycle anatomy », NBER, working paper, n° 24875.

ANGELETOS, George-Marios, & Jennifer LA’O (2013), « Sentiments », in Econometrica, vol. 81, n° 2.

BAI, Yan, José-Vıctor RÍOS-RULL & Kjetil STORESLETTEN (2017), « Demand shocks as productivity shocks ».

BEAUDRY Paul, Dana GALIZIA & Franck PORTIER (2014), « Reconciling Hayek's and Keynes' views of recessions », NBER, working paper, n° 20101.

BEAUDRY, Paul, & Franck PORTIER (2006), « Stock prices, news, and economic fluctuations », in American Economic Review, vol. 96, n° 4.

BEAUDRY, Paul, & Franck PORTIER (2014), « Understanding noninflationary demand-driven business cycles », in NBER Macroeconomics Annual, vol. 28, n° 1.

BEAUDRY, Paul, & Franck PORTIER (2018), « Real Keynesian models and sticky prices », NBER, working paper, n° 24223.

BENHABIB, Jess, Pengfei WANG & Yi WEN (2015), « Sentiments and aggregate demand fluctuations », in Econometrica, vol. 83, n° 2.

BLANCHARD, Olivier J., & Danny QUAH (1989), « The dynamic effects of aggregate demand and supply disturbances », in American Economic Review, vol. 79, n° 4.

BLOOM, Nicholas (2009), « The impact of uncertainty shocks », in Econometrica, vol. 77, n° 3.

GALÍ, Jordi (1999), « Technology, employment, and the business cycle: Do technology shocks explain aggregate fluctuations? », in American Economic Review, vol. 89, n° 1.

ILUT, Cosmin, & Martin SCHNEIDER (2014), « Ambiguous business cycles », in American Economic Review, vol. 104, n° 8.

KYDLAND, Finn E., & Edward C. PRESCOTT (1982), « Time to build and aggregate fluctuations », in Econometrica, vol. 50, n° 6.

LORENZONI, Guido (2009), « A theory of demand shocks », in American Economic Review, vol. 99, n° 5.

Partager cet article
Repost0
29 juillet 2018 7 29 /07 /juillet /2018 22:44
Modèles DSGE : quels développements depuis la crise ?

Les années quatre-vingt-dix ont été marquées par une convergence entre, d’un côté, la littérature issue de la théorie des cycles d’affaires réels (real business cycles) et, d’autre part, les travaux des nouveaux keynésiens, au point que certains ont pu y voir l’apparition d’une « nouvelle synthèse néoclassique » [Goodfriend et King, 1997]. Cette convergence s’est notamment manifestée à travers le développement de modèles dynamiques stochastiques d’équilibre général (dits modèles DSGE). En effet, ces derniers contiennent des ingrédients propres à la théorie des cycles d’affaires réels : ils supposent une information transparente et se focalisent sur le comportement d’un agent représentatif, caractérisé par un comportement optimisateur, une durée de vie infinie et des anticipations rationnelles. Les modèles de la nouvelle synthèse intègrent en outre des éléments issus de la littérature nouvelle keynésienne : ils incorporent des variables nominales ; ils adoptent un cadre de concurrence imparfaite où les entreprises jouissent d’un pouvoir de marché et ont ainsi une certaine latitude pour fixer leurs prix ; ils introduisent des rigidités nominales, notamment en adoptant la règle de Calvo (1993), selon laquelle, durant chaque période, seule une fraction des entreprises sont à même de modifier leurs prix.

Si les modèles de cycle d'affaires réels constituent la première génération de modèles DSGE à proprement parler, les modèles de la deuxième génération, ceux qui se sont développés à partir des années quatre-vingt-dix, sont qualifiés de « nouveaux keynésiens ». Dans leur version de base, ces derniers reposent typiquement sur trois relations clés. Premièrement, ils intègrent une équation (rappelant la relation IS, mais dynamique) faisant dépendre l’écart de production (output gap) actuel avec, d’une part, l’écart de production anticipé et, d’autre part, l’écart entre le taux d’intérêt réel et le taux d’intérêt naturel. Deuxièmement, ils intègrent ce que l’on qualifie de « courbe de Phillips nouvelle keynésienne » qui fait dépendre l’inflation courante, d’une part, de l’inflation anticipée et, d’autre part, de l’écart de production. Troisièmement, ils incluent une règle de taux d’intérêt, souvent une règle de Taylor (1993), qui décrit comment est fixé le taux d’intérêt nominal, en fonction du taux d’inflation courant et de l’écart de production. Avec ces trois relations, la politique monétaire n’est pas neutre. En effet, comme les prix sont visqueux à court terme, un resserrement de la politique monétaire se traduit par une hausse des taux d’intérêt nominaux et réels. Comme seule une fraction des entreprises peut baisser ses prix, les autres réagissent en réduisant leur production, ce qui se traduit au niveau agrégé par une baisse de la production et un ralentissement de l’inflation. Ainsi, ce type de modèles est qualifié de « nouveau keynésien » précisément parce que la politique monétaire y présente des effets réels et non plus seulement nominaux. Cette étiquette est toutefois quelque peu trompeuse : le résultat correspond davantage à l’optique friedmanienne qu’à celle keynésienne.

Les modèles DSGE se sont très rapidement répandus. Lorsque la crise financière mondiale a éclaté, ils étaient assez largement utilisés dans le monde universitaire et au sein des banques centrales, notamment pour analyser les fluctuations de l’activité et l’inflation ou encore pour évaluer et prévoir l’impact des politiques conjoncturelles sur celles-ci. Ils ont fait l'objet de nombreuses critiques dans le sillage de la crise, dans la mesure où ils n’ont pas permis à leurs concepteurs de prévoir cette dernière [Blanchard, 2017 ; Stiglitz, 2017]. L’échec des modèles DSGE à anticiper cet événement s’explique par leur tendance à ignorer la sphère financière et par l’irréalisme de certaines de leurs hypothèses, notamment celles des anticipations rationnelles, de l’information parfaite et de l’agent représentatif. La crise n’a toutefois pas conduit à l’abandon des modèles DSGE : leurs concepteurs ont réagi en étendant leurs modèles, par exemple en y intégrant davantage de « frictions financières », et en modifiant leurs hypothèses de base. Ce sont ces récents développements que trois analyses ont passés en revue : Lawrence Christiano, Martin Eichenbaum et Mathias Trabandt (2018) se sont penchés sur l’ensemble des modèles DSGE ; Jordi Galí (2018) s’est focalisé sur leurs variantes « nouvelles keynésiennes » ; enfin, Mark Gertler et Simon Gilchrist (2018) ont montré comment ils ont cherché à mieux prendre en compte la sphère financière.

Avant la crise financière mondiale, les modèles nouveaux keynésiens avaient tendance à ignorer la contrainte qu’exerce la borne inférieure zéro (zero lower bound) sur la politique monétaire : cette dernière semblait ainsi capable de contrer n’importe quel choc de demande, ce qui confirmait aux yeux de certains que la politique budgétaire n’avait pas à être utilisée pour stabiliser l’activité. Or, lors de la Grande Récession, les banques centrales ont fortement réduit leurs taux directeurs sans pour autant ramener rapidement l’économie au plein emploi. Cela suggérait pour certains que le choc avait été si puissant que le taux d’intérêt naturel avait été poussé en territoire négatif. Or, la borne inférieure empêchant les banques centrales de ramener les taux à leur niveau naturel, la politique monétaire se retrouvait alors incapable de clore l’écart de production. Dans une telle situation de trappe à liquidité, l’écart de production constitue une source persistante de déflation, or les pressions déflationnistes accroissent le taux d’intérêt réel, ce qui éloigne davantage la production de son niveau potentiel et l’économie du plein emploi, aggravant la récession initiale. L’expérience du Japon lors des années quatre-vingt-dix avec ce qui s’apparentait à une trappe à liquidité avait toutefois amené plusieurs nouveaux keynésiens, notamment Gauti Eggertsson et Michael Woodford (2003), à prendre en compte la borne inférieure zéro et à en déduire la politique optimale. La Grande Récession a donné un nouvel essor à ce type de travaux.

Les travaux sur la borne inférieure zéro ont notamment conduit à réévaluer le rôle de la politique budgétaire. Lors d’une récession, une relance budgétaire risque d’être peu efficace si la banque centrale resserre parallèlement sa politique monétaire pour en compenser les éventuels effets inflationnistes, mais si le taux bute sur sa borne inférieure et, par conséquent, si la politique monétaire est excessivement restrictive (c’est-à-dire insuffisamment expansionniste pour ramener l’économie au plein emploi), alors la banque centrale ne relèvera pas son taux directeur face à la relance budgétaire. Par exemple, Gauti Eggertsson (2011) a montré que lorsqu’un choc de demande négatif pousse le taux d’intérêt naturel en territoire négatif, une hausse des dépenses publiques stimule l’activité, tandis qu’une baisse des impôts sur les revenus du travail ou du capital tend au contraire à nuire à celle-ci ; en effet, une baisse des impôts, tout comme d’autres politiques d’offre, alimente les pressions déflationnistes, ce qui pousse le taux d’intérêt réel à la hausse et déprime davantage la demande. Christiano et alii (2011) ont quant à eux cherché à déterminer la taille du multiplicateur des dépenses publiques en fonction de la borne inférieure zéro. Leur modèle DSGE suggère que le multiplicateur est d’autant plus élevé que les agents s’attendent à ce que la borne inférieure contraindra longuement la politique monétaire.

Les modèles DSGE se focalisent habituellement sur un agent représentatif immortel, censé mimer le comportement de l’ensemble des agents économiques. Une telle hypothèse est bien problématique : elle ne permet pas de concevoir la coexistence d’emprunteurs et de prêteurs, de prendre en compte l’impact des inégalités… ce qui les empêche d’expliquer l’accumulation des déséquilibres qui ont donné lieu à la crise financière et les conséquences de celle-ci. Leurs récentes versions ont commencé à tenir compte de l’hétérogénéité des agents. Les récents modèles DSGE, en l’occurrence ceux estampillés « modèles HANK » ont davantage pris en compte l’hétérogénéité des agents. Ils ont notamment supposé, d’une part, que les agents essuyaient des chocs idiosyncratiques et, d’autre part, qu’ils faisaient face à une limite en termes d’emprunt, si bien qu’ils ne peuvent pleinement s’assurer contre les chocs idiosyncratiques. Par conséquent, les agents ont beau être identiques avant que le choc se produise, ils peuvent présenter différentes propensions à consommer après celui-ci. Ainsi, en fonction de l’impact du choc sur la répartition des revenus et des richesses, les effets de ce choc sur l’activité peuvent aussi bien être amplifiés qu’atténués. Par exemple, la prise en compte de l’hétérogénéité des agents a permis à Adrien Auclert (2017) et à Kaplan et alii (2018) de mieux identifier les canaux via lesquels la politique monétaire se transmet à l’activité. En partant de l’hypothèse qu’une partie des ménages étaient susceptibles d’être contraints en termes de liquidité, Galí et alii (2007) ont de leur côté montré que de telles contraintes amplifiaient l’impact des dépenses publiques sur le PIB.

Pour Galí (2018), l’hypothèse de l’agent représentatif à durée de vie infinie pose deux autres problèmes. D’une part, elle implique un lien étroit entre taux d’intérêt réel et taux d’escompte temporel du consommateur le long d’une trajectoire de croissance équilibrée, or une telle relation ne permet pas de rendre compte de la possibilité d’un taux d’intérêt naturel durablement négatif. D’autre part, cette hypothèse ne permet pas non plus de rendre compte de la possibilité de bulles rationnelles à l’équilibre. Par conséquent, plusieurs nouveaux keynésiens ont cherché à développé des modèles à générations imbriquées qui comportent des rigidités nominales. C’est par exemple le cas d’Eggertsson et alii (2017), qui ont cherché à comprendre pourquoi le taux d’intérêt naturel a baissé dans l’économie américaine et à en déterminer les implications pour l’orientation de la politique monétaire. Dans deux modèles à générations imbriquées avec concurrence monopolistique et prix visqueux, Galí (2014, 2017) a de son côté montré que les bulles peuvent émerger comme équilibres ; ces deux modélisations suggèrent qu’il est plus efficace que les banques centrales se content de chercher à stabiliser la seule inflation plutôt qu’à chercher également à contrer le gonflement de bulles spéculatives. 

Malgré ces diverses avancées, Galí (2018) estime que les modèles DSGE ne parviennent toujours pas à saisir l’un des aspects cruciaux derrière les crises financières, en l’occurrence l’accumulation progressive de déséquilibres finissant par se dénouer avec une multiplication des défauts de paiement, une fuite des capitaux et un effondrement des prix d’actifs, puis par entraîner une chute de la demande, de la production et de l’emploi. Tout comme leurs prédécesseurs et notamment le modèle d’accélérateur financier de Bernanke et alii (1999), les récents modèles rendent compte de fluctuations stationnaires impulsées par des chocs exogènes : généralement, ils se contentent d’introduire des frictions financières qui amplifient les effets de chocs générés en dehors de la sphère financière. Autrement dit, les modèles DSGE n’expliquent la crise financière que comme résultant d’un choc exogène surprenant les agents. Leurs plus récentes variantes n’ont pas réussi à faire émerger de façon endogène les crises financières.

 

Références

AUCLERT, Adrien (2017), « Monetary policy and the redistribution channel », NBER, working paper, n° 23451.

BERNANKE, Ben S., Mark GERTLER & Simon GILCHRIST (1999), « The financial accelerator in a quantitative business cycle framework », in John B. Taylor & Michael Woodford (dir.), Handbook of Macroeconomics, vol. 1C, Elsevier.

BLANCHARD, Olivier (2017), « Sur les modèles macroéconomiques », in Revue de l’OFCE, n° 153.

CALVO, Guillermo (1983), « Staggered prices in a utility maximizing framework », in Journal of Monetary Economics, vol. 12.

CHRISTIANO, Lawrence, Martin EICHENBAUM & Sergio REBELO (2011), « When is the government spending multiplier large? », in Journal of Political Economy, vol. 119, n° 1.

CHRISTIANO, Lawrence J., Martin S. EICHENBAUM & Mathias TRABANDT (2018), « On DSGE models », NBER, working paper, n° 24811, juillet.

EGGERTSSON, Gauti (2011), « What fiscal policy is effective at zero interest rates? », in NBER Macroeconomics Annual, vol. 2010.

EGGERTSSON, Gauti, Neil MEHROTA & Jacob ROBBINS (2017), « A model of secular stagnation: Theory and quantitative evaluation », NBER, working paper, n° 23093.

EGGERTSSON, Gauti, & Michael WOODFORD (2003), « The zero bound on interest rates and optimal monetary policy », in Brookings Papers on Economic Activity, vol. 2003, n° 1.

GALÍ, Jordi (2014), « Monetary policy and rational asset price bubbles », in American Economic Review, vol. 104, n° 3.

GALÍ, Jordi (2017), « Monetary policy and bubbles in a new Keynesian model with overlapping generations », CREI, working paper,

GALÍ, Jordi (2018), « The state of new Keynesian economics: A partial assessment », NBER, working paper, n° 24845, juillet.

GALÍ, Jordi , J David LÓPEZ-SALIDO & Javier VALLÉS (2007), « Understanding the effects of government spending on consumption », in Journal of the European Economic Association, vol. 5, n° 1.

GERTLER, Mark, & Simon GILCHRIST (2018), « What happened: Financial factors in the Great Recession », NBER, working paper, n° 24746.

GOODFRIEND, Marvin, & Robert G. KING (1997), « The new neoclassical synthesis and the role of monetary policy », in NBER Macroeconomics Annual 1997, vol. 12.

KAPLAN, Greg, Benjamin MOLL & Giovanni L. VIOLANTE (2018), « Monetary policy according to HANK », in American Economic Review, vol. 108, n° 3.

STIGLITZ, Joseph E. (2017), « Where modern macroeconomics went wrong », NBER, working paper, n° 23795.

TAYLOR, John B. (1993), « Discretion versus policy rules in practice », Carnegie-Rochester Series on Public Policy, vol. 39.

Partager cet article
Repost0
25 juillet 2018 3 25 /07 /juillet /2018 16:17
Les récessions laissent des cicatrices permanentes. Mais les prévisionnistes le savent-ils ?

Avant la crise financière mondiale, l’idée d’une fluctuation de la production autour d’une tendance stable faisant plutôt consensus parmi les économistes : si l’économie connaissait une récession, la production s’éloignerait certes de sa trajectoire tendancielle, mais, lors de la reprise, la croissance serait plus rapide qu’en temps normal et la production finirait ainsi par rejoindre sa tendance d’avant-crise. C’est typiquement ce que proposaient comme scénario les modèles qualifiés de « nouveaux keynésiens ».

La faiblesse de la reprise que l’on a pu observer dans les pays développés après la Grande Récession a toutefois remis en cause une telle vision des choses en suggérant que les contractions de l’activité ont beau être temporaires, elles peuvent avoir des effets permanents : suite à une récession, la croissance n’est pas forcément plus rapide qu’avant-crise, si bien que la production (et donc le niveau de vie) peut ne pas revenir à la trajectoire tendancielle qu’elle suivait tendanciellement avant la récession. C’est le constat auquel ont abouti de nombreuses analyses, notamment celle de Jane Haltmaier (2012), celle de Laurence Ball (2014), celle du FMI (2015), celle de Robert Martin et alii (2015) ou encore celle d’Olivier Blanchard et alii (2016). De leur côté, Antonio Fatas et Larry Summers (2017) montrent que les plans d’austérité budgétaire sont susceptibles d’avoir des effets pervers à long terme sur l’activité. Ainsi, les modèles habituellement utilisés ont pu amener à sous-estimer, d’une part, la nécessité d’assouplir les politiques conjoncturelles lors des récessions et, d’autre part, la nocivité des politiques restrictives. Pour Valerie Cerra et Sweta Saxena (2017), il est par conséquent temps de changer de paradigme.

Afin de voir lequel des deux schémas des cycles d’affaires les prévisionnistes ont en tête, John Bluedorn et Daniel Leigh (2018) ont étudié les prévisions à long terme des conjecturistes professionnels dans 38 pays développés et en développement au cours de la période allant de 1989 à 2017. Si les prévisionnistes estiment que les fluctuations de la production correspondent essentiellement à des écarts temporaires autour d’une tendance, on devrait s’attendre à ce que les prévisionnistes ne changent pas leurs prévisions de production à long terme suite à une variation non anticipée de la production dans la période courante. Or, les données suggèrent que les prévisions relatives à la production sont extrêmement persistantes : une révision non anticipée de 1 % la production courante se traduit typiquement par une révision dans le même sens d’environ 2 % du niveau de production prévu dix ans après, aussi bien dans les pays développés que les pays en développement (cf. graphique). Ainsi, les conjecturistes professionnels ont eu tendance, du moins durant ces trois dernières décennies, à considérer que les chocs touchant la production courante ont des effets permanents.

GRAPHIQUE  Révisions des prévisions de la production à long terme versus révisions des prévisions de la production courante (en points de %)

Poursuivant leur analyse, Bluedorn et Leigh constatent que les prévisionnistes ne semblent pas penser que la production tende à croître plus rapidement qu’à la normale suite aux récessions pour revenir à sa trajectoire tendancielle d’avant-crise ; ils s’attendent plutôt à ce que la croissance de la production converge lentement vers son rythme de long terme précédent, si bien que leurs prévisions suggèrent que la production tend à diverger de sa tendance d’après-crise suite aux récessions. Autrement dit, les prévisionnistes prennent depuis longtemps comme hypothèse ce que les études n’ont confirmé que récemment.

Bluedorn et Leigh se demandent ensuite si les conjecturistes surestiment la persistance de la production, c’est-à-dire si le véritable impact à long terme des chocs perçus est plus faible que les conjecturistes ne s’y attendent typiquement. Si les conjecturistes surestimaient systématiquement l’impact à long terme des fluctuations de la production courante, il devrait y avoir une relation négative entre les révisions de la production courante et les erreurs de prévision de la production au cours des dix années suivantes. Bluedorn et Leigh régressent alors l’erreur de prévision pour le niveau du PIB réel sur les dix années suivants la révisions de la production dans la période courante. Ce faisant, ils ne constatent pas que les conjecturistes se trompent systématiquement à propos de la persistance de la production.

 

Références

BALL, Laurence M. (2014), « Long-term damage from the Great Recession in OECD countries », NBER, working paper, n° 20185, mai.

BLANCHARD, Olivier, Eugenio CERUTTI & Lawrence SUMMERS (2015), « Inflation and activity – Two explorations and their monetary policy implications », FMI, working paper, novembre.

BLUEDORN, John, & Daniel LEIGH (2018), « Is the cycle the trend? Evidence from the views of international forecasters », FMI, working paper, n° 18/163. 

CERRA, Valerie, & Sweta C. SAXENA (2017), « Booms, crises, and recoveries: A new paradigm of the business cycle and its policy implications », FMI, working paper, n° 17/250.

FATÁS, Antonio, & Lawrence H. SUMMERS (2016), « The permanent effects of fiscal consolidations », NBER, working paper, n° 22374.

FMI (2015), « Where are we headed? Perspectives on potential output », World Economic Outlook, chapitre 3.

HALTMAIER, Jane (2012), « Do recessions affect potential output? », Fed, international finance discussion paper, n° 1066.

MARTIN, Robert, Teyanna MUNYAN & Beth Anne WILSON (2015), « Potential output and recessions: Are we fooling ourselves? », Fed, international finance discussion paper, n° 1145.

Partager cet article
Repost0
11 juillet 2018 3 11 /07 /juillet /2018 10:28
Gordon et l’hypothèse du taux de chômage naturel

Il y a soixante ans, Albin W. Phillips (1958) décelait une relation décroissante entre variation des salaires et taux de chômage en étudiant près d’un siècle de données empiriques relatives à l’économie britannique : plus le taux de chômage augmentait, moins les salaires augmentaient rapidement. En faisant l’hypothèse d’une croissance de la productivité constante, les keynésiens en déduisaient une relation décroissante entre inflation et taux de chômage : plus le taux de chômage augmente, moins les prix auraient tendance à augmenter, ce qui amena Paul Samuelson et Robert Solow (1960) à suggérer que les autorités monétaires pouvaient choisir un « menu » entre inflation et chômage. Les keynésiens adoptèrent ainsi la courbe de Phillips, non seulement parce qu’elle leur permit de confirmer l’idée de rigidité des salaires et de dynamiser leur cadre théorique en reliant l’évolution du chômage à celle des prix, mais aussi parce qu’ils pouvaient ainsi continuer de justifier l’adoption de politiques conjoncturelles : il suffisait a priori que les autorités laissent l’inflation s’accélérer pour réduire le chômage.

Lors de son allocution présidentielle à l’American Economic Association, le monétariste Milton Friedman (1968) assena il y a un demi-siècle ce qui semble être le premier coup sérieux porté au keynésianisme en avançant l’hypothèse du taux de chômage naturel. A court terme, il y a effectivement une courbe de Phillips, c’est-à-dire une relation décroissante entre inflation et chômage : une accélération de l’inflation réduit le chômage en amenant les travailleurs à  sous-estimer leur pouvoir d’achat, si bien que leurs salaires réels diminuent et que les entreprises sont incitées à accroître leur demande de travail. Mais une fois que les travailleurs ont pris conscience de leur erreur et qu’ils corrigent en conséquence leurs anticipations, ils réclament une hausse de leurs salaires nominaux, si bien que les entreprises réduisent leur demande de travail et le chômage revient à son niveau initial, celui-là même que Friedman qualifie de « naturel », mais l’inflation reste supérieure à ce qu’elle était initialement : c’est l’hypothèse accélérationniste. A long terme, la courbe de Phillips serait donc verticale : qu’importe le niveau d’inflation, le taux de chômage est à son niveau naturel. Friedman en concluait que la politique monétaire était neutre à long terme : elle ne peut durablement réduire le chômage en-deçà de son niveau naturel (à moins de générer une inflation insoutenable) et ce d’autant plus que ce dernier est déterminé par des facteurs du côté de l’offre.

Cette première attaque lancée contre la citadelle keynésienne ouvrit la voie à un second assaut, mené cette fois-ci par les nouveaux classiques. Robert Lucas et ses adeptes affirmèrent que la courbe de Phillips était verticale aussi bien à long terme qu’à long terme : dès lors que les agents ont des anticipations rationnelles, ils ne se trompent dans leurs anticipations d’inflation que si des chocs aléatoires touchent la politique monétaire. Même si les nouveaux classiques délaissent la question du chômage, les enseignements tirés de leurs modélisations sont clairs : le chômage en vigueur ne serait autre qu’un chômage naturel et ne pourrait donc refluer qu’à travers l’adoption de politiques structurelles. De leur côté, des keynésiens comme Robert Solow et James Tobin cherchèrent à répliquer, mais cela n’empêcha pas le concept de taux de chômage d’équilibre d’être largement accepté dans la profession, au point que, très rapidement, même des keynésiens comme Rudiger Dornbusch et Stanley Fischer ou Robert J. Gordon (1978) évoquèrent la courbe de Phillips verticale dans leurs manuels de macroéconomie respectifs. 

Plusieurs historiens de la pensée ont remis en question le récit habituellement fait de la diffusion de l’hypothèse du taux de chômage naturel [Cherrier et Goutsmedt, 2017]. Par exemple, James Forder (2014) a noté que Samuelson et Solow avaient eux-mêmes remarqué que la courbe de Phillips était instable et conclu que les autorités monétaires ne pouvaient s’appuyer dessus de façon assurée. Ainsi, Friedman aurait délibérément passé sous silence ces réserves lors de son allocution présidentielle. Récemment, Aurélien Goutsmedt et Goulven Rubin (2018) ont noté que ce ne sont pas les monétaristes et les nouveaux classiques qui contribuèrent le plus à la diffusion du concept de chômage naturel, mais les keynésiens eux-mêmes. 

Pour comprendre pourquoi et comment les keynésiens ont pu reprendre un concept qui avait initialement été introduit pour les ébranler, Goutsmedt et Rubin se alors sont concentrés sur la trajectoire intellectuelle de l’un d’entre eux, en l’occurrence Robert Gordon, l’économiste du MIT qui gagna en célébrité ces dernières années de ce côté-ci de l’Atlantique avec sa thèse d’une « fin de la croissance ».

Au début des années soixante-dix, Gordon s’opposait à l’hypothèse du taux de chômage naturel au motif qu’elle ne serait pas vérifiée par les données empiriques : les estimations que Solow (1969) (son directeur de thèse) et lui-même avaient réalisées chacun de leur côté indiquaient que le paramètre associé à l’inflation anticipée était inférieur à l’unité, ce qui suggérait que l’inflation ne s’ajustait pas totalement par rapport aux salaires. Gordon (1971a, 1971b) en concluait que la thèse accélérationniste de Friedman n’était pas valide et qu’il y avait bien un arbitrage entre inflation et chômage à long terme. Pour autant, il ne pensait pas que la courbe de Phillips était stable : comme Samuelson et Solow, il estimait qu’elle était susceptible de se déplacer, aussi bien à gauche qu’à droite. Ainsi, pour expliquer l’accélération de l’inflation que connaissait alors l’économie américaine, Gordon privilégiait l’explication qu’avançait George Perry (1970) : les pressions inflationnistes résulteraient des changements dans la composition de la population active, notamment avec l’arrivée massive des femmes et des jeunes sur le marché du travail dans les années soixante, qui aurait déplacé la courbe de Phillips sur la droite.

La conversion de Gordon commença vers 1972. Cette année-là, il introduisit un modèle intermédiaire incorporant un taux de chômage naturel au-delà d’un certain niveau d’inflation, mais où la pente de la courbe de Phillips à long terme était variable en-deçà de ce seuil, tout en soulignant que l’approche accélérationniste n’était pas valide dans le cadre d’une déflation. A partir de 1973, les nouvelles données empiriques amènent peu à peu Gordon à adopter l’hypothèse du taux de chômage naturel : au fil des années, la pente de la courbe de Phillips à long terme, telle qu’elle se dessinait à travers les données, se rapprochait de la verticale. En 1977, Gordon indiqua explicitement avoir adopté l’hypothèse du taux de chômage naturel. En 1978, dans son manuel, il abandonna son modèle intermédiaire en proposant un modèle plus simple, sûrement pour des raisons pédagogiques. 

La critique du nouveau classique Thomas Sargent (1971) a sûrement contribué à convaincre Gordon d’utiliser une courbe de Phillips verticale à long terme. Mais si cette critique montra que les tests utilisés par les keynésiens ne pouvaient pas rejeter l’hypothèse du taux de chômage naturel, ils ne la validaient pas non plus. Goutsmedt et Rubin notent que Gordon a adopté l’hypothèse du taux de chômage nature alors même que les données empiriques ne suggéraient toujours pas que le paramètre estimé sur l’inflation anticipée était proche de l’unité. Pour eux, le revirement de Gordon s’explique essentiellement par deux choses. D’une part, celui-ci subit directement l’influence de Friedman, qu’il côtoya à l’Université de Chicago. D’autre part, l’adoption de l’hypothèse du taux de chômage naturel ne l’empêchait pas de justifier l’adoption de politiques conjoncturelles en vue de stabiliser l’activité. En effet, il l’introduisit dans un modèle de concurrence imparfaite où les rigidités salariales empêchaient l’apurement des marchés et faisaient apparaître du chômage involontaire.

Ainsi, la diffusion du concept de taux de chômage naturel ne semble pas avoir été synonyme de défaite pour les keynésiens. Quelques décennies plus tôt, plusieurs d’entre eux cherchaient déjà à donner des fondements microéconomiques à la macroéconomie keynésienne. Don Patinkin (1956) tenta notamment de montrer que le keynésianisme n’était pas incompatible avec l’hypothèse d’un auto-ajustement de l’économie ; par contre, il estimait que le retour vers le plein-emploi était tellement lent que cela justifiait l’usage des politiques conjoncturelles pour stabiliser l’activité. Le raisonnement de Gordon était à peine différent : le taux de chômage tend peut-être vers son niveau naturel, mais il le fait si lentement que l’assouplissement des politiques conjoncturelles apparaît nécessaire. Mais alors que les keynésiens comme Patinkin jugeaient que la relance budgétaire était plus efficace que l’assouplissement monétaire, les nouveaux keynésiens comme Gordon jugent au contraire que cette dernière est plus efficace que la première pour éliminer la composante conjoncturelle du chômage.

Pour conclure, Goutsmedt et Rubin soulignent à quel point le récit habituellement fait des débats autour de la courbe de Phillips lors des années soixante-dix ignore la richesse des échanges et en particulier des réactions de la part des keynésiens. Les travaux empiriques que ces derniers réalisaient à l’époque constataient que le coefficient associé aux anticipations d’inflation était variable, si bien qu’ils concluaient que la courbe de Phillips à long terme était susceptible de varier. La conversion de Gordon et des autres keynésiens n’a pas été sans coûts. Si Gordon n’avait pas abandonné son modèle à coefficient variable et si ce dernier avait été largement diffusé, les économistes n’auraient pas été surpris par l’absence d’inflation lors de la Grande Récession. Les dernières modélisations ont cherché à estimé le paramètre sur les anticipations d’inflation au lieu de considérer qu’elle est égale à l’unité. Elles trouvent une faible élasticité de l’inflation courante vis-à-vis de l’inflation passée, ce qui amène certains comme Olivier Blanchard (2016) à se demander si’ l’économie américaine ne s’est pas libérée de la « malédiction accélérationniste ». 

 

Références

BLANCHARD, Olivier (2016), « The US Phillips curve: Back to the 60s? », PIIE, policy brief, n° 16-1.

CHERRIER, Beatrice, & Aurélien GOUTSMEDT (2017), « The making and dissemination of Milton Friedman’s 1967 AEA presidential address », in The Undercover Historian (blog), le 27 novembre. Traduction française, « L’élaboration et la réception du discours présidentiel de Friedman », in Annotations (blog).

DORNBUSCH, Rudiger, & Stanley FISCHER (1978), Macroeconomics, McGraw-Hill Companies.

FORDER, James (2014), Macroeconomics and the Phillips Curve Myth, Oxford University Press.

FRIEDMAN, Milton (1968), « The role of monetary policy », in American Economic Review, vol. 58, n° 1.

GORDON, Robert J. (1971a), « Inflation in recession and recovery », in Brookings Papers on Economic Activity, vol. 1971, n° 1.

GORDON, Robert J. (1971b), « Steady anticipated inflation: Mirage or oasis? », in Brookings Papers on Economic Activity, vol. 1971, n° 2.

GORDON, Robert J. (1972), « Wage-price controls and the shifting Phillips curve », in Brookings Papers on Economic Activity, vol. 1972, n° 2.

GORDON, Robert J. (1977), « Can the inflation of the 1970s be explained? », in Brookings Papers on Economic Activity, vol. 1977, n° 1.

GORDON, Robert J. (1978), Macroeconomics, Little, Brown and Company.

GOUTSMEDT, Aurélien, & Goulven RUBIN (2018), « Robert J. Gordon and the introduction of the natural rate hypothesis in the Keynesian framework », Centre d’Economie de la Sorbonne, document de travail, n° 2018.13.

PATINKIN, Don (1956), Money, Interest and Prices.

PERRY, George L. (1970), « Changing labor markets and inflation », in Brookings Papers on Economic Activity, vol. 1970, n° 3.

PHILLIPS, Albin William (1958), « The relation between unemployment and the rate of change of money wage rates in the United Kingdom, 1861–1957 », in Economica, vol. 25, n° 100. 

SAMUELSON, Paul A. & Robert M. SOLOW (1960), « Problem of achieving and maintaining a stable price level: Analytical aspects of anti-inflation policy », in American Economic Review, vol. 50, n° 2.

SARGENT, Thomas J. (1971), « A note on the “accelerationist” controversy », in Journal of Money, Credit and Banking, vol. 3, n° 3.

SOLOW, Robert M. (1969), Price Expectations and the Behavior of the Price Level, Manchester University Press.

Partager cet article
Repost0
17 juin 2018 7 17 /06 /juin /2018 21:45
Informatisation, productivité et emploi

A la fin des années quatre-vingt, Robert Solow (1987) notait que « les ordinateurs sont partout, sauf dans les statistiques de productivité ». En fait, c’est au cours de la décennie suivante que le développement des technologies d’information et de communication a amorcé une forte accélération de la croissance de la productivité. Et celle-ci a naturellement alimenté les craintes pour l’emploi.

Selon des économistes comme Erik Brynjolfsson et Andrew McAfee (2011, 2014), le développement des technologies de l’information a stimulé et devrait continuer de stimuler la croissance de la productivité dans tous les secteurs aux Etats-Unis, en particulier ceux intensifs en technologies de l’information, si bien que le paradoxe de Solow ne serait vraiment plus d’actualité ; mais en outre, cet essor conduirait à une substitution croissante des travailleurs par les machines. D’une part, la baisse de la part du revenu national rémunérant le travail et, d’autre part, le découplage entre croissance de la productivité et croissance du salaire moyen [Stansbury et Summers, 2017], deux tendances que l’on observe aussi bien aux Etats-Unis que dans d’autres pays développés, tendent à accréditer une telle thèse ; d’ailleurs, Loukas Karabarbounis et Brent Neiman (2014) expliquent cette déformation du partage de la valeur ajoutée par une baisse des prix des biens d’investissement qui serait associée à la diffusion des technologies d’information.

Daron Acemoglu, David Autor, David Dorn, Gordon Hanson et Brendan Price (2014) ont cherché à savoir si les avancées technologiques associées aux technologies de l’information ont eu tendance à accroître la productivité aux Etats-Unis tout en y rendant les travailleurs redondants. Premièrement, en se focalisant sur les secteurs qui utilisent les nouvelles technologies de l’information plutôt que sur les secteurs qui les produisent, ils peinent à mettre en évidence que la croissance de la productivité soit plus rapide dans les secteurs les plus intensifs en technologies de l’information. En tout cas, les données ne suggèrent pas que la croissance de la productivité soit plus rapide dans les secteurs intensifs en technologies de l’information depuis le tournant du siècle. Deuxièmement, si les technologies de l’information accroissent la productivité et réduisent les coûts, cela devrait accroître la production dans les secteurs intensifs en technologies de l’information. Or, il apparaît que dans les secteurs intensifs en technologies de l’information où la croissance de la productivité du travail s’est accélérée, cette accélération a été associée à une baisse de la production et à une baisse encore plus rapide de l’emploi. Il est difficile de concilier ce constat avec l’idée que l’informatisation et les nouveaux équipements intensifs en technologies d’information impulsent un nouvel essor de la productivité. Pour Acemoglu et ses coauteurs, leurs résultats amènent non seulement à revoir les explications habituellement avancées pour résoudre le paradoxe de Solow, du moins en ce qui concerne l’industrie, mais aussi à douter de la thèse de Brynjolfsson et McAfee.

Se demandant alors pourquoi les machines seraient substituées par des machines, si ce n’est pour accroître la productivité, Charles-Marie Chevalier et Antoine Luciani (2018) ont cherché à déterminer si ce sont les mêmes endroits au sein du secteur manufacturier ou non qui connaissent à la fois de destructions d’emplois et d’une absence de gains de productivité du travail sous l’effet de l’informatisation. Pour cela, ils ont étudié les données françaises allant de 1994 à 2007 et relatives à 228 secteurs manufacturiers, en distinguant les secteurs selon leur niveau technologique et les emplois selon leur niveau de qualification. En effet, le travail peut aussi bien être complémentaire que substituable avec le capital : comme l’ont souligné David Autor, Frank Levy et Richard Murnane (2003), cela dépend du degré routinier des tâches assurées par les travailleurs, puisqu’un travailleur a d’autant plus de chances d’être remplacé par une machine qu’il assure des tâches routinières. C’est d’ailleurs ce qui explique la polarisation de l’emploi, c’est-à-dire le déclin de la part des emplois moyennement qualifié et la hausse tant de la part des emplois qualifiés que des emplois non qualifiés : puisque ce sont les tâches réalisées par les travailleurs moyennement qualifiées qui sont les plus routinières, ce sont eux qui, pour l’heure, ont le plus de chances d’être remplacés par des machines [Harrigan et alii, 2016].

L’analyse réalisée par Chevalier et Luciani suggère que, contrairement à l’économie américaine, les secteurs français qui produisent du capital informatique ne présentent pas de gains de productivité en lien avec l’informatisation, ce qui suggère que la « French tech » souffre bien d’un sous-développement. Par contre, en ce qui concerne les secteurs qui se contentent d’utiliser ce capital informatique, l’informatisation tend à légèrement stimuler la productivité du travail, tout en réduisant significativement la taille des effectifs. Ces baisses d’effectifs sont concentrées dans les industries de faible technologie, en particulier pour la main-d’œuvre peu qualifiée, et s’accompagnent au final par de significatifs gains de productivité. De tels effets ne sont pas manifestes en ce qui concerne les secteurs de moyenne ou haute technologie : l’informatisation ne s’y traduit pas par une réduction des effectifs, et ce qu’importe le niveau de qualification de la main-d’œuvre, mais par contre par une hausse de la part de l’emploi qualifié. L’informatisation semble favoriser les ventes et l’emploi dans le secteur tertiaire, sans pour l’heure s’y traduire par des gains significatifs en termes de productivité du travail. Au final, au niveau agrégé, il apparaît que l’informatisation semble alimenter de profonds changements structurels : d’un côté, elle améliore la productivité dans les secteurs en déclin et, de l’autre, elle entraîne un enrichissement en travail pour les secteurs en essor. 

 

Références

ACEMOGLU, Daron, David AUTOR, David DORN, Gordon H. HANSON & Brendan PRICE (2014), « Return of the Solow paradox? IT, productivity, and employment in US manufacturing », in American Economic Review, vol. 104, n° 5.

AUTOR, David, Frank LEVY & Richard J. MURNAME (2003), « The skill content of recent technological change: an empirical exploration », in The Quarterly Journal of Economics, vol. 118, n° 4.

BRYNJOLFSSON, Erik, & Andrew MCAFEE (2011), Race Against the Machine, Digital Frontier Press.

BRYNJOLFSSON, Erik, & Andrew MCAFEE (2014), The Second Machine Age, W. W. Norton & Company

CHEVALIER, Charles-Marie, & Antoine LUCIANI (2018), « Computerization, labor productivity and employment: Impacts across industries vary with technological level », INSEE, document de travail, n° G2018/2.

HARRIGAN, James, Ariell RESHEF & Farid TOUBAL (2016), « The march of the techies: Technology, trade, and job polarization in France, 1994-2007 », NBER, working paper, n° 22110.

KARABARBOUNIS, Loukas, & Brent NEIMAN (2014), « The global decline of the labor share », in Quarterly Journal of Economics, vol. 129, n° 1.

SOLOW, Robert M. (1987), « We’d better watch out ».

Partager cet article
Repost0
20 mai 2018 7 20 /05 /mai /2018 13:40
L’endettement public évince-t-il l’investissement des entreprises ?

Dans le sillage de la crise financière mondiale, la dette publique a fortement augmenté dans les pays développés, non seulement parce que les Etats ont adopté des plans de relance et eu à secourir le secteur bancaire, mais aussi plus simplement parce que la contraction de l’activité a réduit mécaniquement les recettes fiscales. En conséquence, l’encours de la dette publique a quasiment doublé entre 2007 et 2017, en passant de 35 à 66 milliers de milliards de dollars ; au cours de cette période, l’endettement public est passé de 71 à 105 % du PIB dans les pays développés et de 36 à 48 % du PIB dans les pays en développement.

De nombreuses études se sont alors penchées sur le lien entre dette publique et activité économique. Carmen Reinhart et Kenneth Rogoff (2010) ont par exemple suggéré qu’un endettement public élevé s’accompagnait d’une activité plus faible, sans pour autant trancher sur le sens de causalité. Or, comme le rappellent Ugo Panizza et Andrea Presbitero (2014), il se peut tout simplement que ce soit la faiblesse de l’activité qui tende à pousser l’endettement public vers des niveaux élevés. D’autre part, un niveau d’endettement élevé peut nuire à la croissance économique, non pas en soi, mais parce qu’il incite les gouvernements à adopter (à tort ou à raison) des plans d’austérité pour se désendetter.

L’un des arguments avancés par la littérature néoclassique pour démontrer la nocivité de l’endettement public et l’inefficacité des plans de relance est celui de l’effet d’éviction (crowding out effect). Si l’Etat finance un plan de relance par l’endettement, cela signifie qu’il émettra des titres. Or, les épargnants risquent de se détourner des titres des entreprises privées pour acheter les titres publics, jugés moins risqués, en particulier lors d’une récession. D’autre part, la hausse de l’offre de titres se traduit par une hausse des taux d’intérêt. Les entreprises auront alors plus de difficultés à financer leurs investissements, en particulier si elles sont également contraintes dans l’accès au crédit, ce qui risque d’être le cas des petites entreprises [Broner et alii, 2014]. Au final, la hausse des dépenses publiques tend peut-être d’un côté à stimuler la demande, mais le surcroît de dette publique nécessaire pour la financer tend peut-être au contraire à la déprimer, si bien que l’effet net sur la demande pourrait au final être nul, voire négatif.

Les keynésiens taclent cet argument sur deux fronts. D’une part, lors d’une récession, en l’occurrence lorsque les entreprises ont des problèmes de débouchés, elles sont loin d’utiliser la totalité de leurs capacités de production (pour preuve, elles ont tendance à licencier). Comme elles n’ont pas vraiment besoin d’accroître leurs capacités de production, elles vont donc peu investir, donc peu émettre de titres. Bref, l’offre de titres augmente peut-être, mais moins que l'endettement public. D’autre part, même si les entreprises émettaient autant de titres qu’auparavant, les titres publics ne vont pas forcément se substituer à des titres privés dans les portefeuilles des épargnants. En effet, lors d’une récession provoquée par une insuffisance de la demande globale, cette dernière a pour contrepartie une forte épargne. Autrement dit, la demande de titres, et en particulier de titres sûrs, augmente fortement : la demande de titres est donc loin de rester constante. La hausse de la dette publique permet ainsi d’absorber l’excès de dette et de satisfaire par là les préférences des ménages, c’est-à-dire leur besoin d’un placement sans risque.

Yi Huang, Ugo Panizza et Richard Varghese (2018) ont analysé les données relatives à un échantillon de près de 550.000 entreprises dans 69 pays, en l’occurrence aussi bien des pays développés que des pays émergents, au cours de la période allant de 1998 à 2014. Ils mettent en évidence une corrélation négative entre la dette publique et l’investissement des entreprises : les niveaux élevés de dette publique sont associés à un plus faible investissement privé et avec une plus forte sensibilité de l’investissement aux fonds autogénérés. Cette corrélation pourrait refléter une causalité keynésienne allant de la faiblesse de l’investissement vers la dette publique (ou plutôt, l’action d’une troisième variable, en l’occurrence la faiblesse de l’activité) : lorsque les entreprises investissent peu, ce qui risque d’être le cas lors d’une récession, l’Etat va avoir tendance à stimuler l’activité, donc à s’endetter. Huang et ses coauteurs pensent toutefois que la causalité va dans le sens inverse.

En effet, ils constatent que les niveaux élevés de dette publique nuisent particulièrement aux secteurs qui sont (pour des raisons technologiques) très dépendants des financements externes. Ensuite, leurs données suggèrent que la sensibilité de l’investissement aux fonds internes augmente avec le niveau de dette publique, ce qui suggère que celui-ci ce traduit par un resserrement des contraintes de financement pour les entreprises. Enfin, il apparaît que la dette publique accroît la sensibilité de l’investissement aux flux de trésorerie pour les entreprises les plus petites et les plus jeunes, c’est-à-dire celles qui sont les plus susceptibles d’être contraintes en termes de crédit, mais qu’elle n’a pas d’effet sur la sensibilité de l’investissement des entreprises les plus grandes et les plus vieilles aux flux de trésorerie.

Pour autant, l’analyse menée par Huang et alii ne dit rien quant à l’effet de la dette publique sur l’ensemble de l’investissement, si bien qu’il est possible que des niveaux plus élevés de dette publique accroissent l’investissement pour l’ensemble des secteurs et des entreprises, mais que l’investissement augmente moins pour les entreprises qui sont les plus exposées aux contraintes de crédit. Ensuite, l’étude ne se focalise que sur une seule composante de la demande globale, en l’occurrence l’investissement des entreprises, et ne prend pas en compte la position de l’économie dans le cycle d’affaires. Les constats auxquels elle aboutit n’impliquent donc pas qu’une expansion budgétaire financée par endettement soit injustifiée lors des ralentissements de l’activité.

 

Références

BRONER, Fernando, Aitor ERCE, Alberto MARTIN & Jaume VENTURA (2014), « Sovereign debt markets in turbulent times: Creditor discrimination and crowding-out effects », in Journal of Monetary Economics, vol. 61.

HUANG, Yi, Ugo PANIZZA & Richard VARGHESE (2018), « Does public debt crowd out corporate investment? International evidence », CEPR, discussion paper, n° 12931.

PANIZZA, Ugo, & Andrea F PRESBITERO (2014), « Public Debt and Economic Growth: Is There a Causal Effect? », in Journal of Macroeconomics, vol. 41.

REINHART, Carmen M., & Kenneth S. ROGOFF (2010), « Growth in a time of debt », in American Economic Review, vol. 100, n° 2, mai.

Partager cet article
Repost0
27 avril 2018 5 27 /04 /avril /2018 07:18
Mondialisation : qu’est-ce que les économistes ont pu manquer ?

L’élection de Donald Trump, la victoire du « Leave » lors du référendum autour du Brexit et l’essor de partis « populistes » dans de nombreux pays développés apparaissent pour certains comme un contrecoup de la mondialisation : une partie de la population, notamment les travailleurs peu qualifiés, rejetterait le libre-échange parce qu’elle n’en verrait que trop peu les gains, voire ne penserait n’en subir que des coûts. Ce rejet se serait notamment matérialisé à travers l’adoption de mesures protectionnistes de la part des autorités américaines, notamment vis-à-vis de la Chine, des mesures qui pourraient déboucher sur une véritable guerre commerciale suite à une escalade des représailles. Ces événements ont ravivé parmi les économistes un débat qu’ils pensaient avoir tranché il y a deux décennies.

Les économistes, même orthodoxes, n’ont jamais dénié le fait que l’ouverture d’un pays au commerce puisse avoir de profonds effets distributifs, c’est-à-dire qu’il puisse y avoir des gagnants et des perdants. Selon les théories traditionnelles du commerce international, l’intégration commerciale est susceptible d’accroître les inégalités de revenu au sein des pays développés. Par exemple, dans le modèle HOS, à deux biens, les économies relativement abondantes en capital se spécialisent dans les productions nécessitant relativement plus de capital, tandis que les économies relativement abondantes en travail se spécialisent dans les productions nécessitant relativement plus de travail. Cela se traduit dans chaque économie par une déformation du partage de la valeur ajoutée : au sein des économies abondantes en capital, la part du revenu national rémunérant le capital augmente et (symétriquement) la part rémunérant le travail diminue. Les propriétaires du capital gagnant en moyenne un revenu plus élevé que les travailleurs, les inégalités tendent par là à se creuser. C’est le corollaire du théorème Stolper-Samuelson.

Dans le prolongement du modèle HOS les théories néo-factorielles aboutissent au même résultat en distinguant les travailleurs selon leur niveau de qualification. Les pays développés, relativement bien dotés en travail qualifié, devraient se spécialiser dans les productions utilisant relativement plus de celui-ci, tandis que les pays en développement, surtout dotés en travail non qualifié, se spécialisent dans les productions utilisant relativement plus de celui-là. Dans les pays développés, cela signifie que les travailleurs qualifiés, davantage demandés, voient leur rémunération augmenter, tandis que les travailleurs peu qualifiés, peu demandés et notamment exposés au chômage, voient leur revenu décliner.

Sur le plan théorique, les économistes devraient donc craindre que l’ouverture au commerce internationale détériore la situation des travailleurs les moins qualifiés dans les pays développés, ne serait-ce que temporairement ; la spécialisation devrait amener ces pays à créer davantage d’emplois qualifiés, ce qui compenserait les destructions d’emplois peu qualifiés et permettrait à ceux qui les occupaient de se reclasser. Pour autant, au milieu des années quatre-vingt-dix, les économistes, notamment Paul Krugman (1995), ne pensaient pas que la mondialisation et surtout l’essor que connaissaient alors des pays à bas salaires comme la Chine aient de puissants effets sur l’emploi sur les pays développés. Certes, leurs données suggéraient que la croissance du commerce avait des effets dépressifs sur les salaires des travailleurs peu éduqués, mais ces effets semblaient quantitativement modestes. Les importations de biens manufacturés en provenance de pays en développement ne représentaient d’ailleurs que l’équivalent de 2 % de leur PIB ; cela ne semblait pas suffisant pour modifier les salaires relatifs de plus de quelques pourcents. Aux yeux de nombreux économistes, la hausse des inégalités que connaissaient les pays développés depuis les années quatre-vingt semblait plutôt être liée essentiellement au progrès technique.

Krugman (2018) reconnaît que le consensus des années quatre-vingt-dix s’est révélé erroné ou, tout du moins, excessivement optimiste. En effet, ce que saisissaient les données du début des années quatre-vingt-dix n’était que les prémices d’un phénomène qu’Arvind Subramanian et Martin Kessler (2013) ont depuis lors qualifié d’« hypermondialisation » (hyperglobalization). Jusqu’aux années quatre-vingt, le commerce mondial, relativement au PIB, n’était qu’à peine plus élevé qu’à la veille de la Première Guerre mondiale. Mais durant les deux décennies suivantes, le commerce mondial a poursuivi son expansion pour rapidement atteindre un volume qui n’avait jamais été observé. En outre, si les exportations de biens manufacturés en provenance des pays en développement ne représentaient qu’une faible part de l’économie mondiale au début des années quatre-vingt-dix, elles représentent désormais une part trois fois plus élevée (cf. graphique).

GRAPHIQUE  Volume des exportations de biens manufacturés réalisés par les pays en développement (en % du PIB mondial)

source : Krugman (2018), d’après les données de la Banque mondiale

Cela ne veut pas forcément dit que les effets sur les pays développés soient désormais trois fois plus amples qu’ils ne l’étaient au début des années quatre-vingt-dix. D’une part, une part importante des exportations des pays en développement ont eux-mêmes pour destination. D’autre part, avec la fragmentation internationale du processus productif, c’est-à-dire le développement de chaînes de valeur mondiales, le contenu en facteurs du commerce entre pays en développement et pays développés n’a pas changé aussi rapidement que son volume : une partie des biens exportés par les pays en développement (par exemple les iPhones produits en Chine) contiennent des composants venant de pays développés.

Ces deux dernières décennies ont aussi été marquées par d’énormes déséquilibres de comptes courants, or d’amples variations de comptes courants sont susceptibles d’entraîner de sérieux problèmes d’ajustement. Par exemple, aux Etats-Unis, jusqu’à la fin des années quatre-vingt-dix, l’emploi manufacturier chutait certes en termes relatifs, c’est-à-dire relativement à l’emploi total, mais pas en termes absolus. Mais après 1997, ce n’est plus le cas : son montant absolu décline également, et ce parallèlement à un accroissement du déficit des échanges (hors pétrole) équivalent à 2,5 % du PIB. Selon Krugman, ce creusement du déficit a pu réduire la part de l’activité manufacturière dans le PIB de 1,5 point de pourcentage (soit plus de 10 %, si bien qu’il a pu contribuer par là à plus de la moitié de la baisse (de 20 %) de l’emploi manufacturier entre 1997 et 2005. La hausse des importations a ainsi constitué un puissant choc pour plusieurs travailleurs américains, ce qui a contribué à nourrir le rejet de la mondialisation.

Lors des années quatre-vingt-dix, les économistes se demandaient quel était l’impact du commerce international sur de larges ensembles de classes sociales et non sur des travailleurs de catégories ou secteurs spécifiques. En outre, ils supposaient d’une certaine façon que le facteur travail était mobile (professionnellement et géographiquement) au sein de chaque économie. Délaissant une telle hypothèse, David Autor, David Dorn et Gordon Hanson (2013) se sont focalisés sur les effets du « choc chinois » (« China shock ») sur les marchés du travail locaux, or ces effets se sont révélés être amples et durables : de nombreux travailleurs ont perdu leur emploi du fait de la concurrence étrangère et cet événement a durablement déprimé leurs revenus par la suite.

Mais selon Krugman, ce n’est pas parce que les économistes ont sous-estimé les coûts de la mondialisation qu’il est justifié que les pays développés adoptent des mesures protectionnistes. Tout d’abord, l’hypermondialisation semble n’avoir été qu’un événement temporaire, unique, associée à l’émergence de l’économie chinoise. D’ailleurs, le volume des échanges, relativement au PIB mondial, s’est stabilisé ces dernières années. Surtout, chercher à inverser le processus, en embrassant le protectionnisme, provoquerait de profondes réallocations de main-d’œuvre et celles-ci seraient aussi douloureuses que celles générées par le « choc chinois ». En outre, les entreprises ont investissant massivement en supposant que les économies resteraient ouvertes ; si cette hypothèse ne se vérifiait pas, de nombreux actifs issus de ces investissements (notamment des usines) deviendraient de véritables « épaves ».

 

Références

AUTOR, David H., David DORN & Gordon H. HANSON (2013), « The China syndrome: Local labor market effects of import competition in the United States », in American Economic Review, vol. 103, n° 6.

KRUGMAN, Paul (1995), « Growing world trade: Causes and consequences », Brookings Papers on Economic Activity, n° 1995-1.

KRUGMAN, Paul (2018), « Globalization: What did we miss? ».

SUBRAMANIAN, Arvind, & Martin KESSLER (2013), « The hyperglobalization of trade and its future », Peterson Institute for International Economics, working paper, n° 13-6.

WOOD, Adrian (2018), « The 1990s trade and wages debate in retrospect », in voxEU.org, 25 avril.

Partager cet article
Repost0
19 avril 2018 4 19 /04 /avril /2018 19:33
Comment se répartissent les revenus en France ?

Bertrand Garbinti, Jonathan Goupille-Lebret et Thomas Piketty (2018) ont cartographié la répartition du revenu avant impôt en France de la période allant de 1900 à 2014, ce qui leur a permis de préciser comment les inégalités de revenu ont évolué à long terme.

GRAPHIQUE 1  Revenu moyen par adulte en France (en euros de 2014)

 

Leurs données confirment que le revenu moyen par adulte a fortement augmenté depuis le début du vingtième siècle : il a été multiplié par 7 entre 1900 et 2014 en passant de 5.000 à 35.000 euros (cf. graphique 1). Cette croissance des revenus a toutefois été loin d’être régulière ; elle s’est essentiellement réalisée au cours des Trente glorieuses, en l’occurrence entre 1945 et 1980. En effet, le revenu moyen par adulte a décliné de 0,1 % par an entre 1900 et 1945 ; il a augmenté de 3,7 % par an au cours des décennies qui ont immédiatement suivi la Seconde Guerre mondiale ; puis, entre 1980 et 2014, il a augmenté plus lentement, en l’occurrence au rythme de 0,9 % par an. C’est essentiellement la même évolution qui a été observée dans les autres pays européens et au Japon et, dans une moindre mesure, aux Etats-Unis et au Royaume-Uni.

GRAPHIQUE 2  Parts du revenu national détenues en France par les…

En 2014, les 50 % les plus modestes détenaient un revenu moyen de 16.000 euros, soit la moitié du revenu moyen de l’ensemble de la population ; ils détenaient 23 % de l’ensemble du revenu national (cf. graphique 2). Les « classes moyennes » (en l’occurrence les personnes qui ne font partie ni des 50 % les plus modestes, ni des 10 % les plus rémunérés) avaient un revenu moyen de 39.000 euros et détenaient environ 45 % du revenu national. Les 10 % les plus riches avaient un revenu moyen de 110.000 euros, c’est-à-dire 3,2 fois plus élevé que le revenu moyen de la population, et détenaient environ 32 % du revenu national. Parmi eux, les 1 % les plus riches avaient un revenu moyen de 374.200 euros et détenaient 11 % du revenu national.

GRAPHIQUE 3  Part du revenu national détenue en France par les 1 % les plus rémunérés

Le plus grand bouleversement qu’a connu la répartition des revenus en France au cours du vingtième siècle a été la hausse de la part du revenu national allant aux 50 % les plus modestes et aux classes moyennes, autrement dit la baisse de la part du revenu national allant aux 10 % les plus rémunérés. Alors qu’elle atteignait plus de 50 % à la veille de la Première Guerre mondiale, la part du revenu national rémunérant les 10 % les plus riches a chuté pour atteindre légèrement plus de 30 % en 1945. Les inégalités ont augmenté jusqu’en 1968, lors de la période de reconstruction, pour ensuite fortement baisser à nouveau jusqu’en 1983. Cette baisse des inégalités de revenu s’explique, d’une part, par la chute des inégalités salariales, notamment avec les fortes revalorisations du salaire minimum dans le sillage de mai 1968 qui ont soutenu les bas salaires, et, d’autre part, par la baisse de la part du revenu rémunérant le capital. Durant les Trente glorieuses, en l’occurrence entre 1950 et 1983, les revenus ont augmenté plus rapidement parmi les 95 % les plus modestes que parmi les 5 % les plus rémunérés : le revenu des premiers augmentait au rythme de 3,5 % par an, contre 1,8 % pour les seconds, ce qui s’est traduit par un resserrement de l’éventail des revenus.

GRAPHIQUE 4  Part du revenu national détenue en France par les 0,1 % les plus rémunérés

Le début des années quatre-vingt marque un profond changement de tendance, puisque depuis la part détenue par les plus hauts revenus a eu tendance à augmenter. C’est en particulier le cas de la part du revenu national rémunérant les 1 % les plus rémunérés : entre 1983 et 2007, elle a augmenté de plus de 50 %, en passant de moins de 8 % à plus de 12 % (cf. graphique 3). Plus on zoome sur le sommet de la répartition des revenus, plus la hausse de la part détenue par les hauts revenus apparaît importante. La part des hauts revenus a légèrement diminué dans le sillage de la crise financière mondiale de 2008, mais elle reste bien plus élevée qu’au début des années quatre-vingt : entre 2008 et 2013, la part du revenu national rémunérant les 1 % les plus rémunérés a fluctué entre 10 % et 12 %. Au final, la hausse de la part des hauts revenus en France depuis les années quatre-vingt a beau être moins ample que celle observée aux Etats-Unis (où elle a atteint environ 20 %), elle reste spectaculaire.

GRAPHIQUE 5  Croissance réelle cumulée des revenus en France selon le centile dans la répartition (en %)

Entre 1983 et 2014, le revenu moyen par adulte a augmenté de 35 % en termes réels. La croissance cumulée n’a pas été la même d’une classe de revenus à l’autre (cf. graphique 5). Par exemple, entre 1983 et 2014, les 50 % les plus modestes ont vu leur revenu augmenter de 30 % en moyenne, les classes moyennes ont vu le leur augmenter de 27 % et les 10 % les plus riches de 50 %. En fait, ce sont surtout les 5 % les plus rémunérés qui ont vu leur revenu fortement augmenter : entre 1983 et 2014, le revenu des 5 % les plus riches a augmenté au rythme de 3 % par an environ, contre 1 % pour les 95 % les plus modestes. Par conséquent, les 1 % les plus rémunérés ont vu leur revenu augmenter de 100 %, c’est-à-dire doubler ; les 0,1 % les plus rémunérés ont vu le leur augmenter de 160 %. Au final, entre 1900 et 1950, les 50 % les moins rémunérés avaient capté 34 % de la croissance économique, contre 7 % pour les 10 % les plus rémunérés ; entre 1983 et 2014, les 50 % les moins rémunérés ont capté 22 % des fruits de la croissance, contre 42 % pour les 10 % les plus rémunérés et même 21 % pour les 1 % les plus rémunérés. 

GRAPHIQUE 6  Composition du revenu selon le niveau de revenu en 2012

L’accroissement des inégalités de revenu à partir du début des années quatre-vingt s’explique par l’augmentation tant des hauts revenus du travail que des hauts revenus du capital. La hausse des plus hauts revenus du capital s’explique, d’une part, par la hausse de la part du revenu national rémunérant le capital et, d’autre part, par l’accentuation de la concentration du patrimoine entre les mains des plus riches.  Or, c’est souvent les mêmes personnes qui gagnent à la fois les plus hauts revenus du travail et les plus hauts revenus du capital ; c’est le cas des dirigeants des plus grosses entreprises, qui bénéficient de bonus élevés et de nombreuses stock-options. Toutefois, la corrélation entre richesse et revenu du travail a eu tendance à changer ces dernières décennies : il est de plus en plus difficile d’accéder aux rangs des plus grandes propriétaires de patrimoine avec le seul revenu du travail. Dans la mesure où ce sont parmi les 5 % et surtout les 1 % les plus rémunérés que les revenus ont le plus fortement augmenté, Garbinti et ses coauteurs doutent que l’accroissement des inégalités s’explique par le progrès technique et les modifications de l’offre et de la demande de travail qualifié ; ils mettent plutôt l’accent sur les facteurs institutionnels, notamment la gouvernance d’entreprise, la désyndicalisation et le déclin des processus de négociation collective, ainsi que la baisse des taux marginaux d’imposition des hauts revenus. 

GRAPHIQUE 7  Inégalités de revenu versus inégalités de patrimoine en France

La baisse des inégalités de revenu à long terme s’explique essentiellement par la chute des revenus du capital ; ces derniers n’ont pas retrouvé le niveau qu’ils atteignaient avant la Première Guerre mondiale. Les conflits, mais aussi des mesures fiscales comme l’impôt sur le revenu et la taxation de la transmission de patrimoine ont réduit le volume et la concentration du patrimoine. A long terme, les inégalités de revenu du travail n’ont que peu diminué. Depuis le début du vingtième siècle, les plus modestes et les classes moyennes tirent l’essentiel de leurs revenus du revenu du travail ; ce sont essentiellement les plus hauts revenus qui gagnent les revenus du capital et ces derniers constituent effectivement l’essentiel de leurs revenus (cf. graphique 6). Le revenu du capital a toujours été plus concentré que le revenu du travail ; les 10 % les plus rémunérés dans la répartition du revenu du travail ont toujours capté entre 25 % et 30 % du revenu du travail total, tandis que les 10 % de ceux qui gagnent les plus hauts revenus du capital détiennent une part entre deux ou trois fois plus élevé du revenu du capital total (cf. graphique 7). En outre, le revenu du capital est plus concentré que le patrimoine, notamment parce que la détention d’actifs à haut rendement comme les actions est plus concentrée que la détention d’actifs à faible rendement tels que les obligations ou l’immobilier.

GRAPHIQUE 8  Ratio entre le revenu des hommes sur celui des femmes selon l’âge en France 

L’analyse de Garbinti et alii éclaire également les inégalités de revenu entre hommes et femmes. Même si elles restent encore plus élevées, les inégalités de revenu du travail entre les sexes ont eu tendance à décliner ces dernières décennies (cf. graphique 8), mais plus lentement parmi les plus hauts revenus du travail. Les femmes représentaient 12 % des personnes situées par les 0,1 % des plus hauts revenus, contre 7 % en 1994 et 5 % en 1970. 

GRAPHIQUE 9  Part du revenu national détenue par les 1 % les plus rémunérés en France et aux Etats-Unis

Enfin, Garbinti et ses coauteurs ont comparé la dynamique des inégalités de revenue en France avec celle que l’on observe aux Etats-Unis (cf. graphique 9). Au début du vingtième siècle, elles étaient à peu près au même niveau et ont connu par la suite une évolution du même profil, en l’occurrence celle d’un U. Au milieu des années soixante-dix, la part du revenu national détenue par les 1 % les plus rémunérés était à peu près la même des deux côtés de l’Atlantique. Dès la fin des années soixante-dix, elle augmentait aux Etats-Unis, tandis qu’elle poursuivait sa baisse en France, du moins initialement ; ce n’est qu’au début des années quatre-vingt qu’elles tendent également à augmenter en France, mais leur hausse est bien moins prononcée qu’aux Etats-Unis. En 2012, les 1 % les plus rémunérés captaient une part deux fois plus élevée du revenu national aux Etats-Unis qu’en France. Aujourd’hui, le revenu moyen par adulte a beau être 30 % plus faible en France qu’aux Etats-Unis, le revenu avant impôt moyen parmi les 50 % les plus modestes est plus élevé en France qu’aux Etats-Unis. 

 

Références

GARBINTI, Bertrand, Jonathan GOUPILLE-LEBRET & Thomas PIKETTY (2016), « Accounting for wealth inequality dynamics: Methods, estimates and simulations for France (1800-2014) », WIID, working paper.

GARBINTI, Bertrand, Jonathan GOUPILLE-LEBRET & Thomas PIKETTY (2018), « Income inequality in France, 1900-2014: Evidence from distributional national accounts (DINA) », Banque de France, document de travail, n° 677.

Observatoire des inégalités (2017), « Combien gagnent les très riches ? », 17 mars.

Partager cet article
Repost0
1 avril 2018 7 01 /04 /avril /2018 14:46
Les keynésiens et la critique de Lucas

Les années soixante ont brutalement mis un terme à l’hégémonie du keynésianisme orthodoxe aussi bien dans le champ universitaire qu’au sein des institutions en charge de la politique économique. Selon les comptes-rendus généralement dressés de cette période cruciale de la pensée économique, le keynésianisme se serait trouvé ébranlé sur plusieurs fronts. D’un côté, les politiques de gestion de la demande globale se sont révélées incapables de sortir les pays développés de la stagflation où se retrouvèrent piégées dans les années soixante-dix ; pire, elles auraient précisément contribué à alimenter les pressions inflationnistes. De l’autre, les monétaristes, puis les nouveaux classiques se sont attaqués aux keynésiens sur le plan théorique. Mais si les monétaristes s’en sont pris aux conclusions des keynésiens (orthodoxes) tout en partageant leur appareillage méthodologique, les nouveaux classiques ont privilégié des assauts sur un plan méthodologique (1).

C’est précisément une remise en cause de la méthodologie des économètres keynésiens que Robert Lucas (1976), le chef de file de la nouvelle école classique, a délivré lorsqu’il a formulé sa fameuse « critique ». Selon lui, la structure d’un modèle économique se ramène à des relations qui décrivent le comportement des agents économiques ; or ce comportement change lorsque les décideurs modifient la politique économique ; donc la structure du modèle se modifie suite aux décisions en matière de politique économique. Par conséquent, un bon modèle économétrique ne pourra donner une évaluation quantitative fiable de politiques économiques alternatives que s’il repose sur des équations qui prennent en compte les réponses des agents aux modifications de la politique économique. Dans la mesure où, selon lui, les keynésiens ne prennent pas en compte le fait qu’un changement de politique économique est susceptible de modifier les paramètres de leurs modèles économétriques, ces derniers seraient incapables de prévoir les effets d’un tel changement de politique économique. C’est donc une remise en cause de la cohérence interne des modèles keynésiens que propose Lucas. Les modèles de nouveaux classiques seraient par contre immunisés contre une telle critique, si bien que leur utilisation marquerait une réelle avancée méthodologique.

Beaucoup considèrent le raisonnement de Lucas comme inattaquable, y voyant un véritable « syllogisme » et un coup fatal assené au keynésianisme orthodoxe. C’est cette vision des choses qu’Aurélien Goutsmedt, Erich Pinzon-Fuchs, Matthieu Renault et Francesco Sergi (2017) ont remis en question. Ils soulignent tout d’abord que la critique de Lucas présente deux dimensions, une première méthodologique et une seconde positive : du point de vue méthodologique, elle remet en question la stabilité des paramètres structurels des modèles macroéconométriques de grande échelle ; du point de vue positif, elle suggère que la stagflation des années soixante-dix aurait résulté d’un changement dans le comportement des agents, un changement qui aurait lui-même été provoqué par un changement de politique économique.

Sur le plan méthodologique, Goutsmedt et ses coauteurs notent que les récits de la contre-révolution menée par les nouveaux classiques passent généralement sous silence la réaction des keynésiens face à la critique de Lucas, alors même qu’ils en sont explicitement la cible ; or, ceux-ci ne sont pas restés inertes. D’un côté, de vieux keynésiens comme Franco Modigliani, James Tobin, Robert Solow et Edmond Malinvaud ont vu dans la critique de Lucas un postulat dont la pertinence empirique restait à démontrer. En l’occurrence, ils considéraient que la charge de la preuve revenait aux nouveaux classiques eux-mêmes. De l’autre, une nouvelle génération de keynésiens, comprenant notamment Alan Blinder, Stanley Fischer, Olivier Blanchard, Robert Gordon et Stephen R. King, a cherché à tester directement la pertinence empirique de la critique de Lucas. Ces économistes ont étudié la stabilité des paramètres dans leurs modèles via plusieurs tests économétriques. Ces derniers les ont amenés à conclure que le type d’instabilité des paramètres que suggérait Lucas peut ne pas être observé, si bien que sa critique s’en trouverait empiriquement réfutée.

Concernant la dimension positive de la critique de Lucas, Goutsmedt et ses coauteurs notent que cette dernière est loin de constituer un simple syllogisme. Lawrence Klein, Stanley Fischer, Robert Gordon, Otto Eckstein et Robert Solow ont reconnu que les performances des modèles keynésiens n’ont pas été terribles durant la Grande Stagflation, mais, prenant au sérieux la critique de Lucas, ils se sont demandé si celle-ci a fourni une explication alternative pour comprendre le contexte économique des années soixante-dix. Les keynésiens sont arrivés à la conclusion que les nouveaux classiques ne proposaient pas de véritable explication de la stagflation. Par contre, il suffisait tout simplement aux keynésiens d’introduire les chocs d’offre dans leurs modèles (et la Grande Stagflation semblait effectivement résulter de chocs d’offre) pour améliorer leurs performances. Bref, le paradigme keynésien était loin de constituer un programme de recherche dégénératif. C’est malheureusement l’image qu’il renvoya aux nouvelles générations de macroéconomistes…

La réaction des (vieux et nouveaux) keynésiens orthodoxes n’a pas suffi pour entraîner un abandon de la critique de Lucas et déjouer la contre-révolution menée par les nouveaux classiques. Séduits par la méthodologie des nouveaux classiques et son apparente scientificité, les nouvelles générations de macroéconomistes l’adoptèrent. Au final, les idées des nouveaux classiques ont beau avoir manqué de soutien empirique, elles ont conduit, d’un côté, à un relatif déclin des keynésiens dans le champ orthodoxe et, de l’autre, au développement de la théorie du cycle d’affaire réel, puis des modèles DSGE. Les « nouveaux keynésiens » n’ont pas été étrangers à cette tournure des événements en embrassant également la méthodologie des nouveaux classiques et certains de leurs concepts, comme celui des anticipations rationnelles.

 

(1) En fait, les monétaristes, et en premier lieu Milton Friedman, n’ont pas rejeté le cadre d’analyse qu’adoptaient les keynésiens orthodoxes (par exemple, le modèle IS-LM ou la relation de Phillips) ; ils rejetaient surtout les interprétations et les conclusions que ces derniers en tiraient. Lorsque les nouveaux classiques menèrent à son terme l’assaut contre la citadelle des keynésiens et imposèrent leur point de vue méthodologique, beaucoup de monétaristes comprirent à leur grand dam qu’ils avaient bien plus de points en commun avec les seconds qu’avec les premiers…

 

Références

GOUTSMEDT, Aurélien, Erich PINZON-FUCHS, Matthieu RENAULT & Francesco SERGI (2017), « Reacting to the Lucas critique: The Keynesians’ pragmatic replies », Centre d’économie de la Sorbonne, working paper, n° 2017.42.

LUCAS, Robert (1976), « Econometric policy evaluation: A critique », Carnegie-Rochester Conference Series on Public Policy, vol. 1.

Partager cet article
Repost0
17 mars 2018 6 17 /03 /mars /2018 19:16
L’asymétrie entre pays créanciers et débiteurs dans la résorption des déséquilibres

Au milieu des années deux mille, à la veille de la crise financière mondiale, les économistes et les grands dirigeants mondiaux s’inquiétaient du creusement des déséquilibres mondiaux (cf. graphique 1). C’est notamment la persistance d’un large déficit extérieur américain et d’un ample excédent extérieur chinoise qui retenait toutes les attentions. Certes l’économie chinoise n’aurait pas pu tirer sa croissance des exportations si d’autres pays n’avaient pas laissé leur déficit extérieur se creuser ; l’économie américaine n’aurait pas pu continuer de tirer sa croissance de la demande intérieure sans financements de la part du reste du monde. Mais un tel déséquilibre pouvait ainsi signaler une croissance insoutenable : beaucoup s’attendaient à ce que les Etats-Unis, à force de s’endetter vis-à-vis du reste du monde, ne soient plus capables de rembourser leur dette ou perdent la confiance des créanciers, ce qui aurait contraint l’économie américaine à un douloureux ajustement, entraîné un effondrement du dollar, etc. Après coup, s’il apparaît que ces déséquilibres n’ont peut-être pas directement été à l’origine de la crise financière mondiale, ils ont pu toutefois y contribuer en alimentant la liquidité mondiale et en relâchant les conditions financières à travers le monde.

GRAPHIQUE 1  Soldes courants (en % de la production mondiale)

source : BRI (2018)

Les déséquilibres mondiaux sont souvent observés en termes de flux, c’est-à-dire au prisme des soldes des comptes courants. Mais c’est oublier que lorsqu’un pays connaît un excédent ou un déficit courant, ce déséquilibre modifie un stock existant de créances ou de dettes vis-à-vis du reste du monde. Il faut donc observer également (et peut-être en priorité) les déséquilibres en termes de stocks. Les économistes se sont donc de plus en plus penchés sur la position externe nette, c’est-à-dire la différence entre le montant des actifs externes nets et celui des passifs externes nets. Cet indicateur se révèle effectivement crucial. Par exemple, Luis Catao et Gian Maria Milesi-Ferretti (2014) ont noté que le montant des passifs extérieurs nets, rapporté au PIB, est un indicateur avancé assez robuste des crises externes.

Avec la crise financière mondiale s’est amorcée une correction des déséquilibres en termes de flux et celle-ci s’est poursuivie une fois la reprise amorcée, ce qui amène beaucoup à y voir un signe d’une plus grande soutenabilité de la croissance mondiale. Mais si l’on adopte le point de vue des stocks, il est difficile de voir une réelle correction des déséquilibres mondiaux (cf. graphique 2). En effet, les déséquilibres en termes d’actifs extérieurs nets se sont légèrement réduits après la crise, mais cette correction n’a été que temporaire ; les déséquilibres en termes de stocks se sont de nouveau creusés par la suite.

GRAPHIQUE 2  Avoirs extérieurs nets (en % de la production mondiale)

source : BRI (2018)

En analysant un échantillon composé de 39 pays développés et émergents, Enrique Alberola, Ángel Estrada et Francesca Viani (2018) ont cherché à savoir si les déséquilibres en termes de stocks avaient un impact stabilisateur ou déstabilisateur sur l’accumulation de richesses externes du pays. Leur analyse suggère que le stock de dette nette des pays débiteurs s’avère stabilisateur, dans la mesure où il semble contribuer à réduire les déséquilibres des échanges, à limiter les déficits du compte courant et à stopper l’accumulation future de dette. En l’occurrence, les pays débiteurs tendent à verser plus de revenus sur leur stock de dette, mais aussi à consommer et à importer moins en raison d’un effet de richesse négatif. Par contre, en ce qui concerne les pays créanciers, le stock positif d’actifs étrangers nets contribue, toute chose égale par ailleurs, à accroître les excédents futurs du compte courant, dans la mesure où les déséquilibres des échanges ne s’ajustent pas. Cela semble être lié à un faible effet de richesse sur les importations. Ainsi, si les déséquilibres de stocks ont un impact déstabilisateur sur l’accumulation de richesse des pays créanciers, c’est soit en raison de la faible propension marginale de ces pays à consommer de leur richesse externe nette, soit en raison d’autres facteurs qui empêchent leur solde commercial de se détériorer malgré une hausse des dépenses, par exemple une forte propension à consommer les biens produits localement. En outre, même si les pays créanciers tendent à connaître une appréciation de leur devise, celle-ci ne suffit pas pour limiter leur accumulation de richesse.

Les pays créanciers et débiteurs ne s’ajustent donc pas symétriquement face aux déséquilibres courants. A court terme, ce sont les pays débiteurs qui sont exposés aux tensions financières. S’ils se voient par exemple soudainement privés d’accès au financement extérieur, ils subissent alors une puissante contraction de leur demande intérieure qui améliore soudainement leur solde extérieur. Mais les pays créanciers ne répondent pas symétriquement en accroissant leur demande intérieure. L’ajustement des déséquilibres ne passe donc que par la contraction de la demande intérieure dans les pays déficitaires, en faisant notamment basculer ceux-ci dans la récession. Au niveau mondial, un tel ajustement tend à freiner le commerce international et la croissance mondiale. Les choses iraient bien différemment si l’ajustement des déséquilibres courants passait également par la stimulation de la demande dans les pays créanciers : leurs importations augmenteraient, ce qui se traduirait notamment par une hausse des exportations des pays débiteurs et permettrait à ces derniers de s’ajuster sans forcément connaître de récession, ni sans peser sur la croissance mondiale. La réticence des pays créanciers à résorber leurs propres déséquilibres en accroissant leur demande apparaît au final quelque peu absurde. En laissant aux seuls pays débiteurs la tâche de l’ajustement, ils voient par là même leur propre croissance s’en trouver freinée. Surtout, on peut se demander à quoi bon cela sert-il d’accumuler de la richesse si ce n’est pas pour la dépenser…

 

Références

ALBEROLA, Enrique, Ángel ESTRADA & Francesca VIANI (2018), « Global imbalances from a stock perspective. The asymmetry between creditors and debtors », BRI, working paper, n° 707.

CATAO, Luis, & Gian Maria MILESI-FERRETTI (2014), « External liabilities and crises », in Journal of International Economics, vol. 94, n° 1.

Partager cet article
Repost0
27 février 2018 2 27 /02 /février /2018 18:30
Et si la natalité était le meilleur indicateur avancé de l’activité ?

Plusieurs études ont montré que la fertilité était une variable procyclique, c’est-à-dire qu’elle a tendance à augmenter d’autant plus rapidement que la croissance économique est forte et, réciproquement, à baisser lors des récessions. Tomáš Sobotka, Vegard Skirbekk et Dimiter Philipov (2011) notaient qu’au cours d’une récession, « la baisse de la fertilité commence avec un bref retard compris entre une année et deux années et demie ». Autrement dit, les couples réagiraient au ralentissement de la croissance et à la détérioration subséquente de la situation sur le marché du travail en faisant moins d’enfants. 

La dernière crise financière mondiale ne fait pas exception. Sam Roberts (2009), dans le New York Times, avait par exemple rapidement noté que la Grande Récession qui secouait alors l’économie américaine avait provoqué une forte baisse de nombre de naissances dès 2008. Mais si c’est effectivement le cas, alors cette chute des naissances a dû être provoquée par une chute des conceptions en 2007, voire en 2008. Or, la croissance économique était encore vigoureuse en 2007 et la récession n’a officiellement éclaté au Etats-Unis qu’au cours de la seconde moitié de l’année 2008, officiellement en décembre selon la datation du NBER.

Kasey Buckles, Daniel Hungerman et Steven Lugauer (2018) ont alors étudié l’idée que la natalité puisse constituer un indicateur avancé du cycle d’affaires : elle semble atteindre un pic et amorcer une chute quelques temps avant le début des récessions. C’est ce qu’ils constatent en étudiant les données relatives à plus de 100 millions de naissances qui ont eu lieu aux Etats-Unis entre 1988 et 2015. Lors des dernières récessions qui ont touché l’économie américaine, c’est-à-dire celles qui ont commencé en 1990, 2001 et 2008, le taux de croissance des conceptions a commencé à chuter quelques trimestres avant que la conjoncture se retourne ; en l’occurrence, la baisse du nombre de naissances lors de ces trois récessions ne s’explique pas par une hausse du nombre d’avortements ou de fausses couches. Par exemple, si le nombre de conceptions avait légèrement augmenté durant le premier semestre de l’année 2007, son taux de croissance en rythme annuel est devenu négatif au troisième trimestre, soit bien avant que la production économique ne décroche. De plus, les chutes de conceptions qui précèdent les récessions sont en l’occurrence larges. Par exemple, le taux de croissance annuel des conceptions a chuté de plus de 4 points de pourcentage à la veille de la Grande Récession. Buckles et ses coauteurs ont également étudié l’évolution des conceptions à la fin des récessions ; celle-ci est toutefois bien plus ambigüe qu’à la veille des récessions. Par exemple, la Grande Récession n’a pas seulement été suivie par une reprise sans emplois (jobless recovery) ; elle a aussi été une reprise sans bébés (baby-less recovery).

GRAPHIQUE  Taux de croissance du PIB et du nombre de conceptions d’enfants autour de la Grande Récession

source : Buckles et alii (2018)

Les comportements en matière de fertilité sont donc bien plus tournés vers l’avenir (forward-looking) que ne le suggéraient les études existantes portant sur le lien entre natalité et cycle économique. Ils sont en l’occurrence très sensibles aux conditions économiques prévalant dans le futur proche ; cela remet en cause l’idée de Gary Becker (1960) selon laquelle la « production » de bébés est relativement insensible au court terme.

Buckles et ses coauteurs ne concluent pas que la chute de la natalité puisse être à l’origine des récessions ; si les ménages retardent leurs projets de grossesse, ils peuvent également par là même retarder certains achats de biens, notamment des biens durables comme les logements. Par contre, il est possible que le facteur qui est à l’origine du recul des conceptions soit également celui qui est à l’origine de la contraction de l’activité économique, en pesant dans les deux cas sur la confiance, mais qu’il affecte plus rapidement les comportements en matière de conception que l’activité économique. Cette étude souligne surtout qu’il serait opportun de s’appuyer sur le nombre de grossesses pour améliorer les prévisions de croissance économique. Certes la corrélation entre fertilité et activité économique est loin d’être parfaite, mais le nombre de grossesses apparaît être un indicateur avancé du cycle économique au moins aussi performant que la plupart de ceux retenus, par exemple le niveau de confiance des consommateurs, l’indice Case-Shiller utilisé pour juger de l’évolution des prix de l’immobilier ou encore les achats de biens durables comme les machines à laver, les lave-vaisselles et les voitures.

 

Références

BECKER, Gary (1960), « An economic analysis of fertility », in Demographic and Economic Change in Developed Countries.

BUCKLES, Kasey, Daniel HUNGERMAN & Steven LUGAUER (2018), « Is fertility a leading economic indicator? », NBER, working paper, n° 24355, février.

ROBERTS, Sam (2009), « Birth rate is said to fall as a result of recession », in The New York Times, 7 août.

SOBOTKA, Tomáš, Vegard SKIRBEKK & Dimiter PHILIPOV (2011), « Economic recession and fertility in the developed world », in Population and Development Review, vol. 37, n° 2.

Partager cet article
Repost0
18 décembre 2017 1 18 /12 /décembre /2017 16:07
Quel est le taux de rendement de tout ?

Les économistes se sont depuis longtemps intéressés au taux de rendement du capital : les classiques David Ricardo et John Stuart Mill ont consacré une grand part de leur travail aux intérêts et aux profits ; c’est en raison de la baisse tendancielle du taux de profit que Karl Marx estime que le capitalisme est condamné à s’effondrer, etc. Aujourd’hui, le taux de rendement du capital continue de tenir une place importante dans de nombreux débats, notamment autour du taux d’intérêt naturel, de la stagnation séculaire et des inégalités. Malgré ce rôle dans de nombreuses théories, les estimations empiriques restent bien fragmentaires le concernant. L’immobilier est par exemple une composante essentielle du patrimoine des ménages, il représente environ la moitié de la richesse nationale d’une économie et, pourtant, les rendements de l’immobilier restent peu connus.

Oscar Jordà, Katharina Knoll, Dmitry Kuvshinov, Moritz Schularick et Alan Taylor (2017) ont cherché à combler ce vide en construit une large base de données annuelles sur les taux de rendement des plus grandes classes d’actifs dans 16 pays développés depuis 1870 : deux classes d’actifs risqués (l’immobilier et les actions) et deux classes d’actifs relativement sûrs (les obligations publiques et les bons du Trésor).

Jordà et ses coauteurs ont tout d’abord remarqué la grande stabilité du rendement des actifs risqués. L’immobilier résidentiel et les actions ont généré des gains réels élevés, en moyenne d’environ 7 % par an. Avant la Seconde Guerre mondiale, les rendements sur l’immobilier et les actions ont suivi des trajectoires finalement assez similaires ; pour autant, l’immobilier rapportait davantage que les actions. Depuis le conflit, les actions ont davantage rapporté en moyenne que l’immobilier, mais au prix d’une plus forte volatilité et une plus forte synchronisation avec le cycle d’affaires ; les actions ont connu des cycles d’expansion et d’effondrements plus fréquents et plus corrélés. En outre, s’il n’y a pas de corrélation entre les rendements immobiliers au niveau international, les rendements boursiers sont devenus de plus en plus corrélés d’un pays à l’autre au fil du temps, en particulier depuis la Seconde Guerre mondiale.

Le rendement réel des actifs sûrs a été très volatile à long terme et souvent bien plus volatile que le rendement réel des actifs risqués. Chacune des deux guerres mondiales et les années soixante-dix ont été marquées par de très faibles taux sur les actifs sûrs, bien inférieurs à zéro, ce qui permit notamment aux gouvernements de se désendetter rapidement au sortir de la Seconde Guerre mondiale. Le taux réel sur les actifs sûrs a atteint des pics durant l’entre-deux-guerres et au milieu des années quatre-vingt, lorsque les banques centrales avaient fortement resserré leur politique monétaire pour combattre l’inflation. Au final, la baisse des taux réels sur les actifs sûrs que nous avons pu observer ces dernières décennies s’apparente à celle que l’on a pu observer dans les décennies qui ont précédé la Première Guerre mondiale. A très long terme, donc, le taux réel sur les actifs sûrs semble fluctuer autour des niveaux qu’il atteint actuellement, si bien que le niveau actuel n’est finalement pas inhabituel au regard de l’Histoire. Par conséquent, les économistes devraient se demander, non pas pourquoi les taux ont baissé ces dernières décennies, mais plutôt pourquoi ils ont été aussi élevés au milieu des années quatre-vingt.

Ces constats sont cohérents avec celui auquel avaient abouti Kathryn Holston, Thomas Laubach et John Williams (2016) : le taux d’intérêt naturel semble avoir décliné depuis le milieu des années quatre-vingt et est aujourd’hui proche de zéro. Ils sont également compatibles avec l’hypothèse de la stagnation séculaire avancée par Larry Summers (2014) : en raison de dynamiques lourdes comme la hausse des inégalités ou le vieillissement démographique, les économies avancées ont peut-être tendance à dégager un excès structurel d’épargne qui les piège durablement dans une trappe à faible investissement. Une telle éventualité a de profondes implications pour la conduite de la politique économique. Par exemple, si les taux d’intérêt de court terme risquent plus fréquemment de se retrouver contraints par leur borne inférieure zéro, alors les banques centrales peuvent ne pas parvenir à ramener rapidement les économies au plein emploi suite aux chocs macroéconomiques ; cela remet d’ailleurs en cause la stratégie de ciblage d’inflation qu’elles ont eu tendance à suivre ces dernières décennies.

A très long terme, la prime de risque a été volatile ; elle tend même à fluctuer sur plus décennies, en des amplitudes qui dépassent celles observées à la fréquence des cycles d’affaires, sans pour autant présenter de tendance manifeste à long terme. En temps de paix, les primes de risque sont généralement stables, comprises entre 4 % et 5 %, mais elles sont étrangement restées élevées des années cinquante aux années soixante-dix. Les fortes hausses de prime de risque en temps de guerre et durant l’entre-deux-guerres découlent avant tout de la chute des taux d’intérêt sur les actifs sûrs plutôt que d’une hausse des taux d’intérêt sur les actifs risqués. Le taux risqué a souvent été plus lisse et plus stable que les taux sûrs, en restant en moyenne compris entre 6 % et 8 % dans la plupart des pays. Récemment, la prime de risque s’est élevée, précisément parce que les taux sûrs ont chuté plus rapidement que les taux risqués. Pour autant, les deux taux de rendement sont restés proches de leur valeur historique normale. 

Jordà et ses coauteurs précisent également la relation entre le taux de rendement sur le patrimoine (r) et le taux de croissance de l’économie (g) qui tient une place si cruciale dans le magnum opus de Thomas Piketty (2013). Selon ce dernier, si le rendement du capital est supérieur à la croissance, alors les rentiers accumulent plus rapidement du patrimoine, ce qui accroît les inégalités de richesse. Ce serait effectivement le cas ces dernières décennies, ce qui expliquerait la hausse des ratios richesse sur revenu et la hausse des inégalités [Piketty et Zucman, 2013]. En se concentrant sur les données britanniques sur la période s’écoulant entre 1210 et 2013, Jakob Madsen (2017) a récemment confirmé l’idée que l’écart rg tend à gouverner la dynamique du ratio richesse sur revenu et la part du revenu du capital. En analysant des données relatives à de nombreuses économies, Jordà et ses coauteurs constatent que r est fortement supérieur à g : au niveau mondial et dans la plupart des pays, le taux de rendement pondéré du capital représentait le double du taux de croissance au cours des 150 dernières années. Les exceptions concernent des périodes très particulières, en l’occurrence les années de conflit ou les années qui entourent immédiatement celles-ci. En l’occurrence, avant la Seconde Guerre mondiale, l’écart rg s’élevait en moyenne à 5 % par an, sauf lors de la Première Guerre mondiale. Aujourd’hui, il reste élevé, compris entre 3 % et 4 % ; il s’est réduit à 2 % durant les années soixante-dix, lors des chocs pétroliers, avant de se creuser dans les années qui ont précédé la crise financière mondiale. Le fait que les rendements du patrimoine soient restés assez élevés et stables depuis les années soixante, tandis que la richesse agrégée s’est accru rapidement, suggère que l’accumulation du capital a contribué à modifier la répartition du revenu national au détriment du travail et par là à alimenter les inégalités de revenu.

 

Références

HOLSTON, Kathryn, Thomas LAUBACH & John C. WILLIAMS (2016), « Measuring the natural rate of interest: International trends and determinants », Réserve fédérale de San Francisco, working paper, n° 2016-11, décembre.

JORDÀ, Oscar, Katharina KNOLL, Dmitry KUVSHINOV, Moritz SCHULARICK & Alan M. TAYLOR (2017), « The rate of return on everything, 1870–2015 », NBER, working paper, n° 24112.

MADSEN, Jakob B. (2017), « Is inequality increasing in r - g? Piketty’s principle of capitalist economics and the dynamics of inequality in Britain, 1210-2013 », CAMA, working paper, n° 63/2017, octobre.

PIKETTY, Thomas (2013), Le Capital au XXIe siècle.

PIKETTY, Thomas, & Gabriel ZUCMAN (2013), « Capital is back: Wealth-income ratios in rich countries 1700-2010 », Paris School of Economics, 26 juillet.

SUMMERS, Lawrence (2014), « U.S. economic prospects: Secular stagnation, hysteresis, and the zero lower bound », in Business Economics, vol. 49, n° 2.

Partager cet article
Repost0
17 décembre 2017 7 17 /12 /décembre /2017 21:25
L’intelligence artificielle et le nouveau paradoxe de la productivité

L’économie américaine (pour ne pas dire l’essentiel des pays développés) présente une situation paradoxale. D’un côté, les systèmes utilisant une intelligence artificielle égalent ou surpassent déjà les capacités humaines dans des domaines toujours plus nombreux, ce qui permet de nouvelles avancées dans d’autres secteurs. On devrait par conséquent s’attendre à une poursuite, voire à une accélération, de la croissance de la productivité et donc des niveaux de vie. Une telle prévision optimiste, promesse d’une hausse soutenue des profits, contribue d’ailleurs sûrement à soutenir les cours boursiers. Pourtant, la croissance de la productivité mesurée a été divisée par deux au cours de la dernière décennie. Ce ralentissement, qui s’est amorcé avant qu’éclate la crise financière mondiale, est un phénomène généralisé : il a initialement touché les pays développés, puis les grands pays émergents. Il contribue par conséquent à contenir la hausse des niveaux de vie : par exemple, la majorité des Américains ont vu leur revenu réel stagné depuis la fin des années quatre-vingt-dix.

Bref, nous nous retrouvons face à une variante du paradoxe de la productivité mis en avant par Robert Solow (1987) : nous voyons partout les nouvelles technologies, sauf dans les statistiques de productivité. Erik Brynjolfsson, Daniel Rock et Chad Syverson (2017) en ont proposé quatre explications possibles.

Selon une première explication, l’optimisme que suscitent les nouvelles technologies est tout simplement infondé. Celles-ci ont peut-être des effets visibles sur certains secteurs en particulier, mais il est possible que leurs effets au niveau agrégé soient diffus. Si c’est effectivement le cas, l’optimisme risque de ne pas perdurer et de laisser place à la seule déception. Une telle révision des anticipations se traduira alors par une chute des valeurs boursières.

Selon une deuxième explication, avancée notamment par Joel Mokyr (2014), il est possible que la croissance de la productivité soit restée soutenue, voire ait accélérée, mais que cela ait échappé aux indicateurs. Bref, le ralentissement de la productivité que l’on a observé cette dernière décennie est peut-être illusoire ; la population tire peut-être davantage de gains des nouvelles technologies qu’on ne le pense. Cela s’expliquerait par le fait que les indicateurs habituels ne sont pas adaptés pour mesurer la valeur ajoutée des récentes innovations. Par exemple, les consommateurs passent une grande partie de leur temps sur leurs smartphones et les réseaux sociaux en ligne, mais comme ces innovations ont un coût monétaire relativement faible, elles  représentent une faible part du PIB relativement à l’utilité qu’elles procurent. Pourtant, plusieurs études, notamment celles de Roberto Cardarelli et Lusine Lusinyan (2015), Chad Syverson (2016) et David Byrne et alii (2016) suggèrent que les problèmes de mesure ne peuvent être la principale explication derrière le ralentissement de la croissance de la productivité : après tout, le PIB ne reflète peut-être pas tous les bénéfices des technologies actuelles, mais il ne reflétait peut-être pas non plus tous les bénéfices des technologies passées.

Selon une troisième explication, les nouvelles technologies génèrent peut-être déjà de nombreux gains, mais ces derniers pourraient être captés par une fraction de l’économie, si bien que leurs effets sur la croissance de la productivité moyenne est faible au niveau agrégé et qu’ils sont nuls pour le travailleur médian. La nature rivale des nouvelles technologies pourrait entraîner une sorte de « ruée vers l’or » à travers laquelle les compétiteurs adoptent des pratiques pour obtenir les gains ou en bloquer l’accès aux autres, c’est-à-dire des pratiques nuisibles pour le reste de l’économie, qui annulent au niveau agrégé les bénéfices des innovations. Une telle hypothèse est cohérente avec plusieurs constats empiriques : les écarts de productivité entre les entreprises les plus avancées et les entreprises moyennes semblent s’être creusés au sein de chaque secteur ces dernières années ; une poignée de « firmes superstars » capte une part de marché de plus en plus grande (Autor et alii, 2017), etc. Certains, comme Jan De Loecker et Jan Eeckhout (2017) ou Germán Gutiérrez et Thomas Philippon (2017), s’inquiètent ainsi de voir la hausse de la concentration dans les différents secteurs et la perturbation résultante du pouvoir de marché des différents agents entraîner des pertes de bien-être au niveau agrégé. En outre, notamment pour cette raison, le revenu total continue peut-être d’augmenter, mais le revenu moyen stagne avec l’accroissement des inégalités.

Selon une quatrième explication, les espoirs ne sont peut-être pas trop optimistes et les indicateurs statistiques n’ont peut-être pas tort : il se pourrait que les gains tirés des nouvelles technologies soient réels et massifs, mais qu’ils ne se sont pas encore manifestés. D’une part, il est possible qu’il faille beaucoup de temps avant que le stock de nouvelles technologies ait atteint une taille suffisante pour déployer tous leurs effets. D’autre part, il est possible que des investissements connexes soient nécessaires pour que le potentiel de ces technologies se concrétise et qu’il faille du temps pour identifier et mettre en œuvre ces investissements. C’est peut-être surtout des investissements dans des actifs intangibles et non des actifs physiques que les nouvelles technologies nécessitent : l’acquisition de certaines compétences, une refonte de l’organisation du travail, etc. En fait, il se pourrait que le délai soit d’autant plus long que la technologie est susceptible de bouleverser l’économie.

Même si les autres explications sont plausibles et cohérentes avec certaines preuves empiriques, c’est la dernière que Brynjolfsson et ses coauteurs privilégient. La (faiblesse de la) croissance actuelle de la productivité n’indique en rien quel sera le rythme de sa croissance future : la croissance de la productivité au cours d’une décennie n’a pas de significatif pouvoir prédictif pour celle de la décennie suivante. Dans la mesure où la croissance de la productivité totale des facteurs est « une mesure de notre ignorance », il n’est pas étonnant que ce résidu ne puisse être prévu à partir de ses valeurs passées.

 

Références

AUTOR, David, David DORN, Lawrence F. KATZ, Christina PATTERSON & John VAN REENEN (2017), « Concentrating on the fall of the labor share », NBER, working paper, n° 23108.

BRYNJOLFSSON, Erik, Daniel ROCK & Chad SYVERSON (2017), « Artificial intelligence and the modern productivity paradox: A clash of expectations and statistics », NBER, working paper, n° 24001, novembre.

BYRNE, David M., John G. FERNALD & Marshall B. REINSDORF (2016), « Does the United States have a productivity slowdown or a measurement problem? », Brookings Papers on Economic Activity.

CARDARELLI, Roberto, & Lusine LUSINYAN (2015), « U.S. total factor productivity slowdown: Evidence from the U.S. states », FMI, working paper, n° 15/116, mai.

DE LOECKER, Jan, & Jan EECKHOUT (2017), « The rise of market power and the macroeconomic implications », NBER, working paper, n° 23687, août.

GUTIÉRREZ, Germán, & Thomas PHILIPPON (2016), « Investment-less growth: An empirical investigation », NBER, working paper, n° 22897, décembre.

MOKYR, Joel (2014), « Secular stagnation? Not in your life », in voxEU.org, 11 août.

SOLOW, Robert (1987), « We'd better watch out », in New York Times Book Review.

SYVERSON, Chad (2016), « Challenges to mismeasurement explanations for the U.S. productivity slowdown », NBER, working paper, n° 21974, février.

Partager cet article
Repost0
10 décembre 2017 7 10 /12 /décembre /2017 18:16
Le capitalisme, les inégalités et la Première Guerre mondiale

Plusieurs publications, notamment les travaux de Thomas Piketty, ont récemment souligné le rôle que les conflits modernes ont pu jouer dans la réduction des inégalités de revenu et de patrimoine en particulier dans la première moitié du vingtième siècle : cette réduction serait en l’occurrence passée par la destruction des actifs physiques, notamment des logements, par la hausse des impôts en vue de financer la guerre, par l’hyperinflation et par la nationalisation de la propriété. Si les origines de la Première Guerre mondiale font actuellement l’objet de nombreuses publications, peu d’entre elles évoquent la possibilité que la causalité puisse aller dans l’autre sens, c’est-à-dire que la hausse des inégalités de revenu et de richesses ait pu être à l’origine du conflit.

Pourtant, plusieurs travaux en économie ont pu affirmer par le passé, notamment avant même le début du conflit, que les forces économiques qui étaient alors à l’œuvre rendaient celui-ci inévitable. C’est le cas de l’ouvrage de John Hobson (1902). Selon ce dernier, les inégalités de revenu dans les pays développés capitalistes, en particulier en Angleterre, avaient pour contrepartie une tendance séculaire à la sous-consommation. Comme les plus modestes et les classes moyennes manquaient de pouvoir d’achat, ces économies généreraient un excès d’épargne relativement aux investissements rentables qui existaient en leur sein. Les propriétaires de capital financier ont alors cherché des débouchés plus profitables pour leurs investissements et ils les trouvèrent à l’étranger, là où la productivité marginale du capital était plus forte, en raison même du manque local de capital : soit ils prêtèrent aux gouvernements étrangers en achetant leurs titres, soit ils procédèrent à des investissements directs à l’étranger. Aucun de ces investissements n’était toutefois sûr dans la mesure où ils étaient réalisés dans des territoires éloignés où, de surcroît, les droits de propriété étaient moins protégés que dans les pays développés. Les capitalistes ont donc cherché à sécuriser leurs investissements en s’appuyant sur le pouvoir étatique, soit en menaçant les gouvernements étrangers de l’usage de la force militaire s’ils ne remboursaient pas leur dette, soit en conquérant directement les territoires pour y faire appliquer les règles de la métropole, notamment en matière de droit de propriété.

L’analyse de Hobson inspira, dans les deux décennies qui suivirent sa publication, de nombreuses analyses, souvent d’obédience marxiste. Vladimir Lénine (1917) estimait que c’était la chute tendancielle du taux de profit dans les économies avancées du monde capitaliste, davantage que la répartition inégalitaire des revenus, qui était à l’origine de la quête de marchés étrangers. Rudolf Hilferding (1910) a suggéré que la baisse tendancielle du taux de profit se traduisait par la consolidation des marchés nationaux et par l’apparition de cartels domestiques qui tiraient leur profit en obtenant des tarifs protectionnistes sur des territoires périphériques toujours plus larges, ce qui générait en retour une demande pour le centre. Pour sa part, Rosa Luxembourg (1913) estimait que, dans la mesure où le capitalisme ne parvenait pas à écouler la totalité des biens produits de façon rentable en raison du manque de demande de la part des plus pauvres, il devait rechercher en permanence et conquérir des marchés non capitalistes à l’étranger ; autrement dit, elle considérait que la survivance de territoires dotés d’un régime précapitaliste était nécessaire à l’expansion du capitalisme.

Si la thèse selon laquelle la Première Guerre mondiale trouverait ses origines dans la propension du capitalisme à devenir impérialiste a continué de recevoir un certain écho par la suite, par exemple dans l’ouvrage de Samir Amin (1974), elle a par contre été délaissée par les économistes et les historiens ces dernières décennies. Branko Milanovic (2016) a quelque peu remis au goût du jour cette théorie en se focalisant sur le rôle que le niveau élevé des inégalités a pu jouer dans l’émergence du conflit. Selon l’explication endogène de la guerre qu’il a par là même avancée, la logique interne des sociétés capitalistes fortement inégalitaires au début du vingtième siècle prédisposèrent celles-ci à l’impérialisme et ce dernier provoqua la guerre.

Thomas Hauner, Branko Milanovic et Suresh Naidu (2017) ont cherché à juger de la pertinence de la thèse de Hobson-Lénine. Ils confirment tout d’abord que les inégalités s’élevaient à des niveaux historiquement élevés dans l’ensemble des pays avancés qui ont participé au conflit (cf. graphique 1). Par exemple, en Angleterre, aux Etats-Unis, aux Pays-Bas, au Japon et en Italie, le coefficient de Gini était compris entre 46 et 55 points. La Grande-Bretagne, qui constituait le pays le plus riche, était aussi, parmi cet ensemble de pays, le plus inégalitaire. Il n’est pas impossible que la répartition du revenu était au Royaume-Uni aussi inégalitaire qu’elle l’est actuellement en Amérique latine.

GRAPHIQUE 1  Les inégalités de revenu entre 1860 et 1910

La répartition du patrimoine était encore plus inégalitaire (cf. graphique 2. Au Royaume-Uni, les 1 % les plus riches détenaient environ 70 % de la richesse nationale et cette part est restée relativement stable sur un quart de siècle. En France, les 1 % les plus riches détenaient une moindre part de la richesse nationale, mais cette part a eu tendance à augmenter ; elle atteignait environ 55-56 % à la veille de la Première Guerre mondiale. La part de la richesse nationale détenue par les 1 % les plus riches était plus faible aux Etats-Unis que dans les pays européens ; elle s’élevait à environ 44 % à la veille du conflit.

GRAPHIQUE 2  La part de la richesse totale détenue par les 1 % les plus riches en France et au Royaume-Uni (en %)

Hauner et ses coauteurs ont décelé d’autres preuves empiriques confortant la thèse de Hobson-Lénine. Par exemple, les détentions nettes d’actifs étrangers ont augmenté, de façons absolue et relative, à la veille du conflit, mais aussi que ces actifs étaient presque entièrement détenus par les plus aisés ; les rendements étrangers apparaissent plus élevés que les rendements domestiques, une fois qu’on les ajuste en fonction du risque, ce qui explique pourquoi les plus riches étaient incités à investir à l’étranger ; l’établissement d’un contrôle politique direct diminuait le degré de risque des actifs étrangers ; l’accroissement des inégalités était associé à une plus grande part des actifs étrangers dans le PIB ; les pays qui possédaient le plus d’actifs étrangers, en pourcentage de leur PIB, disposaient des plus grandes armées. Bref, tous les ingrédients pour qu’éclate le conflit étaient en place et étaient clairement associés à une logique économique. Surtout, les ingrédients des guerres semblent effectivement résidaient au sein même des sociétés capitalistes : les inégalités domestiques sont susceptibles d’alimenter les guerres à l’étranger.

 

Références

AMIN, Samir (1974), L’Accumulation à l’échelle mondiale.

HAUNER, Thomas, Branko MILANOVIC & Suresh NAIDU (2017), « Inequality, foreign investment, and imperialism », MPRA, paper, n° 83068.

HILFERDING, Rudolf (1910), Le Capital financier.

HOBSON, John A. (1902), Imperialism: A Study.

LENINE, Vladimir (1917), L’Impérialisme, stade suprême du capitalisme.

LUXEMBURG, Rosa (1913), L’Accumulation du capital.

MILANOVIC, Branko (2016), Global Inequality: A New Approach For the Age of Globalization, Harvard University Press.

Partager cet article
Repost0

Présentation

  • : D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher