Overblog
Suivre ce blog Administration + Créer mon blog
17 janvier 2020 5 17 /01 /janvier /2020 17:42
La décroissance démographique marquera-t-elle la fin de la croissance économique ?

Beaucoup considèrent que la population mondiale devrait se stabiliser à long terme à un niveau compris entre 8 et 10 milliards de personnes. Mais pour d’autres, notamment Darrell Bricker et John Ibbitson (2019) dans leur livre Empty Planet, il n’est pas improbable qu’elle tende en fait à décliner à long terme avec la poursuite de l’effondrement du taux de fertilité dans l’ensemble des régions du monde (cf. graphique). Dans les pays à haut revenu, le taux de fertilité est déjà inférieur au seuil de remplacement : les femmes ont moins de deux enfants en moyenne. Au Japon et dans certains pays européens comme l’Allemagne et l’Italie, le solde naturel, c’est-à-dire l’écart entre le nombre de naissances et le nombre de décès, est déjà négatif, si bien que leur population tend à réduire en l'absence d'immigration. 

GRAPHIQUE  Taux de fertilité

La décroissance démographique marquera-t-elle la fin de la croissance économique ?

source : Jones (2020)

Cette perspective n’est pas sans susciter des inquiétudes quant à la poursuite de la croissance économique à long terme. D’un point de vue néoclassique, la décroissance démographique est susceptible de freiner la croissance économique du côté de l’offre dans la mesure où elle réduit la main-d’œuvre disponible. Du point de vue keynésien, la décroissance démographique est susceptible de freiner la croissance dans la mesure où elle déprime la demande globale. John Maynard Keynes (1937) s’inquiétait déjà à l’idée que la population puisse décroître. En l’occurrence, selon lui, la décroissance démographique nuit surtout à l’activité économique via ses effets sur l’investissement : si les entreprises s’attendent à ce que la population décline, c’est-à-dire à ce qu’il y ait moins de consommateurs, elles auront moins de raisons d’accroître leurs capacités de production ; elles seront moins incitées à embaucher et à investir, ce qui déprimera en retour davantage la demande globale. En outre, si le nombre de travailleurs décline, les entreprises auront moins à investir pour les équiper. En définitive, il est de moins en moins probable que la demande globale suffise pour maintenir l’économie au plein emploi. C’est d’ailleurs la dynamique démographique qui est au cœur du raisonnement que développait Alvin Hansen (1938) autour de la Seconde Guerre mondiale et celui que développe aujourd’hui Larry Summers (2015) pour évoquer la possibilité d’une stagnation séculaire.

Mais la décroissance démographique peut ne pas nécessairement freiner la croissance des niveaux de vie. D’une part, elle peut inciter les entreprises à innover et à davantage automatiser leur production pour faire face aux pénuries de main-d’œuvre, ce qui stimule les gains de productivité [Acemoglu et Restrepo, 2017 ; 2018], à condition toutefois que la demande globale ne soit pas excessivement déprimée [Eggertsson et alii, 2018]. D’autre part, si la taille de la population diminue, cela tend à réduire son empreinte écologique : la population peut alors plus facilement accroître son niveau de vie, c’est-à-dire le niveau de production par tête, sans que la production agrégée ait à augmenter et finisse par buter sur les contraintes environnementales. 

Aujourd’hui, beaucoup de modèles considèrent que la croissance économique repose sur la découverte de nouvelles idées : c’est le cas des modèles de croissance endogène [Romer, 1990 ; Grossman et Helpman, 1991 ; Aghion et Howitt, 1992], comme celui des modèles de croissance semi-endogène [Jones, 1995 ; Kortum, 1997 ; Segerstrom ; 1998]. Ces modèles considèrent donc que le rythme de la croissance économique à long terme dépend de la taille de la population : plus la population est importante, plus elle disposera de chercheurs, plus ces derniers trouveront de nouvelles idées et plus les innovations résultantes pousseront les niveaux de vie à la hausse.

Ces modèles supposent typiquement soit une poursuite de la croissance démographique, soit une stagnation démographique ; ils ne considèrent pas l’éventualité d’une décroissance démographique. Or, si la population est davantage susceptible d’avoir de nouvelles idées qu’elle est importante, sa décroissance devrait par conséquent réduire le nombre de chercheurs et tendre à freiner le progrès technique. Une telle éventualité est d’autant plus inquiétante qu’il semble déjà en soi de plus en plus difficile de trouver de nouvelles idées [Gordon, 2012 ; Bloom et alii, 2017].

Charles Jones (2020) s’est donc récemment demandé comment se comporte la croissance économique lorsqu’elle est fondamentalement impulsée par les idées et que la croissance démographique devient négative. En utilisant un modèle de croissance endogène, puis un modèle de croissance semi-endogène, il montre que la décroissance démographique est susceptible de conduire à la réalisation du scénario dit de la « planète vide » (empty planet), en référence au livre éponyme de Bricker et Ibbitson : le savoir et les niveaux de vie stagnent pour une population qui décline graduellement. En conséquence, des politiques appropriées doivent être mises en place à temps pour que la fertilité reste supérieure au seuil de remplacement et que se concrétise le scénario du « cosmos en expansion » (expanding cosmos), celui où la population et les niveaux continuent de croître conjointement. Si ces politiques tardent à être mises en œuvre l'économie risque d'être définitivement piégée dans le scénario de la « planète vide ».

Jones conclut toutefois son analyse en notant qu’une poursuite du déclin de la fertilité ne conduit pas forcément à la réalisation du scénario de la « planète vide ». D’une part, l’automatisation peut améliorer la capacité des populations à produire suffisamment d’idées pour que la croissance des niveaux de vie se poursuive malgré le déclin de la population. D’autre part, les nouvelles découvertes peuvent finir par ramener le taux de mortalité proche de zéro, permettant à la population de continuer de croître malgré l’effondrement de la fertilité. 

 

Références

ACEMOGLU, Daron & Pascual RESTREPO (2017), « Secular stagnation? The effect of aging on economic growth in the age of automation », NBER, working paper, n° 23077.

ACEMOGLU, Daron, & Pascual RESTREPO (2018), « Demographics and Automation », NBER, working paper, n° 24421.

AGHION, Philippe, & Peter HOWITT (1992), « A model of growth through creative destruction », in Econometrica, vol. 60, n° 2.

BLOOM, Nicholas, Charles I. JONES, John Van REENEN & Michael WEBB (2017), « Are ideas getting harder to find? », NBER, working paper, n° 23782.

BRICKER, Darrell, & John IBBITSON (2019), Empty Planet: The Shock of Global Population Decline, éditions Crown Publishing Group.

EGGERTSSON, Gauti B., Manuel LANCASTRE & Lawrence H. SUMMERS (2018), « Aging, output per capita and secular stagnation », NBER, working paper, n° 24902.

GORDON, Robert (2012), « Is US economic growth over? Faltering innovation confronts the six headwinds », CEPR, policy insight, n° 63.

GROSSMAN, Gene M., & Elhanan HELPMAN (1991), Innovation and Growth in the Global Economy, MIT Press.

HANSEN, Alvin H. (1938), Full Recovery or Stagnation?

HARDING, Robin (2019), « The costs of a declining population », in Financial Times, 14 janvier.

JONES, Charles I. (1995), « R&D-based models of economic growth », in Journal of Political Economy, vol. 103, n° 4. 

JONES, Charles I. (2020), « The end of economic growth? Unintended consequences of a declining population », NBER, working paper, n° 26651.

KEYNES, John M. (1937), « Some economic consequences of a declining population », in The Eugenics Review, vol. 29.

KORTUM, Samuel S. (1997), « Research, patenting, and technological change », in Econometrica, vol. 65, n° 6.

SEGERSTROM, Paul (1998), « Endogenous growth without scale effects », in American Economic Review, vol. 88, n° 5.

SUMMERS, Lawrence (2015), « Demand side secular stagnation », in American Economic Review: Papers & Proceedings, vol. 105, n° 5.

Partager cet article

Repost0
12 janvier 2020 7 12 /01 /janvier /2020 09:20
Une stagnation supra-séculaire ?

Les taux d’intérêt réels sont évoqués dans de nombreux débats contemporains. Ils jouent un rôle important dans la conduite de la politique monétaire, puisqu’ils conditionnent la marge de manœuvre dont disposent les banques centrales pour stimuler l’activité économique : plus ils sont faibles, moins elles ont de latitude pour baisser leurs taux directeurs avant qu’ils n’atteignent zéro. Or, ces dernières décennies et notamment les années qui ont suivi la crise financière mondiale ont été marquées par de faibles taux, suggérant à certains que de tels épisodes de bornes inférieures zéro sont susceptibles d’être plus fréquents. De leur côté, les partisans de la théorie de la stagnation séculaire voient dans la faiblesse des taux la preuve d’une faiblesse structurelle de la demande globale : autrement dit, la politique monétaire perdrait de sa capacité à stimuler l’activité précisément à l’instant où l’activité aurait besoin d’être stimulée. Ce sont les mêmes tendances lourdes qui sont accusées de contribuer tant à la faiblesse des taux qu’à la stagnation séculaire : le vieillissement démographique, l’épuisement du progrès technique et le tarissement des opportunités de profit, l’excès d’épargne exporté par les pays émergents, etc.

Les taux d’intérêt n’importent pas seulement pour la politique monétaire. Par exemple, l’écart entre le coût réel du capital pour les titres publics sûrs et le taux de croissance du revenu réel joue un rôle clé dans l’évaluation de la soutenabilité de la dette publique [Blanchard, 2019]. Enfin, le taux d’intérêt réel joue un rôle important dans le débat sur les inégalités de revenu et du patrimoine : en supposant une « quasi-stabilité du rendement pur du capital sur très longue période », Thomas Piketty (2013) estime que l’écart entre le rendement réel du capital et le taux de croissance réel (rg) tend à être positif, ce qui accentue la concentration du capital et accroît mécaniquement les inégalités de revenu.

Ces débats s’appuient souvent sur des analyses des taux d’intérêt qui se focalisent sur une période restreinte. Certaines études ont cherché à adopter un point de vue de très long terme pour étudier la dynamique des taux d’intérêt réels mondiaux ; c’est notamment le cas de Barry Eichengreen (2015), de James Hamilton et alii (2016) ou encore de Pierre-Olivier Gourinchas et Hélène Rey (2019). Paul Schmelzing (2020) estime toutefois qu’elles restent fragiles sur le plan méthodologique, ne serait-ce qu’en raison de l’insuffisance des données sur lesquelles elles s’appuient. Il a alors cherché à reconstruire les taux d’intérêt réels mondiaux en s’appuyant sur une multitude de sources d’informations allant des archives municipales constituées il y a un demi-millénaire aux données de la Réserve fédérale, en passant par les documents des royautés européennes. Ce travail lui a permis de reconstruire les taux réels mondiaux annuels en remontant jusqu’au quatorzième siècle et en couvrant 78 % des pays développés en termes de PIB au cours du temps (cf. graphique).

GRAPHIQUE  Taux d'intérêt réel mondial pondéré selon le PIB (en %)

Une stagnation supra-séculaire ?

Au terme de cette reconstitution, Schmelzing constate que les taux d’intérêt ne sont pas stables : ils ont baissé ces dernières décennies, mais de telles baisses n’ont pas été rares au cours de l’Histoire. Surtout, mis à part quelques périodes de stabilisation, entre 1550 et 1640, entre 1820 et 1850 ou encore entre 1950 et 1980, les taux d’intérêt réels mondiaux ont eu tendance à diminuer au cours des cinq derniers siècles, en l’occurrence depuis la fin du quinzième siècle, à un rythme annuel moyen compris entre 0,009 et 0,016 point de pourcentage. Et cette tendance apparaît dans une variété de classes d’actifs. D’autre part, la volatilité du taux d’intérêt réel a eu tendance à décliner ces cinq derniers siècles, rendant le taux réel de plus en plus visqueux. En conséquence, depuis le quatorzième siècle, les taux d’intérêt réels se sont de plus en plus fréquemment retrouvés en territoire négatif. Schmelzing identifie 46 épisodes de taux négatifs, en l’occurrence 29 au cours du vingtième siècle. Les taux négatifs ont affecté environ les 20 % du PIB des économies développés au cours du temps et cette part augmente en moyenne de 0,012 point de pourcentage par an.

La tendance baissière a été à l’œuvre malgré la succession de différents régimes politiques et de différents régimes monétaires (bâtis alternativement autour de l’or, de l’argent, du bimétallisme et de la monnaie scripturale). Schmelzing ne croit pas qu’elle soit directement impulsée par des facteurs liés à la croissance économique ou à la démographie. Il la relie à l’écrasement des primes de risque, un phénomène qu’il explique notamment par le reflux des conflits militaires au fil des siècles. 

Les constats de Schmelzing ont plusieurs implications. Tout d’abord, si la même tendance se poursuivait à l’avenir, les taux réels devraient continuer de s’enfoncer en territoire négatif et bientôt s’y retrouver définitivement. A partir de la fin des années 2020, les taux réels de court terme mondiaux devraient se retrouver piégés à jamais en territoire négatif. D’ici le milieu du siècle, les taux réels de long terme devraient aussi les y rejoindre définitivement.

Ensuite, cette étude amène Schmelzing à remettre en question les conclusions de Piketty. En reconstruisant les séries historiques de l’écart entre le rendement réel du capital et le taux de croissance réel (rg), Schmelzing en conclut que, loin de faire preuve d’une « quasi-stabilité », les rendements réels sur le patrimoine tendent à décliner au cours du temps et que, si la tendance se poursuivait, l’écart rg devrait bientôt devenir définitivement négatif. Autrement dit, cela priverait Piketty du principal argument qu’il avance pour évoquer une tendance structurelle du capitalisme à engendrer des inégalités.

Les taux faibles constituent la « nouvelle norme » (new normal), mais plus sûrement qu’on ne le pensait jusqu’alors. Schmelzing rejette l’idée que les taux réels mondiaux connaissent un retour à la moyenne dans un certain corridor, contrairement à ce que concluent James Hamilton et alii (2016). L’Histoire ne suggère pas qu’ils atteignent une quelconque valeur d’équilibre à moyen terme, même négative. Contrairement à ce que suggèrent Jordà et alii (2019), il n’apparaît pas non plus que le taux sûr réel fluctue normalement autour des niveaux que nous observons aujourd’hui. La baisse des rendements réels depuis les années 1980 représente en fait un retour à une tendance historique de long terme. En définitive, Schmelzing rejette les justifications de la théorie de la stagnation séculaire qui font apparaître l’évolution des taux d’intérêt ces dernières décennies comme une aberration au regard des dynamiques de long terme [Summers, 2014 ; Rachel et Summers, 2019].

Ces constats ont d’importantes implications pour la conduite de la politique économique, en premier lieu celle de la politique monétaire. L’extrême faiblesse des taux d’intérêt de court terme accroît le risque que les taux directeurs butent sur leur borne inférieure, ce qui prive les banques centrales de leur arme traditionnelle pour contrer les récessions. Elles peuvent certes recourir à des mesures « non conventionnelles » comme les programmes d’assouplissement quantitatif (quantitative easing) pour gagner en marge de manœuvre, mais celles-ci sont notamment supposées exercer leurs effets via leur impact sur les taux d’intérêt de long terme. Or la tendance baissière que met à jour Schmelzing touche également ces derniers.

Si la politique monétaire perd tendanciellement en puissance, les constats de Schmerling pourraient par contre plaider pour un usage plus agressif de la politique budgétaire. En effet, la baisse tendancielle contribue à rendre plus soutenables les endettements publics. Par conséquent, les gouvernements pourraient disposer d’un surcroît de marge de manœuvre pour stimuler l’activité à court terme, mais aussi lancer les investissements nécessaires à long terme comme ceux nécessaires à la transition écologique.  

 

Références

BLANCHARD, Olivier (2019), « Public debt and low interest rates », PIIE, working paper, n° 19-4.

EICHENGREEN, Barry (2015), « Secular stagnation: The long view », in American Economic Review, vol. 105, n° 5.

GOURINCHAS, Pierre-Olivier, & Hélène REY (2019), « Global real rates: A secular approach », BRI, working paper, n° 793.

HAMILTON, James D., Ethan S. HARRIS, Jan HATZIUS & Kenneth D. WEST (2016), « The equilibrium real funds rate: Past, present and future », in FMI, IMF Economic Review, vol. 64, n° 4.

JORDÀ, Oscar, Katharina KNOLL, Dmitry KUVSHINOV, Moritz SCHULARICK & Alan M. TAYLOR (2019), « The rate of return on everything, 1870–2015 », in Quarterly Journal of Economics, n° 134/2.

PIKETTY, Thomas (2013), Le Capital au XXIe siècle.

RACHEL, Łukasz, & Lawrence H. SUMMERS (2019), « On falling neutral real rates, fiscal policy, and the risk of secular stagnation », in Brookings Papers on Economic Activity.

SCHMELZING, Paul (2020), « Eight centuries of global real interest rates, R-G, and the ‘suprasecular’ decline, 1311–2018 », Bank of England, staff working paper, n° 845.

SUMMERS, Lawrence (2014), « U.S. economic prospects: Secular stagnation, hysteresis, and the zero lower bound », in Business Economics, vol. 49, n° 2.

Partager cet article

Repost0
11 novembre 2019 1 11 /11 /novembre /2019 11:15
Les investisseurs financiers ne peuvent ignorer les cycles d’endettement

La crise financière mondiale a fortement stimulé la recherche sur les liens entre facteurs financiers et variables macroéconomiques. Ces études ont mis en évidence des liens robustes entre les booms du crédit et des phénomènes macroéconomiques comme les crises financières et la croissance de la production. Focalisés sur les causes et conséquences de la crise financière de 2007 aux Etats-Unis, Atif Mian et Amir Sufi (2009) ont par exemple souligné l’importance de l’expansion rapide des prêts immobiliers dans l’appréciation des prix de l’immobilier et les défauts subséquents sur les prêts immobiliers, puis Atif Mian, Kamalesh Rao et Amir Sufi (2013) ont montré que la consommation a d’autant plus chuté dans une zone géographique que le patrimoine immobilier s’y est détérioré et que les ménages y étaient initialement endettés.

Barry Eichengreen et Kris Michener (2003) avaient qualifié la crise de 1929 de « boom du crédit qui a mal tourné ». Les récentes études ont montré que ce constat s'applique en fait à la plupart des crises financières. Par exemple, à partir d’un large échantillon de données relatives à 14 pays développés et s’étendant sur plus d’un siècle, Moritz Schularick et Alan Taylor (2012) ont constaté que la croissance du crédit constitue un puissant indicateur avancé des crises financières, puis, toujours à partir de ce même échantillon, Òscar Jordà, Moritz Schularick et Alan Taylor (2013) ont montré non seulement que les récessions synchrones à une crise financière nuisent davantage à la production que les récessions normales, mais aussi qu’une récession, qu’elle soit ou non synchrone à une crise financière, tend à être plus sévère et à être suivie par une plus lente reprise lorsqu’elle a été précédée par une expansion du crédit. En étudiant les données relatives à une trentaine de pays entre 1960 et 2012, Atif Mian, Amir Sufi et Emil Verner (2017) ont mis en évidence qu’une hausse du ratio dette des ménages sur PIB à moyen terme tend à prédire pour la période subséquente une moindre croissance du PIB, un chômage plus élevé et de plus amples révisions à la baisse des perspectives de croissance.

Dans la mesure où l’endettement présent un fort pouvoir prédictif pour ces divers phénomènes macroéconomiques, Josh Davis et Alan Taylor (2019) se sont demandé s’il en présentait également un pour les prix des actifs financiers ; il serait en effet surprenant que les cycles d’endettement influencent le cycle d’affaires, mais non les marchés financiers. Pour cela, Davis et Taylor ont étudié un large échantillon de données historiques concernant de nombreux pays développés. Leur analyse confirme l’un des constats obtenus par Mian et alii (2017) en suggérant que les performances de la croissance du crédit au niveau agrégé constituent un bon indicateur avancé de la croissance future du PIB.

Mais elle va plus loin en montrant que la dynamique du crédit constitue également un indicateur avancé des rendements futurs des grands classes d’actifs, les actions et les obligations : en l’occurrence, les périodes de boom du crédit tendent à être suivies par des rendements inhabituellement faibles des actions, que ce soit en termes absolus ou relativement aux obligations. Autrement dit, quand un boom du crédit arrive à maturité, les investisseurs financiers qui sont exposés aux actions feraient face à une probabilité accrue de chute, mais pas ceux qui sont exposés aux obligations.

Ces divers résultats ont d’importantes implications pour la modélisation en macroéconomie. En effet, comme le notaient Mian et alii (2017), un modèle néoclassique standard associe normalement un surcroît d’endettement dans la période courante à de meilleures perspectives de croissance dans le futur. Or, Davis et Taylor notent qu’après les booms du crédit, les détenteurs d’actions tendent à faire pire à l’avenir, pas mieux.

Ces constats posent également problème à la théorie financière et aux modèles d’évaluation des actifs financiers. Si les marchés étaient efficients, la croissance passée du crédit, une information à la disposition des investisseurs financiers, ne devrait pas prédire les rendements futurs des actifs. Or, Davis et Taylor montrent qu’un tel pouvoir explicatif existe et qu’il est robuste. En définitive, ni les macroéconomistes, ni les stratégistes financiers ne devraient ignorer le rôle des booms et effondrements du crédit. 

 

Références

DAVIS, Josh, & Alan M. TAYLOR (2019), « The leverage factor: Credit cycles and asset returns », NBER, working paper, n° 26435.

EICHENGREEN, Barry, & Kris J. MITCHENER (2003), « The great depression as a credit boom gone wrong », BIS, working paper, n° 137, septembre.

JORDÀ, Òscar, Moritz SCHULARICK & Alan M. TAYLOR (2013), « When credit bites back », in Journal of Money, Credit and Banking, vol. 45.

MIAN, Atif, Kamalesh RAO & Amir SUFI (2013), « Household balance sheets, consumption, and the economic slump », in The Quarterly Journal of Economics, vol. 128, n° 4.

MIAN, Atif, & Amir SUFI (2009), « The consequences of mortgage credit expansion: Evidence from the U.S. mortgage default crisis », in The Quarterly Journal of Economics, vol. 124, n° 4.

MIAN, Atif, Amir SUFI & Emil VERNER (2017), « Household debt and business cycles worldwide », in The Quarterly Journal of Economics, vol. 132, n° 4.

SCHULARICK, Moritz, & Alan M. TAYLOR (2012), « Credit booms gone bust: Monetary policy, leverage cycles, and financial crises, 1870–2008 », in American Economic Review, vol. 102, n° 2.

Partager cet article

Repost0
12 octobre 2019 6 12 /10 /octobre /2019 15:37
Le cycle d’affaires est-il symétrique ?

Dans la plupart des modèles orthodoxes actuellement utilisés, l’activité économique tend à fluctuer autour d’une trajectoire tendancielle, un « taux naturel ». Dans de tels modèles, les booms et les récessions apparaissent comme des déséquilibres symétriques. Ce sont alors des événements, des « chocs », qui éloignent la production de son niveau naturel, que ce soit à la hausse (dans le cas des chocs « positifs ») en poussant l'économie àa la surchauffe ou à la baisse (dans le cas des chocs « négatifs ») en éloignant l'économie du plein emploi.

Non seulement ces modèles tendent à supposer qu’après un choc la production tend à revenir à son niveau naturel, mais ils supposent aussi que le niveau naturel de la production n’est déterminé que du côté de l’offre, par des facteurs structurels. En conséquence, ils concluent que les politiques conjoncturelles ne peuvent qu’amortir les fluctuations, c’est-à-dire ramener la production à son niveau naturel, mais qu’elles n’ont pas d’effets sur ce dernier. Autrement dit, ces modèles tendent à minorer le rôle des politiques conjoncturelles.

Or, les événements ne sont pas toujours cohérents avec cette vision du cycle d'affaires : par exemple, avant la Grande Récession, les pays développés ne présentaient pas de réels signes de surchauffe, du moins pas de significatives tensions inflationnistes.

GRAPHIQUE 1  Logarithme du PNB des Etats-Unis

Le cycle d’affaires est-il symétrique ?

source : Friedman (1984), via Fatás et Mihov (2013)

A travers son « modèle du pincement de la corde de guitare » (« plucking model », Milton Friedman (1964, 1993) avait proposé une autre vision du cycle d’affaires où il n’y a que deux situations possibles : soit la production est à son niveau maximal, le niveau « naturel » correspondant à ce que l'on peut qualifier de plein-emploi, soit elle est en-deçà de celui-ci (cf. graphique 1). Autrement dit, les chocs que subit l’économie, les « pincements » pour reprendre les termes de Friedman, ne peuvent qu’éloigner la production en-deçà de son maximum ou bien la rapprocher de ce maximum. Le cycle d’affaires apparaît alors comme un phénomène asymétrique.

Dans une telle optique, les politiques conjoncturelles, si elles sont correctement utilisées, peuvent accroître le niveau moyen de la production et réduire le taux de chômage moyen, auquel cas elles sont susceptibles d’accroître significativement le bien-être collectif. De plus, si une telle théorie est valide, cela signifie que les estimations actuelles de la production potentielle, qui se contentent souvent de lisser la production pour en tirer la tendance, sous-estiment la production potentielle, ce qui se traduit par une surestimation du risque de surchauffe  pour l'économie et risque d'entraîner un resserrement hâtif des politiques conjoncturelles. L'évolution de l'inflation semble cohérente avec cette vision du cycle : la faiblesse de l'inflation suggère que la production potentielle est bien plus élevée qu'on ne l'estime habituellement.

GRAPHIQUE 2  Taux de chômage aux Etats-Unis (en %)

Le cycle d’affaires est-il symétrique ?

source : Dupraz et alii (2019)

note : la courbe bleue indique le taux de chômage, les lignes vertes les pics de l’activité et les lignes rouges les creux de l’activité.

Stéphane Dupraz, Emi Nakamura et Jón Steinsson (2019) estiment que la dynamique du taux de chômage aux Etats-Unis  (cf. graphique 2) présente une forte asymétrie qui semble davantage cohérente avec la vision asymétrique du cycle d’affaires qu’a proposée Friedman qu’avec la vision symétrie des cycles d’affaires qui est habituellement retenue dans les cycles. En effet, les hausses du taux de chômage américain sont suivies par des baisses de même amplitude, mais l’amplitude d’une hausse du chômage n’est pas liée à l’amplitude de sa baisse précédente (cf. graphique 3).

GRAPHIQUE 3  La propriété « plucking » du taux de chômage américain

Le cycle d’affaires est-il symétrique ?

source : Dupraz et alii (2019)

Selon les estimations que propose le FMI (2019) à partir d'un échantillon constitué d'autres pays développés que les Etats-Unis, l'asymétrie du cycle d'affaires n'est pas propre à l'économie américaine : dans les autres pays développés, la hausse du chômage lors des récessions est également suivie par une baisse proportionnelle du chômage lors des reprises qui les suivent, mais il n'y a aucune corrélation significative entre le reflux du chômage lors des expansions et la hausse du chômage lors des récessions qui les suivent.

Dupraz et ses coauteurs ont alors proposé un « modèle du pincement » où l’asymétrie du cycle d’affaires s’explique par la rigidité des salaires nominaux à la baisse : en raison de cette dernière, les chocs positifs entraînent des hausses de salaires, tandis que les chocs négatifs entraînent essentiellement des hausses du chômage, conformément à l’hypothèse de James Tobin (1972) [1]. Les simulations qu’ils réalisent suggèrent que l’élimination des cycles d’affaires se traduit par d’importants gains de bien-être, dans la mesure où elle réduit le taux de chômage moyen. En effet, les fluctuations du chômage sont des fluctuations au-delà d’un point bas du chômage et non des fluctuations symétriques autour d’un taux de chômage naturel, si bien qu’une réduction de la volatilité des chocs non seulement réduit la volatilité du taux de chômage, mais en outre réduit le niveau moyen de ce dernier. D’après les simulations, le maintien systématique de la production à son maximum réduit le taux de chômage moyen d’environ 1,2 point de pourcentage.

Ainsi, le modèle développé par Dupraz et alii suggère qu’il est justifié de s’appuyer sur les politiques conjoncturelles pour ramener la production à son maximum. D’autre part, il plaide pour un relèvement de la cible d’inflation suivie par la banque centrale : le relèvement de la cible d’inflation de 2 % à 4 % se traduit par une baisse du taux de chômage moyen de 1,4 point de pourcentage. Par contre, une réduction de la cible d’inflation de 2 % à 1 % augmenterait le taux de chômage moyen de 1,7 point de pourcentage.

 

[1] L’hypothèse de rigidité des salaires nominaux à la baisse est toutefois contestable, comme l’ont récemment rappelé Michael Elsby et alii (2019)

 

Références

DUPRAZ, Stéphane, Emi NAKAMURA & Jón STEINSSON (2019), « A plucking model of business cycles », NBER, working paper, n° 26351, octobre.

ELSBY, Michael W. L., & Gary SOLON (2019), « How prevalent is downward rigidity in nominal wages? International evidence from payroll records and pay slips », in Journal of Economic Perspectives, vol. 33, n° 3.

FATÁS, Antonio, & Ilian MIHOV (2015), « Recoveries », INSEAD, working paper.

FMI (2019), « The plucking theory of the business cycle », in World Economic Outlook, octobre 2019. Traduction française, « La théorie du pincement de la corde de guitare appliquée au cycle économique », in Perspectives de l'économie mondiale.

FRIEDMAN, Milton (1964), « The monetary studies of the National Bureau », in NBER, The National Bureau Enters Its 45th Year.

FRIEDMAN, Milton (1993), « The "plucking model" of business fluctuations revisited », in Economic Inquiry, vol. 31.

TOBIN, James (1972), « Inflation and unemployment », in American Economic Review, vol. 62, n° 1/2.

Partager cet article

Repost0
27 septembre 2019 5 27 /09 /septembre /2019 15:26
A la recherche du cycle mondial

Depuis les années quatre-vingt-dix, les économistes ont multiplié les études empiriques pour tenter de mettre à jour l’existence d’un cycle d’affaires et d’un cycle financier au niveau mondial. Pour Eric Monnet et Damien Puy (2019), trois conclusions semblent avoir émergé de cette littérature et faire l’objet d’un relatif consensus. Tout d’abord, il existerait effectivement des cycles à l’œuvre à l’échelle mondiale et ceux-ci trouveraient essentiellement leur origine aux Etats-Unis. De plus, ces cycles mondiaux auraient des effets particulièrement importants sur les variables réelles et financières. Enfin, ils auraient tendance à se renforcer. Autrement dit, le cycle d’affaires et le cycle financier à l’œuvre dans un pays donné tendraient de plus en plus à se synchroniser avec ceux des autres pays, en l’occurrence du fait de la mondialisation à partir des années quatre-vingt. Si c’est le cas, les autorités en charge de la politique économique auraient perdu en autonomie : elles auraient de plus en plus de difficultés à influencer les variables domestiques.

C’est notamment ce que concluait Hélène Rey (2013) en rejetant le triangle des incompatibilités de la finance internationale : lorsque les capitaux circulent librement, le flottement du taux de change ne garantit pas l’indépendance de la politique monétaire. Parce qu’il existe un cycle financier mondial, étroitement lié à la politique monétaire de la Réserve fédérale, les autres banques centrales, en particulier celles des pays émergents, ne peuvent retrouver la pleine autonomie de leur politique monétaire qu’au prix d’un contrôle des capitaux.

Puy et Monnet estiment toutefois que cette littérature souffre de plusieurs limites. Premièrement, elle a tendance à se focaliser sur les seuls pays développés. Deuxièmement, les données qu’elle analyse concerne une période restreinte, en l’occurrence postérieure aux années quatre-vingt-dix. Troisièmement, elle se focalise davantage sur les prix, en particulier les prix d’actifs, plutôt que sur les quantités, comme le volume de la production.

Les deux économistes ont alors cherché à mettre en évidence des cycles mondiaux en utilisant une nouvelle base de données trimestrielles du FMI relatives à la production, à l’inflation, au crédit et aux prix d’actifs concernant un large échantillon de pays développés et émergents depuis 1950. Leur analyse confirme que les cycles mondiaux, aussi bien réels que financiers, existent. Les cycles mondiaux trouvent généralement leur origine dans des chocs touchant les Etats-Unis : il peut notamment s’agir de chocs monétaires, budgétaires et d’incertitude, et ce aussi bien pour le cycle économique que pour le cycle financier. 

Mais Monnet et Puy remettent aussi en question plusieurs idées qui font selon eux consensus dans la littérature. Tout d’abord, lorsqu’ils cherchent à quantifier l’importance des cycles mondiaux, leur analyse les amène certes à conclure que les cycles mondiaux ont été une source importante de volatilité pour les variables domestiques suite à la Seconde Guerre mondiale, mais aussi que l’importance des cycles mondiaux varie fortement selon la période, l’économie ou la variable considérée. Généralement, la part de la variance des variables domestiques qui se trouve expliquée par la dynamique mondiale tend à chuter une fois que sont écartées de l’échantillon étudiée les événements extrêmes comme les chocs pétroliers des années soixante-dix et la crise financière mondiale des années 2008-2009. En temps normal, le cycle d’affaires mondial a un faible impact sur la production domestique. En définitive, les cycles mondiaux n’ont réellement un impact que sur les pays développés et les prix d’actifs. 

Monnet et Puy remettent également en question l’idée que la synchronisation se soit accentuée au fil des décennies. Certes, leur analyse suggère qu’une synchronisation a effectivement été à l’œuvre pour l’inflation et les prix d’actifs, mais qu’elle ne l’a pas été pour la production et le crédit. Les cycles de la production et le cycle du crédit étaient aussi puissants durant la période de mondialisations commerciale et financière, entre 1984 et 2006, que durant l’ère de Bretton Woods, entre 1950 et 1972. Pour la plupart des pays, la sensibilité de la production domestique vis-à-vis de la production du reste du monde semble avoir bien peu varié au cours des sept dernières décennies. 

Ces résultats amènent Monnet et Puy à chercher à comprendre pourquoi la synchronisation de la production est restée stable. Selon leur analyse, cette stabilité résulte de deux forces agissant en sens opposés. D’un côté, un approfondissement de l’intégration commerciale tend à synchroniser davantage la production domestique avec le cycle mondial. D’un autre côté, une poursuite de l’intégration financière tend à désynchroniser la production domestique du cycle mondial. Ce n’est que lors de la crise financière mondiale que les pays les plus financièrement ouverts ont connu une plus forte synchronisation de leur production avec le cycle mondial.

Monnet et Puy concluent en tirant les implications de leurs constats en termes de politique économique. Ils soulignent qu’un faible niveau d’intégration financière ne garantit pas en soi que les cycles soient peu corrélés entre eux. Durant l’ère de Bretton Woods, les économies étaient déjà affectées par les cycles mondiaux, alors même que des contrôles de capitaux étaient en vigueur et que les systèmes financiers étaient fortement réglementés. Réciproquement, un niveau élevé d’intégration financière n’implique pas toujours une plus forte corrélation de la production : à long terme, surtout si on ne se focalise pas sur la seule crise financière mondiale, il apparaît que l’intégration financière internationale a eu tendance à réduire la corrélation des productions au niveau mondial. Enfin, le fait qu’il y ait une forte corrélation entre les prix d’actifs, mais qu’une faible corrélation entre les principales cibles de la politique économique, notamment le production et le crédit, suggère que la politique économie dispose davantage d’autonomie qu’on a désormais tendance à le penser.

 

Références

MONNET, Eric, & Damien PUY (2019), « One ring to rule them all? New evidence on world cycles », FMI, working paper, n° 19/202.

REY, Hélène (2013), « Dilemma not trilemma: The global financial cycle and monetary policy independence », présenté à Jackson Hole, 24 août.

Partager cet article

Repost0
10 août 2019 6 10 /08 /août /2019 13:20
Les salaires sont-ils rigides à la baisse ?

La Théorie Générale n’est pas sans ambiguïtés. Dans le chapitre 2 de son opus magnum, Keynes introduit l’hypothèse de rigidité des salaires à la baisse, en précisant qu’elle n’influence pas réellement ses conclusions, mais qu’elle lui permet de simplifier son exposé. Il avance un argument pour la justifier : les travailleurs refusent de voir leur salaire nominal baisser, par crainte de voir leur salaire relatif diminuer, autrement dit par peur de descendre dans la hiérarchie des salaires. Or, il n’a pas vraiment par la suite démontré la neutralité de cette hypothèse pour son analyse, ce qui a contribué à empêcher l’émergence d’une interprétation de son ouvrage qui fasse consensus.

D’un côté, de nombreux économistes, associés il y a un demi-siècle à la synthèse néoclassique ou ces dernières décennies à la nouvelle économie keynésienne, ont considéré la rigidité des salaires comme la clé de voûte de la théorie keynésienne du chômage. Finalement, leur cadre de base reste néoclassique : il existe une offre de travail (croissante avec le salaire), une demande de travail (décroissante avec le salaire) et en conséquence un niveau de salaire qui égalise l’offre et la demande de travail. Si le salaire se retrouve à un niveau supérieur à celui d’équilibre, le marché du travail se retrouvera déséquilibré : il y a du chômage. En principe, le rationnement de l’offre de travail devrait mécaniquement pousser le salaire à la baisse, ce qui ramènerait le marché à l’équilibre. Mais le salaire nominal étant supposé rigide à la baisse, le marché du travail ne s’apurera pas. Beaucoup ont alors vu l’accélération de l’inflation comme un moyen de faire refluer le chômage en réduisant les salaires réels sans que les salaires nominaux aient à baisser ; aussi bien James Tobin (1972) que George Akerlof et alii (1996) estiment qu’un peu d’inflation permet « de graisser les roues du marché du travail ». Nous trouvons d’ailleurs là une justification théorique à l’arbitrage entre chômage et inflation de la courbe de Phillips, cette pièce qui finit par prendre une place centrale pour la synthèse néoclassique, au point que la seconde connaîtra sa chute avec la remise en cause de la première.

Les nouveaux keynésiens se sont attelés à identifier les raisons pour lesquelles les salaires sont rigides, non seulement parce qu’une telle rigidité permet d’expliquer le chômage, mais aussi parce qu’elle leur permet de redonner la légitimité à la politique monétaire discrétionnaire : comme les salaires sont écrits en termes nominaux et qu’ils ne sont renégociés qu’à une faible fréquence, les chocs monétaires érodent les salaires réels et ont ainsi un impact sur l’économie réelle [Fischer, 1977 ; Taylor, 1980]. Si les salaires ne sont pas continuellement renégociés, c’est notamment parce que les renégociations sont coûteuses, ne serait-ce parce qu’elles prennent du temps. La littérature autour du salaire d’efficience suggère qu’il peut être rationnel pour les entreprises de maintenir des salaires élevés, dans la mesure où une baisse des salaires est susceptible de réduire l’efficacité des travailleurs : ces derniers sont moins motivés à faire d’efforts, ils ont plus de chances de quitter l’entreprise, donc de ne pas profiter de l’apprentissage par la pratique (learning-by-doing), etc. Bien sûr, les salariés peuvent trouver la baisse de leurs rémunérations injuste et se mettre en conséquence en grève, ce qui freinera la production de l’entreprise et alourdira ses coûts. Au cours des entretiens que Bewley (1999) réalisent auprès des employeurs, ces derniers affirment que les travailleurs détestent vraiment les baisses de salaires nominaux et qu’ils sont par conséquent réticents à les imposer. 

D’autres économistes se revendiquant comme les dépositaires de l’héritage keynésien, notamment les post-keynésiens, jugent que l’hypothèse de rigidité des salaires à la baisse n’est pas nécessaire pour faire apparaître du chômage involontaire. Ils mettent d’ailleurs davantage l’accent sur le rôle que joue la baisse des salaires, donc leur flexibilité, dans l’apparition du chômage involontaire. Keynes lui-même a mis en lumière en tel mécanisme dans sa Théorie générale : le chapitre 19 démontre les dangers d’une déflation salariale.

Dans tous les cas, l’hypothèse d’une rigidité des salaires nominaux peut faire l’objet de tests empiriques : si les salaires nominaux sont rigides à la baisse dans une économie, alors elle devrait rarement connaître une baisse des salaires nominaux, mais par contre fréquemment un gel des salaires nominaux. Plusieurs études se sont appuyées sur les déclarations des travailleurs occupant un emploi qui ont été collectées à travers des enquêtes menées auprès des ménages. Elles ont suggéré que les réductions de salaires nominaux étaient fréquentes, mais également aussi les gels de salaires nominaux. Autrement dit, elles n’ont pas réussi à déterminer si les salaires nominaux étaient flexibles ou bien rigides à la baisse. En outre, cette littérature, qui s’appuie sur un matériel subjectif, est critiqué pour son manque de fiabilité, en raison des possibles erreurs des répondants dans leur déclaration.

Dans un récent article publié dans le Journal of Economic Perspectives, Michael Elsby et Gary Solon (2019) ont cherché à synthétiser une littérature plus récente qui a cherché à obtenir des données relatives aux salaires plus précises en les recueillant auprès des registres de paie tenus par les employeurs et les bulletins de paie. Ils ont compilé les résultats d’une douzaine études réalisées dans plusieurs pays, en l’occurrence, Grande-Bretagne, des Etats-Unis, de l’Allemagne de l’Ouest, d’Autriche, d’Italie, d’Espagne, du Mexique, d’Irlande, de la Corée du Sud, du Portugal, de Suède et de Finlande.

GRAPHIQUE  Pourcentage de salariés gardant leur emploi qui voient leur salaire nominal baisser au cours de l'année en fonction de l'inflation

Les salaires sont-ils rigides à la baisse ?

Au terme de leur recension, il apparaît qu’à l’exception de circonstances extrêmes, en l’occurrence lorsque les baisses de salaires nominaux sont soit juridiquement interdites, soit accompagnées d’une forte inflation, les baisses de salaires nominaux d’une année sur l’autre semblent assez fréquentes, affectant généralement 15 à 25 % de ceux qui gardent leur emploi en périodes de faible inflation. Les gels de salaires nominaux apparaissent quant à eux bien moins fréquents, affectant généralement moins de 8 % de ceux qui restent en emploi. Il y a peu de preuves empiriques suggérant une large accumulation de gels des salaires en périodes de faible inflation.

 

Références

AKERLOF, George A., William T. DICKENS & George L. PERRY (1996), « The macroeconomics of low Inflation », in Brookings Papers on Economic Activity, n° 1.

BEWLEY, Truman F. (1999), Why Wages Don’t Fall during a Recession, Harvard University Press.

ELSBY, Michael W. L., & Gary SOLON (2019), « How prevalent is downward rigidity in nominal wages? International evidence from payroll records and pay slips », in Journal of Economic Perspectives, vol. 33, n° 3.

FISCHER, Stanley (1977), « Long-term contracts, rational expectations, and the optimal money supply rule », in Journal of Political Economy, vol. 85, n° 1.

KEYNES, John Maynard (1936), The General Theory of Employment, Interest and Money, Macmillan.

TAYLOR, John B., (1980), « Aggregate dynamics and staggered contracts », in Journal of Political Economy, vol. 88.

TOBIN, James (1972), « Inflation and unemployment », in American Economic Review, vol. 62, n° ½.

Partager cet article

Repost0
25 juillet 2019 4 25 /07 /juillet /2019 13:34
Croissance britannique : le passé n’est plus ce qu’il était

Les premières études historiques de comptabilité de la croissance pour le Royaume-Uni ont été réalisées au début des années quatre-vingt, notamment sous l’impulsion de Charles Feinstein. Elles ont suggéré que la croissance de la productivité a suivi à long terme une évolution en forme de U qui atteignit son point bas au début du vingtième siècle, en l’occurrence entre 1899 et 1913, une période correspondant au règne d’Edouard VII. Reprenant une intuition de Phelps-Brown et Handfield-Jones (1952), Feinstein et alii (1982) évoquent une « ménopause édouardienne » (Edwardian climacteric), s’expliquant selon eux par un essoufflement de la vague d’innovations de la Première Révolution industrielle avant que celle de la Deuxième Révolution industrielle n’ait eu le temps d’exercer un effet significatif. Ces travaux et ceux qui les ont suivis offrent l’image de pics jumeaux, séparés d’un siècle, pour la croissance de la productivité : le premier pic a été atteint lors du troisième quart du dix-neuvième siècle, c’est-à-dire lors de l’époque victorienne ; le second pic a été atteint lors du troisième quart du vingtième siècle, au cours de la période que nous avons qualifiée « Trente Glorieuses » de notre côté de la Manche.

Près de quatre décennies ont passé depuis ces travaux fondateurs. D’une part, la productivité a poursuivi son évolution et ses récentes performances ont été bien décevantes en comparaison avec celles qu’elle présenta dans l’immédiat après-guerre. En l’occurrence, la croissance de la productivité a particulièrement ralenti dans le sillage de la crise financière mondiale. En effet, au quatrième trimestre 2018, le PIB réel par heure travaillée n’était supérieur que de 2 % par rapport au pic qu’il avait atteint au quatrième trimestre 2007. S’il avait poursuivi la trajectoire qu’il suivait tendanciellement avant la crise, il aurait été supérieur d’environ 22,3 %. La productivité du travail n’a seulement dépassé son pic d’avant-crise qu’au deuxième trimestre 2016. Beaucoup évoquent une « énigme de la productivité » (productivity puzzle), mais certains suggèrent qu’il y a eu des précédents et pointent notamment la période édouardienne comme un épisode similaire.

D’autre part, les données sur lesquelles s’appuyaient les travaux fondateurs ont été révisées, notamment grâce aux efforts de Broadberry et alii (2015). Les estimations du PIB et de sa croissance ont été améliorées, ainsi que celles du facteur capital, et la contribution du facteur travail a été mesurée à partir du nombre d’heures travaillées, plutôt que par le nombre de travailleurs. Or ces données révisées sont susceptibles de changer la vision que l’on peut avoir de la croissance passée. 

C’est une révision des études fondatrices de la comptabilité de la croissance britannique que propose Nicholas Crafts (2019) à partir des nouvelles données disponibles. L’image de la croissance britannique qu’il tire de celles-ci est différente de celle qui s’est dessinée il y a une quarantaine d’années. Tout d’abord, il apparaît que la croissance de la productivité du travail et celle de la productivité globale des facteurs lors de la Révolution industrielle ont été bien plus faibles qu’on ne le pensait par le passé : loin d’offrir l'image d'un décollage (take-off) à la Rostow, la croissance de la productivité a été très lente à s’accélérer au cours de cette période. Certes, la Révolution industrielle a été marquée par d’énormes changements technologiques, mais ces derniers n’ont en fait affecté qu’une part relativement réduite de l’économie. Il fallut énormément de temps avant que la machine à vapeur ait un impact significatif. 

Deuxièmement, l’idée d’une ménopause édouardienne identifiée par Feinstein et alii (1982) pour la période allant de 1899 à 1913 apparaît désormais moins convaincante. En effet, le ralentissement de la croissance qui caractérise cette période se révèle désormais moins marqué selon les nouvelles données. En fait, ce ralentissement est bien moindre que celui qui marqua la fin du boom victorien des années 1870 et surtout que celui observé dans le sillage de la récente crise financière mondiale. 

Troisièmement, les données suggèrent toujours que la croissance de la productivité globale des facteurs a connu une évolution en forme de U et qu’elle a atteint son minimum juste avant la Première Guerre mondiale, mais le point de départ de cette évolution se situerait au milieu du dix-neuvième siècle. Globalement, à la lumière de la nouvelle vision de la Révolution industrielle et du ralentissement qui suivit les années 1970, l’évolution suivie s’apparente davantage à une succession de vagues. La période allant de 1973 à 2007 apparaît finalement comme une période où la croissance de la productivité a été relativement forte, bien plus forte qu’elle ne l’a été au cours de la plupart des périodes précédant la Seconde Guerre mondiale.

Quatrièmement, avec les récentes révisions des estimations du PIB, la croissance du PIB réel et dans une moindre mesure celle de la productivité se révèlent bien plus fortes au cours des années qui ont suivi la Seconde Guerre mondiale qu’on avait l’habitude de penser. Cela dit, même au cours de cette période, la croissance de la productivité au Royaume-Uni se révéla décevante relativement à celle des pays d’Europe continentale. 

Cinquièmement, le ralentissement de la croissance de la productivité après 2007 apparaît finalement comme sans précédents dans l’histoire économique de la Grande-Bretagne. C’est d’ailleurs la conclusion à laquelle aboutit une autre étude que copublie Nicholas Crafts en parallèle [Crafts et Mills, 2019]. Dans le sillage de la crise financière mondiale, la productivité s’est retrouvée en 2018 inférieure de 19,7 % par rapport à sa trajectoire d’avant-crise. Lors des deux autres plus grosses déviations par rapport à sa tendance que le Royaume-Uni a connues au cours de son histoire, la productivité n’avait décroché que de 10 % dix ans après 1883 et de 10,9 % dix ans après 1971. Même lors de la période édouardienne et lors de la Grande Dépression des années trente, la productivité n’avait décroché que de 5,5 % dix ans après 1898 et 5,3 % dix ans après 1929. Cherchant à contribuer à résoudre l’« énigme de la productivité », Crafts et Mills suggère que le récent ralentissement de la croissance de la productivité britannique résulte de la confluence de trois facteurs, en l’occurrence la crise financière, un affaiblissement de l’impact des technologies d’information et de communication et la hausse de l’incertitude associée aux renégociations commerciales suivant le référendum du Brexit.

 

Références

BROADBERRY, Stephen, Bruce M. S. CAMPBELL, Alexander KLEIN, Mark OVERTON & Bas VAN LEEUWEN (2015), British Economic Growth, 1270-1870, Cambridge University Press.

CRAFTS, Nicholas (2019), « The sources of British economic growth since the industrial revolution: Not the same old story », CAGE, working paper, n° 430.

CRAFTS, Nicholas, & Terence C. MILLS (2019), « Is the UK productivity slowdown unprecedented? », CAGE, discussion paper, n° 429.

FEINSTEIN, Charles H., (1981), « Capital accumulation and the industrial revolution », in R. Floud & D. N. McCloskey (dir.), The Economic History of Britain since 1700, vol. 1, Cambridge University Press.

FEINSTEIN, Charles H., R. C. O. MATTHEWS & J. C. ODLING-SMEE (1982), « The timing of the climacteric and its sectoral incidence in the UK, 1873-1913 », in C. P. Kindleberger & G. di Tella (dir.), Economics in the Long View: Essays in Honour of W. W. Rostow, vol. 2, Macmillan.

MATTHEWS, R. C. O., Charles H. FEINSTEIN & J. C. ODLING-SMEE (1982), British Economic Growth 1856- 1973, Stanford University Press.

PHELPS BROWN, Henry, & S. J. HANDFIELD-JONES (1952), « The climacteric of the 1890s: A study in the expanding economy », Oxford Economic Papers, vol. 4, n° 3.

Partager cet article

Repost0
16 juillet 2019 2 16 /07 /juillet /2019 13:59
Pourquoi l’inflation est-elle si faible dans le monde ?

Dans plusieurs pays développés, le taux de chômage se rapproche de ses niveaux historiquement faibles : aux Etats-Unis, au Royaume-Uni et en Allemagne, il est désormais par exemple inférieur à 4 %, si bien qu’il se retrouve des niveaux qu’il n’avait pas atteints depuis plusieurs décennies. D’après la courbe de Phillips traditionnelle, à mesure qu’une expansion se poursuit et que l’économie se rapproche de son plein emploi, cette dernière devrait connaître une accélération de l’inflation. Le mécanisme est double : d’une part, à mesure que les entreprises font face à un plus grand risque de pénurie de travailleurs, elles acceptent plus facilement d’augmenter les salaires, si bien qu’elles tendent à davantage augmenter leurs prix pour maintenir leurs profits ; d’autre part, comme elles ont moins de problèmes de débouchés, elles ont davantage de latitude pour augmenter leurs prix. Pourtant, l’inflation est restée très faible et stable dans les pays développés depuis la crise financière mondiale de 2008 : elle ne s’est toujours pas accélérée malgré la poursuite de l’expansion.

Pour Jared Bernstein (2017), le comportement de l’inflation constitue « l’énigme numéro une en économie ». Depuis la crise financière mondiale, le débat est intense, quant à savoir ce qui explique la stabilité de l’inflation et ce que cela signifie pour la courbe de Phillips. Beaucoup estiment que cette dernière s’est aplatie [FMI, 2013]. Certains, comme la revue The Economist (2017), n’hésitent pas à déclarer qu’elle est tout simplement morte. D’autres, comme Olivier Blanchard (2016), sont nuancés, en estimant qu’elle n’est pas moins vivace qu’il y a quelques décennies, mais qu’elle n’a jamais été bien fébrile. D’autres encore sont convaincus qu’elle est encore bien valide, mais qu’il faut peut-être s’appuyer sur d’autres indicateurs pour mesurer l’inflation ou alors prendre en compte les anticipations d’inflation pour bien la saisir [Ball et Mazumder, 2019 ; Coibon et alii, 2019].

Òscar Jordà, Chitra Marti, Fernanda Nechio et Eric Tallman (2019b) ont cherché à savoir si la crise financière a changé la mécanique de la courbe de Phillips. Ils reprennent et poursuivent ainsi l’un de leurs travaux antérieurs [Jordà et alii, 2019a], mais en prenant cette fois-ci en compte les pays en développement dans leur analyse pour voir si la relation s’est brisée. Pour déterminer si la courbe de Phillips contribue à expliquer l’inflation, Jordà et ses coauteurs utilisent la crise financière mondiale comme une expérience quasi-naturelle. En effet, il s’agit d’un événement qui n’a pas vraiment été anticipé. Jordà et ses coauteurs peuvent alors utiliser les données de la période précédant la crise financière comme l’équivalent d’un groupe de contrôle pour voir ce qui a changé avec la crise. Le modèle de courbe de Phillips qu’ils estiment se fonde sur trois composantes. La première composante est le degré de mollesse sur le marché du travail. Pour le déterminer, ils prennent l’écart de chômage, c’est-à-dire l’écart entre le taux de chômage et son taux naturel. La deuxième composante est l’effet retour exercé par l’inflation passée, qu’ils mesurent en utilisant l’évolution de l’indice des prix à la consommation. La dernière composante est l’anticipation de l’inflation future, qu’ils déterminent à partir des données issues d’enquête. 

GRAPHIQUE 1  La courbe de Phillips dans les pays de l’OCDE selon la décennie

Pourquoi l’inflation est-elle si faible dans le monde ?

A première vue, durant les deux décennies qui ont précédé la crise financière mondiale, il y avait une relation inverse assez claire entre écart de chômage et inflation dans les pays développés, mais cette relation s’est affaiblie dans la décennie qui suit la crise financière mondiale (cf. graphique 1). Ainsi, l’inflation semble stable pour tous les degrés de mou sur le marché du travail, ce qui suggère à première vue que la courbe de Phillips a disparu.

Mais en allant au-delà de cette simple corrélation (ou plutôt absence de corrélation) pour se pencher sur chacune des trois composantes de la courbe de Phillips, Jordà et ses coauteurs montrent que cet affaiblissement de la relation entre chômage et inflation n’est qu’apparente. En fait, les effets des variations dans les conditions en vigueur sur le marché du travail ont été largement compensés par les modifications appropriées de la politique monétaire des banques centrales en vue de maintenir l’inflation à sa cible : lorsque le chômage a augmenté, les banques centrales ont bien adéquatement assoupli leur politique monétaire, ce qui a réduit les tensions déflationnistes ; lorsque les économies se sont rapprochées du plein emploi, les banques centrales ont adéquatement resserré leur politique monétaire, ce qui a réduit les pressions inflationnistes. Dans de telles conditions, l’influence de l’inflation passée s’est érodée et les anticipations d’inflation future se sont mises à graviter autour de la cible des banques centrales. En définitive, il est prématuré de déclarer la mort de la courbe de Phillips en ce qui concerne les pays développés.

Cela dit, l’inflation a suivi une tendance baissière ces deux dernières décennies, aussi bien dans les pays développés que dans les pays en développement (cf. graphique 2). En outre, les taux d’inflation des pays en développement tendent à converger vers ceux des pays développés. Et cette désinflation datait de bien avant la crise financière mondiale. Certes, la plus grande crédibilité acquise par les banques centrales dans leur lutte contre l’inflation peut expliquer ce phénomène, mais les pays développés et en développement partagent une tendance commune de l’inflation, ce qui suggère que la désinflation mondiale n’est pas le simple résultat de la politique monétaire et que des facteurs mondiaux sont à l’œuvre pour pousser l’inflation à la baisse.

GRAPHIQUE 2  Inflation moyenne de l’indice des prix à la consommation (en %)

Pourquoi l’inflation est-elle si faible dans le monde ?

Pour comprendre ce qui s’est passé, Jordà et ses coauteurs réestiment leur courbe de Phillips à trois composantes en utilisant leur échantillon de 23 pays n’appartenant pas à l’OCDE. Il apparaît que dans les pays en développement, l’inflation présente une bien plus forte persistance que dans les pays développés : l’inflation courante est davantage influencée par l’inflation passée. Dans les pays en développement, les banques centrales font face à de plus lourdes contraintes que dans les pays développés, si bien que la politique monétaire peut plus difficilement être modifiée de façon à compenser les effets des variations des conditions en vigueur sur les marchés du travail.

Mais en définitive, puisque les trois composantes de la courbe de Phillips reflètent des expériences différentes entre pays développés et en développement après la crise, ils ne peuvent expliquer la baisse mondiale de l’inflation. Celle-ci doit s’expliquer par des facteurs communs à l'ensemble des pays; Jordà et ses coauteurs pensent notamment à l’ouverture commerciale et à l'essor des exportations en provenance des pays émergents, au développement des chaînes de valeur mondiale et à l’essor des flux de capitaux internationaux.

 

Références

BALL, Laurence M., & Sandeep MAZUMDER (2019), « The nonpuzzling behavior of median inflation », NBER, working paper, n° 25512.

BERNSTEIN, Jared (2017), « Two inflation puzzles, one inflation monster », in The Washington Post, 11 septembre.

BLANCHARD, Olivier (2016), « The US Phillips curve: Back to the 60s? », PIIE, policy brief, n° 16-1.

COIBION, Olivier, Yuriy GORODNICHENKO & Mauricio ULATE (2019), « Is inflation just around the corner? The Phillips Curve and global inflationary pressures », NBER, working paper, n° 25511.

The Economist (2017), « The Phillips Curve may be broken for good », 1er novembre.

FMI (2013), « The dog that didn’t bark: Has inflation been muzzled or was it just sleeping », World Economic Outlook, chapitre 3, avril. Traduction française, « Telle l’histoire du chien qui n’a pas aboyé : l’inflation a-t-elle été muselée, ou s’est-elle simplement assoupie? », Perspectives de l’économie mondiale, chapitre 3.

JORDÀ, Òscar, Chitra MARTI, Fernanda NECHIO & Eric TALLMAN (2019a), « Inflation: Stress-testing the Phillips curve », FRBSF, Economic Letter, n° 2019-05.

JORDÀ, Òscar, Chitra MARTI, Fernanda NECHIO & Eric TALLMAN (2019b), « Why is inflation low globally? », FRBSF, Economic Letter, n° 2019-15.

Partager cet article

Repost0
9 juillet 2019 2 09 /07 /juillet /2019 17:34
Ce qu’une approche séculaire nous apprend des taux réels mondiaux

Suivant une tendance baissière depuis les années quatre-vingt, les taux d’intérêt réels mondiaux ont atteint ces dernières années des niveaux historiquement faibles dans les pays développés. Les taux directeurs des principales banques centrales des pays développés sont proches de zéro et certains ont même été fixés en territoire négatif (cf. graphique 1). Et pourtant, l’inflation est restée particulièrement faible dans les pays développés, ce qui suggère que le taux d’intérêt naturel, c’est-à-dire le taux d’intérêt réel qui prévaudrait si la production était à son potentiel, est lui-même faible. Cette situation n’est pas sans inquiéter les responsables de la politique monétaire et d’intriguer les universitaires.

GRAPHIQUE 1  Taux directeurs des principales banques centrales des pays développés (en %)

Ce qu’une approche séculaire nous apprend des taux réels mondiaux

Lors d’un discours prononcé à une conférence du FMI en 2013, Larry Summers (2015) a indiqué y voir la manifestation de qu’il qualifie de « stagnation séculaire », c’est-à-dire d’un manque chronique de demande maintenant la production en-deçà de son potentiel. D’autres explications ont été évoquées, allant dans le sens ou non de la thèse de la stagnation séculaire : les pays producteurs de pétrole et les pays émergents d’Asie ont pu exporter un excès d’épargne dans le reste du monde, notamment en raison du sous-développement de leur système financier domestique [Bernanke, 2005] ; il peut y avoir un manque d’opportunités d’investissement, notamment en raison d’un essoufflement de l’innovation [Gordon, 2012] ; la demande d’actifs sûrs a pu augmenter, exposant les économies au risque de plonger dans une « trappe à sûreté » [Caballero et Farhi, 2018 ; Caballero et alii, 2015] ; la crise financière mondiale a pu laisser de profonds stigmates sur l’activité, notamment un imposant un lent processus de désendettement [Lo et Rogoff, 2015].

Afin d’éclairer ce débat, Pierre-Olivier Gourinchas et Hélène Rey (2019) ont analysé ces conditions inhabituelles d’un point de vue séculaire, en utilisant les données sur la consommation, la richesse et les rendements d’actifs. En l’occurrence, ils se sont particulièrement appuyés sur les contributions de qu’ont réalisé en histoire macroéconomique Thomas Piketty et Gabriel Zucman (2014) et Jordà et alii (2016). Adapter une perspective historique longue leur paraît en effet nécessaire : James Hamilton et alii (2016) notaient déjà, à partir d’un échantillon de 17 pays, que les taux d’intérêt réels fluctuent fortement au cours du temps et qu’ils avaient déjà atteint de très faibles niveaux par le passé. 

Après avoir décomposé les fluctuations du ratio consommation sur richesse sur de longues périodes temps, Gourinchas et Rey constatent que les variations de ce ratio anticipent les variations subséquentes du taux d’intérêt réel mondial sans risque (cf. graphique 2). En outre, leur analyse suggère que les chocs macroéconomiques et financiers constituent des déterminants importants des taux d’intérêt réels mondiaux. Du côté macroéconomique, ces derniers sont particulièrement affectés par les forces structurelles que constituent la croissance de la productivité et la démographie. Du côté financier, les taux d’intérêt réels de court terme semblent fortement affectés par les cycles de boom et d’effondrement financiers.

GRAPHIQUE 2  Ratio consommation sur richesse aux Etats-Unis, Royaume-Uni, Allemagne et France

Ce qu’une approche séculaire nous apprend des taux réels mondiaux

Les chutes significatives du ratio consommation sur richesse se sont produites à la veille de crises financières mondiales, en l’occurrence durant les années vingt et les années deux mille. Lors de ces booms, la richesse privée s’est accrue à un rythme rapide, c’est-à-dire bien plus vite que la consommation, si bien que le ratio consommation sur richesse privée s’est mécaniquement réduit. La richesse explose en l’espace de quelques années, alimentée par la hausse du levier d’endettement et de la hausse de l’appétit pour le risque.

Lors de l’effondrement qui se produit dans le sillage des crises financières mondiales, l’appétit pour le risque s’évapore, les prix d’actifs s’écroulent, et les différents agents, c’est-à-dire aussi bien les entreprises et les ménages que les administrations publiques, cherchent à se désendetter. Au cours de ces épisodes, l’épargne désirée augmente fortement et cette hausse de l’épargne désirée déprime puissamment les taux d’intérêt réels sans risque. Cette dynamique se trouve renforcée par l’affaiblissement du secteur bancaire et le resserrement de la réglementation financière qui contraignent davantage le prêt à destination du secteur réel.

Dans le sillage de la Grande Dépression des années trente, les taux d’intérêt réels étaient restés déprimés pendant une longue période de temps. Les estimations que réalisent Gourinchas et Rey à partir de l’évolution du ratio consommation sur richesse les amènent à conclure que le taux d’intérêt réel mondiale est susceptible de rester faible, voire négatif, durant une période prolongée. Selon leur scénario de base, le taux d’intérêt réel de court terme à moyen terme devrait être de -2,35 % aux Etats-Unis entre 2015 et 2025 et de -3,1 % pour les économies combinées des Etats-Unis, du Royaume-Uni, de l’Allemagne et de la France. Ils en concluent que la probabilité que ces économies soient de nouveau contraintes par la borne inférieure effective reste élevée : toute nouvelle récession va amener les banques centrales à réduire leurs taux sans que l’activité s’en trouve suffisamment stimulée pour ramener rapidement l'économie au plein emploi.

 

Références

BERNANKE, Ben S. (2005), « The global saving glut and the U.S. current account deficit », discours prononcé lors d'une conférence tenu à Richmond le 10 mars.

CABALLERO, Ricardo J., & Emmanuel FARHI (2018), « The safety trap », in Review of Economic Studies, vol. 85, n° 1.

CABALLERO, Ricardo J., Emmanuel FARHI & Pierre-Olivier GOURINCHAS (2015), « Global imbalances and currency wars at the ZLB », NBER, working paper, n° 21670, octobre.

GORDON, Robert (2012), « Is US economic growth over? Faltering innovation confronts the six headwinds », CEPR Policy Insight, n° 63.

GOURINCHAS, Pierre-Olivier, & Hélène REY (2019), « Global real rates: A secular approach », BRI, working paper, n° 793.

HAMILTON, James D., Ethan S. HARRIS, Jan HATZIUS & Kenneth D. WEST (2016), « The equilibrium real funds rate: Past, present and future », in FMI, IMF Economic Review, vol. 64, n° 4.

JORDÀ, Òscar, Moritz H.P. SCHULARICK & Alan M. TAYLOR (2016), « Macrofinancial history and the new business cycle facts », in NBER Macroeconomics Annual 2016, vol. 31.

LO, Stephanie, & Kenneth ROGOFF (2015), « Secular stagnation, debt overhang and other rationales for sluggish growth, six years on », BRI, working paper, n° 482.

PIKETTY, Thomas, & Gabriel ZUCMAN (2014), « Capital is back: Wealth-income ratios in rich countries 1700-2010 », in The Quarterly Journal of Economics, vol. 129, n° 3.

SUMMERS, Lawrence H. (2015), « Have we entered an age of secular stagnation? », in FMI, IMF Economic Review, vol. 63.

Partager cet article

Repost0
30 juin 2019 7 30 /06 /juin /2019 06:57
Pourquoi les barrières à l’entrée se sont-elles renforcées aux Etats-Unis ?

Pour beaucoup, une économie de marché est d’autant plus efficace que les flux de créations et de destructions d’entreprises y sont intenses, les entreprises les moins efficaces disparaissant sous la pression de la concurrence exercée par les entreprises les plus efficaces. Lorsqu’un secteur subit un choc négatif, dégradant sa rentabilité, les entreprises devraient tendre à la quitter, ce qui libère des ressources (matérielles, humaines, financières, etc.) permettant aux autres entreprises ou autres secteurs, plus rentables, de se développer. Mais pour que ce soit le cas, les entreprises doivent pouvoir se mouvoir librement d’un secteur à l’autre, pénétrer et quitter facilement les marchés : ces derniers doivent être dénués de « barrières ». En effet, des barrières à l’entrée empêchent des entreprises potentiellement efficaces d’entrer sur le marché et de se développer. Elles réduisent les incitations des entreprises en place à chercher à gagner en efficacité, à baisser leurs prix, à diversifier leur offre et à innover, dans la mesure où elles craignent moins d’être concurrencées. C’est alors le phénomène de la destruction créatrice qui s’en trouve freiné, et plus largement la croissance économique.

Beaucoup considèrent les Etats-Unis comme une économie de libre marché et certains y voient pour cette raison-là un exemple vers lequel les pays européens devraient tendre. Pourtant, de plus en plus d’études empiriques suggèrent un déclin du dynamisme de l’économie américaine. Ryan Decker et alii (2016) ont bien mis en évidence une réduction des flux de créations et destructions d’entreprises et d’emplois au cours des dernières décennies. Simcha Barkai (2017) et Jan De Loecker et Jan Eeckhout (2017) notent que la concentration et les taux de profit ont augmenté dans la plupart des secteurs américains. Jason Furman (2015) estime que la hausse de la concentration est le symptôme d’une hausse des rentes et d'un relèvement des barrières à la concurrence. Germán Gutiérrez et Thomas Philippon (2017) constatent que la baisse de la concurrence entre les entreprises américaines contribue à expliquer la faiblesse de leur investissement. Matias Covarrubias et alii (2019) sont allés encore plus loin et ont montré que la concentration des entreprises aux Etats-Unis est telle qu’elle nuit à l’ensemble de l’économie américaine. Ce qui reste à expliquer, c'est pourquoi les Etats-Unis ont eu tendance à se « cartelliser ».

Pour éclairer le moindre dynamisme de l’économie américaine et la hausse de la concentration des entreprises, Gutiérrez et Philippon (2019) ont appliqué la théorie du Q de Tobin, non pas à l’investissement, mais à la réallocation des entreprises d’un secteur à l’autre. Le Q de Tobin est le rapport entre la valeur cotée en Bourse d’une entreprise et la valeur de remplacement de son capital fixe. De la même façon qu’il est rentable pour les entreprises à Q élevé de se développer en investissant, la réallocation des entreprises des secteurs à faible Q vers les secteurs à Q élevé devrait générer de la valeur. C’est sur cette réallocation que Gutiérrez et Philippon se sont penchés : ils ont étudié les entrées et sorties des entreprises des secteurs américains au cours des quatre dernières décennies. Ils constatent que l’élasticité des entrées vis-à-vis du Q était positive et significative jusqu’à la fin des années quatre-vingt-dix, mais qu’elle a décliné par la suite, pour devenir nulle (cf. graphique). Autrement dit, les entreprises ont moins eu tendance à entrer dans les secteurs à Q élevé.

GRAPHIQUE  Elasticité du taux d’entrée d'entreprises et d'établissements vis-à-vis du Q de Tobin dans les secteurs américains

Pourquoi les barrières à l’entrée se sont-elles renforcées aux Etats-Unis ?

La chute de l’élasticité date du début des années deux mille, en l’occurrence bien avant qu'éclate la crise financière mondiale, ce qui exclut des explications purement conjoncturelles. Les modèles standards suggèrent deux explications potentielles : ce sont soit les coûts d’entrée, soit les rendements d’échelle qui ont augmenté. Or, Gutiérrez et Philippon ne constatent pas de hausse généralisée des rendements d’échelle au cours des 20 dernières années. De plus, les changements des rendements d’échelle ne sont pas corrélés avec la baisse de l’élasticité des entrées. Ils en concluent que les rendements d’échelle ne peuvent constituer la principale explication, ce qui les amène à se tourner vers les coûts d’entrée.

Il y a diverses variétés de coûts d’entrée, allant de la réglementation aux barrières technologiques, en passant par les frictions financières. Gutiérrez et Philippon construisent des indicateurs pour tous ces coûts et ils testent s’ils peuvent expliquer l’absence de libre entrée. Leurs tests soulignent le rôle de la réglementation, mais ils ne soutiennent pas les autres hypothèses, ce qui les amène à se tourner vers la réglementation.

Cette dernière n’est pas sans avoir un rôle ambivalent dans la littérature économique. D’un côté, dans le sillage d’Arthur Pigou (1932), les théoriciens de l’économie politique partent de l’idée que les activités productives génèrent des externalités négatives et estiment qu’il est alors justifié que les pouvoirs publics, supposés bienveillants, interviennent pour les corriger et ainsi protéger les consommateurs. A l’opposé, George Stigler (1971) et l’école du choix public craignent une capture du régulateur et des politiciens : tout régulateur finit par servir les intérêts des organisations qu’il est censé réguler. En l’occurrence, parce qu’elles ont davantage de ressources pour faire du lobbying, les grosses entreprises seraient les plus à même de détourner la régulation à leur profit. Simeon Djankov et alii (2002) ont mis en évidence de grandes différences dans l’ampleur des coûts d’entrée d’un pays à l’autre. Surtout, en constatant que les régulations à l’entrée sont associées à de plus hauts niveaux de corruption et que les pays présentant des systèmes politiques plus ouverts et transparents cherchent à moins réguler les entrées, Djankov et ses coauteurs présentaient des preuves empiriques allant dans le sens de la théorie du choix public.

Pour déterminer le rôle de la réglementation dans l’absence de libre entrée aux Etats-Unis, Gutiérrez et Philippon ont alors réalisé plusieurs tests. Premièrement, ils notent que les mesures de la réglementation sont corrélées avec le déclin de l’élasticité des entrées. Deuxièmement, ils constatent que les réglementations nuisent aux petites entreprises et réduisent le dynamisme des petites entreprises relativement aux grosses, en termes de croissance de l’emploi, de création d’établissements et de croissance des établissements. Troisièmement, ils observent que les grandes modifications réglementaires n’étaient pas corrélées avec les changements des profits des entreprises en place jusqu’à 2000 ; mais après 2000, les grands changements réglementaires sont systématiquement suivis par de fortes hausses des profits des entreprises en place. Quatrièmement, Gutiérrez et Philippon constatent que le lobbying nuit aux petites entreprises relativement aux grosses.

Dans un précédent travail, Gutiérrez et Philippon (2018) avaient noté que l’application de la réglementation antitrust avait eu tendance à se relâcher aux Etats-Unis, mais à se renforcer en Europe, et que cela pouvait contribuer à expliquer pourquoi les marchés européens sont désormais moins concentrés et plus concurrentiels que les marchés américains. Au terme de cette nouvelle étude, Gutiérrez et Philippon (2019) en concluent que le déclin des entrées sur les secteurs américains s’expliquerait plutôt bien par la réglementation et le lobbying. La réglementation est loin d’être aussi bénigne que le pensait Pigou : cette dernière a un impact négatif sur les petites entreprises, en particulier dans les secteurs où les dépenses de lobbying sont importantes. Gutiérrez et Philippon rejoignent au final Stigler en considérant que le lobbying est utilisé stratégiquement par les grosses entreprises pour protéger leurs rentes. En l’occurrence, il semblerait que le problème de la capture du réglementateur se soit accentué ces dernières années : puisque les dépenses en lobbying se sont accrues après 2000, cela suggère que les grosses entreprises ont été de plus en plus à même d’influencer la régulation à leur bénéfice.

 

Références

AKCIGIT, Ufuk, & Sina T. ATES (2019), « Ten facts on declining business dynamism and lessons from endogenous growth theory », NBER, working paper, n° 25755.

BARKAI, Simcha (2016), « Declining labor and capital shares », Université de Chicago, document de travail.

COVARRUBIAS, Matias, Germán GUTIÉRREZ & Thomas PHILIPPON (2019), « From good to bad concentration? U.S. industries over the past 30 years”, NBER, working paper, n° 25983.

DAVIS, Steven J., & John HALTIWANGER (2014), « Labor market fluidity and economic performance », NBER, working paper, n° 20479.

DE LOECKER, Jan, & Jan EECKHOUT (2017), « The rise of market power and the macroeconomic implications », NBER, working paper, n° 23687, août.

DECKER, Ryan A., John HALTIWANGER, Ron S. JARMIN & Javier MIRANDA (2016), « Declining business dynamism: What we know and the way forward », in American Economic Review: Papers & Proceedings, vol. 106, n° 5.

DJANKOV, Simeon, Rafael LA PORTA, Florencio LOPEZ-DE-SILANES & Andrei SHLEIFER (2002), « The regulation of entry », in The Quarterly Journal of Economics, vol. 117, n° 1.

FURMAN, Jason (2015), « Business investment in the United States: Facts, explanations, puzzles, and policies », Council of Economic Advisers.

GRULLON, Gustavo, Yelena LARKIN & Roni MICHAELY (2017), « Are U.S. industries becoming more concentrated? ».

GUTIÉRREZ, Germán, & Thomas PHILIPPON (2017), « Investment-less growth: An empirical investigation », in Brookings Papers on Economic Activity, vol. 48, n° 2.

GUTIERREZ, Germán, & Thomas PHILIPPON (2018), « How EU markets became more competitive than US markets: A study of institutional drift », NBER, working paper, n° 24700, juin.

GUTIERREZ, Germán, & Thomas PHILIPPON (2019), « The failure of free entry », NBER, working paper, n° 26001.

PIGOU, Arthur C. (1932), The Economics of Welfare, Macmillan and Co.

STIGLER, George J. (1971), « The theory of economic regulation », in Bell Journal of Economics, vol.2, n° 1.

Partager cet article

Repost0

Présentation

  • : D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher