Overblog
Suivre ce blog Administration + Créer mon blog
11 juillet 2021 7 11 /07 /juillet /2021 15:11
La convergence, enfin !

Les modèles de croissance néoclassique, en premier lieu celui de Robert Solow (1956), partent de l'idée qu'un pays se caractérise par un stock de capital par travailleur d’autant plus faible et partant une productivité marginale du capital d’autant plus élevée qu’il est pauvre. Ils en concluent que les pays pauvres devraient accumuler plus rapidement du capital que les pays riches, donc connaître une plus forte croissance que ces derniers. Autrement dit, ces modèles amènent à prédire une convergence absolue (ou inconditionnelle) : le niveau de vie des pays pauvres devrait avoir tendance à rattraper celui des pays riches, et ce indépendamment des conditions initiales.

Dans les années 1990, les économistes ont multiplié les analyses empiriques pour tester l’hypothèse d’une convergence absolue. Ils ne sont guère parvenus à la valider. Au contraire, ils ont plutôt eu tendance à mettre en évidence une divergence des niveaux de vie. Dans une étude pionnière s'appuyant sur les données tirées d’un large ensemble de pays, Robert Barro (1991) conclut que ceux-ci avaient connu une faible divergence depuis les années 1960. Les analyses portant sur des données de plus long terme, mais sur des échantillons de pays plus restreints, suggéraient une forte divergence depuis au moins le seizième siècle : selon Lant Pritchett (1997), le rapport entre les revenus par tête des pays les plus riches et ceux des pays les plus pauvres a été multiplié par cinq entre 1870 et 1990. Plus récemment, Dani Rodrik (2012, 2014) et Paul Johnson et Chris Papageorgiou (2020) ont également conclu que les pays les plus pauvres ne tendaient pas, en moyenne, à croître plus rapidement que les pays les plus riches. 

L’obtention de ces résultats a notamment entraîné un relatif abandon des modèles de croissance néoclassique et le développement de nouveaux modèles ; ces derniers incluent par exemple les modèles de trappe à pauvreté, qui suggèrent qu’un pays ne parvient guère à connaître une croissance significative tant que son niveau de vie n’atteint pas un certain seuil, et les modèles AK, qui s’inspirent du modèle de croissance endogène de Paul Romer (1986) et qui peuvent prédire une divergence des niveaux de vie.

Le rejet de l’hypothèse d’une convergence absolue a également conduit les économistes à davantage se focaliser sur les déterminants du revenu à l’état stationnaire, ce qui les a amenés à réaliser des régressions de croissance et des tests de convergence conditionnés à ces déterminants [Barro et Sala-i-Martin, 1992 ; Mankiw et alii, 1992 ; Durlauf et alii, 2005]. Ces travaux ont suggéré qu’il n’y avait certes pas convergence absolue, mais qu’une convergence conditionnelle semblait être à l’œuvre : les pays les plus pauvres tendraient à rattraper les pays les plus riches, mais à condition de partager certains caractéristiques communes avec ces derniers, par exemple un même stock de capital humain ou des institutions similaires. 

Plus de trois décennies se sont écoulées depuis que des travaux empiriques ont commencé à tester de façon robuste l’hypothèse d’une convergence absolue. La période a été marquée par de longs épisodes de forte croissance parmi plusieurs pays émergents, notamment des pays asiatiques comme la Chine et l’Inde, tandis que les pays riches présentaient des performances décevantes, en particulier dans le sillage de la crise financière mondiale. Certains, comme Arvind Subramanian (2011), ont alors suggéré qu’un processus de convergence absolue a pu finir par se mettre en œuvre. Plusieurs études se sont appuyées sur les données additionnelles offertes par ces dernières décennies pour de nouveau soumettre à l’examen empirique l’hypothèse d’une convergence absolue. Elles amènent à croire que ces ultimes décennies marquent une rupture par rapport à près de cinq siècles de divergence. 

Dans l'une d'entre elles, Dev Patel, Justin Sandefur et Arvind Subramanian (2021) concluent en effet que les pays en développement ont amorcé un processus de convergence absolue vis-à-vis des niveaux de revenu des pays développés au milieu des années 1990 et que ce rattrapage s’est accéléré dans les années 2000. Ce ne sont pas juste la Chine, l’Inde et une poignée de pays asiatiques qui ont réalisé de bonnes performances économiques ; c’est l’ensemble des pays en développement qui ont vu leur revenu par tête augmenter plus vite que celui des pays développés. En régressant la croissance sur dix ans du revenu par tête sur le revenu par tête et observé l’évolution de cette relation depuis 1960, Michael Kremer, Jack Willis et Yang You (2021) ont quant à eux décelé une tendance vers la convergence depuis la fin des années 1980 et ils estiment qu’elle a fini par se traduire par une convergence absolue à partir de 2000 : la période allant de 1985 à 1995 est marquée par une divergence des revenus par tête au rythme annuel de 0,5 %, tandis que la période allant de 2005 à 2015 se caractérise par une convergence au rythme annuel de 0,7 %. Patel et ses coauteurs confirment que la vitesse de convergence a été lente ; si elle se poursuit au même rythme, il faudra que s’écoulent 170 ans avant que le pays en développement moyen réduise de moitié l’écart entre son revenu actuel et son revenu à l’état stationnaire.

GRAPHIQUE 1  Taux de croissance moyen selon le quartile de revenu (en %)

La convergence, enfin !

Source : Kremer et alii (2021)

Ces deux études expliquent la convergence observée ces deux dernières décennies par la conjonction, d’une part, de l’accélération du rythme de rattrapage des pays pauvres sur les pays riches et, d’autre part, du ralentissement de la croissance des pays situés à la frontière technologique. En effet, le quart des pays les plus riches présentait la croissance la plus rapide dans les années 1980, mais la croissance la plus lente depuis ; de leur côté, les autres pays ont vu leur croissance s’accélérer significativement dans les années 1990 et au début des années 1990 (cf. graphique 1). Cela dit, Patel et ses coauteurs estiment que la convergence s’explique davantage par l’accélération de la croissance dans les pays en développement que par le ralentissement de la croissance dans les pays développés. Ils notent en effet que la répartition de la croissance parmi les pays riches est restée stable au cours du temps, alors qu’elle s’est élevée dans l’ensemble de la distribution des pays pauvres. En outre, alors que 42 % des pays à faible revenu avaient connu une décroissance au cours des années 1980, ce n’est plus le cas que de 16 % des pays appartenant à ce groupe dans les années 2000 et 2010. Toutefois, le mouvement de convergence n’est pas uniforme d’une région à l’autre : les pays d’Afrique subsaharienne peinent toujours à rattraper les pays les plus riches.

GRAPHIQUE 2  Taux de croissance moyen selon le groupe de revenu (en %)

La convergence, enfin !

source : Patel et alii (2021)

Ces résultats amènent Patel et ses coauteurs à écarter l’hypothèse d’une trappe à revenu intermédiaire (middle-income trap), qui avait notamment été avancée par Barry Eichengreen et alii (2013) : alors que les pays à revenu intermédiaire et à faible revenu ont connu une plus forte croissance que les pays riches depuis les années 1990, les pays à revenu intermédiaire ont bénéficié d’une plus forte croissance que les autres groupes de pays depuis les années 1980 (cf. graphique 2). Patel et ses coauteurs observent en outre que la croissance a été moins volatile et plus persistante ces dernières décennies dans les pays en développement. Cela leur suggère que ce sont, non seulement les performances moyennes de croissance entre pays riches et pauvres, mais aussi le processus même de croissance au sein des pays, qui ont changé.

Kremer et alii (2021) observent également que plusieurs déterminants (ou « corrélats ») de la croissance, comme le capital humain, les politiques, les institutions et la culture, ont également connu à partir des années 1990 une convergence en allant dans le sens associé aux pays à haut revenu. Cette convergence des corrélats de la croissance pourrait expliquer la convergence absolue des niveaux de vie, mais, comme le suggère la théorie de la modernisation, il se peut également que la causalité aille en sens inverse, la seconde entraînant la première. En poursuivant leur analyse, Kremer et ses coauteurs estiment que c’est bien la convergence des corrélats de la croissance qui explique la convergence des niveaux de vie : l’économie mondiale a convergé vers la convergence absolue parce que cette dernière a convergé vers la convergence conditionnelle. Ou, pour le dire autrement, dans la mesure où les pays ont fini par partager des politiques et institutions similaires, ils se sont retrouvés dans le même « club de convergence ». Kremer et ses coauteurs notent également que la relation entre la croissance et ses déterminants a eu tendance à s’aplatir. Ils interprètent cet aplatissement comme suggérant que ces facteurs deviennent de moins en moins importants pour la croissance économique à mesure que celle-ci se poursuit. Par exemple, certaines politiques et institutions sont peut-être nécessaires pour que s’amorce la convergence, mais qu’elles s’avèrent ensuite moins déterminantes une fois la convergence opérée.

La question qui se pose est bien sûr de savoir si la convergence absolue qui a été observée au cours des dernières décennies se poursuivra. Johnson et Papageorgiou (2020) estiment qu’elle n’est que temporaire et qu’elle s’explique par les prix élevés des matières premières observés au cours de la période. Kremer et ses coauteurs sont plus optimistes, dans la mesure où ils continuent d’observer la tendance à la convergence dans leur échantillon lorsqu’ils excluent de ce dernier les pays abondants en matières premières. Mais comme le notent Patel et ses coauteurs, ces décennies de convergence ont pu également s’expliquer par la faiblesse des coûts de financement internationaux, la croissance chinoise et la mondialisation, or ces facteurs n’ont pu être que temporaires ; la croissance de l'économie tout comme celle du commerce international ont par exemple fortement ralenti au cours de la dernière décennie. D’une part, il semble que les régimes démocratiques se détériorent à travers le monde [Acemoglu et Molina, 2021 ; Pande et Enevoldsen, 2021]. Si la démocratie est le principal corrélat de la croissance, sa détérioration peut alors saper la convergence des autres corrélats. D’autre part, les coûts économiques du changement climatique se manifestent de plus en plus, or ils sont supportés de façon disproportionnée par les pays en développement [Pande et Enevoldsen, 2021]. 

 

Références

ACEMOGLU, Daron, & Carlos A. MOLINA (2021), « Converging to converge? A comment », NBER, working paper, n° 28992.

BARRO, Robert J. (1991), « Economic growth in a cross section of countries », in The Quarterly Journal of Economics, vol. 106, n° 2.

BARRO, Robert J., & Xavier SALA-I-MARTIN (1992), « Convergence », in Journal of Political Economy, vol. 100, n° 2.

DURLAUF, Steven N., Paul A. JOHNSON & Jonathan R. TEMPLE (2005), « Growth econometrics », in Handbook of Economic Growth.

EICHENGREEN, Barry, Donghyun PARK & Kwanho SHIN (2014), « Growth slowdowns redux: New evidence on the middle-income trap », in Japan and the World Economy, vol. 32. 

JOHNSON, Paul, & Chris PAPAGEORGIOU (2020), « What remains of cross-country convergence? », in Journal of Economic Literature, vol. 58, n° 1.

KREMER, Michael, Jack WILLIS & Yang YOU (2021), « Converging to convergence », in NBER Macroeconomics Annual 2021, vol. 36, University of Chicago Press.

MANKIW, N. Gregory, David ROMER & David N. WEIL (1992), « A contribution to the empirics of economic growth », in The Quarterly Journal of Economics, vol. 107, n° 2.

PANDE, Rohini, & Nils ENEVOLDSEN (2021), « Discussion of "Converging to convergence" by Kremer, Willis, and You ».

PATEL, Dev, Justin SANDEFUR & Arvind SUBRAMANIAN (2021), « The new era of unconditional convergence », Center for Global Development, working paper, n° 566.

PRITCHETT, Lant (1997), « Divergence, big time », in Journal of Economic Perspectives, vol. 11, n° 3.

RODRIK, Dani (2012), « Unconditional convergence in manufacturing », in The Quarterly Journal of Economics, vol. 128, n° 1.

RODRIK, Dani (2014), « The past, present, and future of economic growth », in Challenge, vol. 57, n° 3.

ROMER, Paul M. (1986), « Increasing returns and long-run growth », in Journal of Political Economy, vol. 94, n° 5.

ROY, Sutirtha, Martin KESSLER & Arvind SUBRAMANIAN (2016), « Glimpsing the end of economic history? Unconditional convergence and the missing middle income trap », Center for Global Development, working paper, n° 438.

SOLOW, Robert M. (1956), « A contribution to the theory of economic growth », in Quarterly Journal of Economics, vol. 70, n° 1.

SUBRAMANIAN, Arvind (2011), Eclipse: Living in the Shadow of China’s Economic Dominance, PIIE.

Partager cet article
Repost0
29 juin 2021 2 29 /06 /juin /2021 15:52
Quels ont été les effets de la grippe espagnole sur l'économie américaine ?

Pour déterminer les répercussions aussi bien sanitaires qu’économiques et sociales que l’épidémie de Covid-19 pouvait avoir, beaucoup se sont tournés vers la grande pandémie du début du vingtième siècle, en l’occurrence celle de la grippe espagnole. Entre mars 1918 et mars 1920, en trois vagues, celle-ci a peut-être infecté 500 millions de personnes à travers le monde, soit un tiers de la population mondiale à l’époque, et tué entre 50 et 100 millions de personnes [Patterson et Pyle, 1991 ; Johnson et Mueller, 2002 ; Killingray et Phillips, 2003]. L’impact sanitaire de la grippe espagnole a été effroyable, mais les études ne sont pas encore parvenues à un consensus sur l’importance de ses répercussions économiques. Il faut dire que cette littérature reste balbutiante : cet épisode n’avait relativement guère attiré l’attention des économistes jusqu’à ce qu’éclate l’épidémie de Covid-19 [Boianovsky et Erreygers, 2021].

Dans leur compte rendu sur les cycles d’affaires aux Etats-Unis, un pays où la grippe espagnole a tué entre 500.000 et 675.000 personnes, Arthur Burns et Wesley Mitchell (1946) estimaient que la récession associée à la pandémie avait été « d’une exceptionnelle brièveté et d’une amplitude modérée ». En étudiant des données à haute fréquence relatives à l’économie américaine, François Velde (2020) est allé dans leur sens : dans le sillage de la pandémie, il détecte une baisse forte, mais extrêmement courte, de la production industrielle, peu d’effets sur les ventes de détail et a priori aucun effet sur les probabilités de faillites des entreprises, ni sur le fonctionnement du système financier. D’après son analyse, le rebond suite à l’épidémie a été plutôt rapide et il n'est pas exclu que les effets décelés aient davantage résulté de l’armistice que de la pandémie. 

Tous les économistes ne partagent ce relatif optimisme. Robert Barro et alii (2020) estiment que la grippe espagnole a provoqué, au niveau mondial et dans les pays qu’elle a tout particulièrement touchés, l’une des plus puissantes contractions de l’activité économique observées depuis la fin du dix-neuvième siècle : en moyenne, un pays gagné par la pandémie a vu son PIB et sa consommation chuter respectivement de 6 et 8 %. Selon leurs estimations, le PIB américain aurait chuté de 1,5 %. Dans le cas des Etats-Unis, Sergio Correia et alii (2020) estiment que la pandémie a entraîné une chute de 18 % de la production manufacturière et de 23 % de l'emploi manufacturier, notamment parce que certaines des villes clés pour l'industrie manufacturière ont présenté les taux de mortalité les plus élevés. Les effets de la pandémie aurait été selon eux durables ; ils étaient encore visibles en 1923.

Dans une nouvelle étude, Johan Fourie et Johannes Norling (2021) ont cherché à déterminer quel a pu être l’impact de la grippe espagnole sur le revenu et la consommation des ménages aux Etats-Unis. Contrairement à l’essentiel des études précédemment citées, ils ont opté pour une approche plus microéconomique. En l’occurrence, ils se sont appuyés sur les données tirées d’une enquête sur le coût de la vie menée par le BLS entre juillet 1918 et février 1919 pour comparer la situation des ménages 99 villes américaines. 

Fourie et Norling estiment que le revenu réel des ménages américains a chuté de 6 % lors de la grippe espagnole, soit bien plus amplement que lors de l’épidémie de Covid-19. Il y a en effet une énorme différence entre les deux épisodes : contrairement à l’année dernière, le gouvernement ne cherchait pas à soutenir le revenu des ménages il y a un siècle. La chute des revenus observée lors de la grippe espagnole s’explique par celle des salaires des hommes ; à cette époque, les salaires constituaient en effet la quasi-totalité des revenus perçus par les ménages. La baisse des rémunérations des hommes fut toutefois en partie compensée par l’accroissement du taux d’activité des femmes : elles ont eu 20 % de chances en plus de travailler. Cette situation contraste également avec celle qui a prévalu aux premiers temps de l’épidémie de Covid-19 : lors de celle-ci, ce sont avant tout les femmes qui ont réduit leur offre de travail, en particulier aux Etats-Unis [Alon et alii, 2020 ; Albenasi et Kim, 2021 ; Fabrizio et alii, 2021 ; Alon et alii, 2021 ; Bluedorn et alii, 2021].

La grippe espagnole a amené les ménages à changer de comportement en matière de consommation. Fourie et Norling notent en effet que les ménages ont moins dépensé dans les achats de biens non durables et surtout de services, à peu près autant dépensé en biens durables qu’auparavant et par contre davantage dépensé dans la santé. 

Comme aujourd’hui, le gouvernement et les autorités locales avaient adopté il y a un siècle des mesures non pharmaceutiques pour contenir la propagation de la pandémie, notamment des fermetures d’écoles et des limitations dans la taille des rassemblements. Ces mesures ont duré plusieurs semaines, voire plusieurs mois, si bien que l’on pourrait s’attendre à ce qu’elles aient eu un impact significatif sur les revenus. Pourtant, Fourie et Norling rejoignent Correia et alii (2020) et Velde (2020) en constatant que le comportement des ménages semble avoir été peu corrélé avec les interventions non pharmaceutiques du gouvernement. Il est possible, comme ce fut le cas lors de l’épidémie de Covid-19, que la pandémie affectait significativement l’activité économique même en l’absence d’interventions publiques, par exemple en privant les entreprises d’une partie de leur main-d’œuvre ou en incitant les ménages à ajuster par eux-mêmes leurs dépenses. Il est également possible que les mesures non pharmaceutiques aient permis d’alléger les répercussions de la pandémie, en limitant par exemple le nombre de morts. Dans tous les cas, aujourd’hui comme il y a un siècle, il n’est pas clair que les autorités fassent face à un arbitrage entre mortalité et récession lorsqu’elles doivent gérer une épidémie.  

 

Références

ALBANESI, Stefania, & Jiyeon KIM (2021), « The gendered impact of the COVID-19 recession on the US labor market », NBER, working paper, n° 28505.

ALON, Titan, Sena COSKUN, Matthias DOEPKE, David KOLL & Michèle TERTILT (2021), « From mancession to shecession: Women’s employment in regular and pandemic recessions », IZA, discussion paper, n° 14223.

ALON, Titan, Matthias DOEPKE, Jane OLMSTEAD-RUMSEY & Michèle TERTILT (2020), « This time it’s different: The role of women’s employment in a pandemic recession », NBER, working paper, n° 27660.

BARRO, Robert J., José F. URSUA & Joanna WENG (2020), « The coronavirus and the Great Influenza Epidemic. Lessons from the “Spanish flu” for the coronavirus’s potential effects on mortality and economic activity », CESifo, working paper, n° 8166.

BLUEDORN, John, Francesca CASELLI, Niels-Jakob HANSEN, Ippei SHIBATA & Marina M. TAVARES (2021), « Gender and employment in the COVID-19 recession: Evidence on “she-cessions” », FMI, working paper, n° 21/95.

BODENHORN, Howard (2020), « Business in a time of Spanish influenza », NBER, working paper, n° 27495.

BOIANOVSKY, Mauro, & Guido ERREYGERS (2021), « How economists ignored the Spanish Flu pandemic in 1918–20 », Center for the History of Political Economy, Duke University, working paper.

BURNS, Arthur F., & Wesley C. MITCHELL (1946), Measuring Business Cycles, NBER.

CORREIA, Sergio, Stephan LUCH & Emil VERNER (2020), « Pandemics depress the economy, public health interventions do not: Evidence from the 1918 flu », document de travail.

FABRIZIO, Stefania, Diego B. P. GOMES & Marina M. TAVARES (2021), « COVID-19 she-cession: The employment penalty of taking care of young children », FMI, working paper, n° 2021/58.

FOURIE, Johan, & Johannes NORLING (2021), « Household income and spending in the United States during the 1918 influenza pandemic », CAGE, working paper, n° 571.

JOHNSON, Niall P.A.S., & Juergen MUELLER (2002), « Updating the accounts: Global mortality of the 1918- 1920 ‘Spanish’ influenza pandemic », in Bulletin of the History of Medicine, vol. 76, n° 1.

KILLINGRAY, David, & Howard PHILLIPS (2003), The Spanish Influenza Pandemic of 1918-1919: New Perspectives, Routledge Chapman & Hall.

PATTERSON, K. David, & Gerald F. PYLE (1991), « The geography and mortality of the 1918 influenza pandemic », Bulletin of the History of Medicine, vol. 65, n° 1.

VELDE, François (2020), « What happened to the US economy during the 1918 influenza pandemic? A view through high-frequency data », Federal Reserve Bank of Chicago, working paper, n° 2020-11.

WHEELOCK, David (2020), « What can we learn from the Spanish flu pandemic of 1918-19 for COVID-19? », St. Louis Fed On The Economy Blog, 1er juin. 

Partager cet article
Repost0
26 juin 2021 6 26 /06 /juin /2021 16:36
Pourquoi les reprises sont-elles lentes après les crises financières ?

Suite à la crise financière mondiale de 2008-2009, la reprise de l’activité dans les pays développés et émergents a été bien plus lente que ne l’anticipaient la plupart des prévisionnistes. En l’occurrence, malgré la reprise, l’activité économique n’a pas réussi à rejoindre la trajectoire tendancielle qu’elle suivait avant la crise : la crise financière semble avoir irrémédiablement réduit la production potentielle [Haltmaier, 2012 ; Ball, 2014 ; FMI, 2015]. Ce n’est pas propre à cet épisode : plusieurs études ont depuis montré que les reprises couplées à une crise financière tendaient à être suivies par de lentes reprises [Cerra et Saxena, 2008 ; FMI, 2009 ; Reinhart et Rogoff, 2009 ; Reinhart et Rogoff, 2014].

Mais s’il y a un certain consensus sur le profil des reprises dans le sillage des crises financières, il n’y en a pas en ce qui concerne les raisons pour lesquelles elles endommagent de façon permanente la production. Plusieurs analyses ont récemment cherché à expliquer la baisse de la production et de la productivité globale des facteurs en s’appuyant sur des modèles de croissance endogène [Anzoategui et alii, 2019 ; Bianchi et alii, 2019 ; Guerron-Quintana et Jinnai, 2019 ; Ikeda et Kurozumi, 2019 ; Queralto, 2019]. Ces travaux suggèrent que la productivité globale des facteurs décline dans le sillage des crises financières parce que les entreprises réduisent leurs efforts de recherche-développement lors de celles-ci. 

Les données empiriques amènent toutefois Valerie Cerra, Mai Hakamada et Ruy Lama (2021) à douter que la chute de la productivité globale des facteurs observée dans le sillage des crises financières soit liée à une baisse de l’effort de recherche-développement. Par exemple, le Brésil, la Corée du Sud, les Etats-Unis et la France ont connu des pertes permanentes en termes de production et de productivité globale des facteurs suite à la crise financière mondiale : ces deux agrégats n’ont pas assez rebondi après la Grande Récession pour revenir à la trajectoire tendancielle qu’ils suivaient jusqu'alors (cf. graphique 1). Mais dans la plupart de ces pays, la recherche-développement a continué de croître selon la tendance qu’elle suivait avant la crise.

GRAPHIQUE 1  Production, investissement, R&D et PGF

Pourquoi les reprises sont-elles lentes après les crises financières ?

source : Cerra et alii (2021)

En s’appuyant sur un échantillon de 24 pays qui ont connu une crise bancaire pendant la crise financière mondiale et de 168 pays qui n’en ont pas connue lors de celle-ci, Cerra et ses coauteurs ont alors observé la répartition des pertes en production, en investissement, en productivité et en recherche-développement suite à la crise financière mondiale relativement à leur tendance sur la période précédant celle-ci (cf. graphique 2). Ils constatent que la production, l’investissement et la productivité globale des facteurs tendent à être plus faibles qu’ils ne l’auraient été s’ils avaient continué de croître selon leur trajectoire d'avant-crise, mais aussi que ces pertes sont plus fortes pour les pays qui ont connu une crise bancaire que pour les pays qui n’en ont pas connue. En outre, la variance de la distribution des pertes semble plus réduite dans le cas des pays ayant connu une crise bancaire, ce qui implique que les pertes de production ont plus de chances de devenir permanentes dans le sillage d’une crise financière. Ces constats suggèrent qu’il y a un lien entre investissement, productivité et production durant la crise bancaire. Par contre, la distribution des pertes en recherche-développement des pays ayant connu une crise bancaire ne semble guère différente de celle des pays qui n’en ont pas connue, ce qui amène de nouveau à douter que la recherche-développement joue un rôle significatif dans l’amplification des pertes suite à une crise bancaire. 

GRAPHIQUE 2  Ecarts en 2015-2017 par rapport à la tendance sur la période 2000-2008

Pourquoi les reprises sont-elles lentes après les crises financières ?

source : Cerra et alii (2021)

Cerra et ses coauteurs ont ensuite observé les répercussions des crises bancaires à moyen terme. Suite à une crise bancaire, ils constatent que la production chute typiquement de 7 % et demeure durablement déprimée pendant dix ans ; la productivité globale des facteurs chute de 5 % ; l’investissement présente une contraction durable d’environ 20 % après dix ans ; et le crédit bancaire au secteur privé chute de près de 40 % du moyen à long terme. Ces résultats suggèrent des liens étroits entre les comportements de l’intermédiation financière, la productivité globale des facteurs et l’investissement dans le sillage des crises bancaires.

Enfin, en régressant les déterminants à moyen terme de la productivité globale des facteurs, Cerra et ses coauteurs constatent qu’une baisse de 1 % de l’investissement lors de la crise financière mondiale s’est typiquement traduite par une baisse de 0,5 % de la productivité globale des facteurs à moyen terme. En définitive, environ la moitié de la baisse de la productivité globale des facteurs à moyen terme observée après la crise financière mondiale résulterait de la baisse de l’investissement observée lors des premières années de la crise.

Ces divers constats amènent finalement Cerra et ses coauteurs à conclure que les effets d’hystérèse observés dans le sillage des crises financières transitent avant tout via le canal de l’investissement. Ce dernier ne contribue pas seulement à la production ; il contribue aussi directement à la productivité globale des facteurs à travers le progrès technique incorporé au capital. Ainsi, lors d’une crise financière, le resserrement des conditions financières contraint l’investissement ; la productivité globale des facteurs s’en trouve déprimée à moyen terme, ce qui détériore l’offre globale et freine la reprise de l’activité.

 

Références

ANZOATEGUI, Diego, Diego COMIN, Mark GERTLER & Joseba MARTINEZ (2019), « Endogenous technology adoption and R&D as sources of business cycle persistence », in American Economic Journal: Macroeconomics, vol. 11, n° 3.

BALL, Laurence M. (2014), « Long-term damage from the Great Recession in OECD countries », NBER, working paper, n° 20185.

BIANCHI, Francesco, Howard KUNG & Gonzalo MORALES (2019), « Growth, slowdowns, and recoveries », in Journal of Monetary Economics, vol. 101.

CERRA, Valerie, Antonio FATAS & Sweta C. SAXENA (2020), « Hysteresis and business cycles », FMI, working paper, n° 20/73.

CERRA, Valerie, Mai HAKAMADA & Ruy LAMA (2021), « Financial crises, investment slumps, and slow recoveries », FMI, working paper, n° 21/170.

CERRA, Valerie, & Sweta C. SAXENA (2008), « Growth dynamics: The myth of economic recovery », in American Economic Review, vol. 98, n° 1.

FMI (2009), « What’s the damage? Medium-term output dynamics after financial crises », World Economic Outlook: Sustaining the Recovery, chapitre 4.

FMI (2015), « Where are we headed? Perspectives on potential output », World Economic Outlook, chapitre 3.

GUERRON-QUINTANA, Pablo, & Ryo JINNAI (2019), « Liquidity, trends, and the Great Recession », in Quantitative Economics, vol. 10, n° 2.

HALTMAIER, Jane (2012), « Do recessions affect potential output? », Fed, international finance discussion paper, n° 1066.

IKEDA, Daisuke & Takushi KUROZUMI (2019), « Slow post-financial crisis recovery and monetary policy », in American Economic Journal: Macroeconomics, vol. 11, n° 4.

QUERALTO, Albert (2019), « A model of slow recoveries from financial crises », in Journal of Monetary Economics, vol. 114.

REINHART, Carmen, & Kenneth ROGOFF (2009), « The aftermath of financial crises », in American Economic Review, n° 99 mai.

REINHART, Carmen, & Kenneth ROGOFF (2014), « Recovery from financial crises: Evidence from 100 episodes », in American Economic Review, vol. 104.

Partager cet article
Repost0
20 juin 2021 7 20 /06 /juin /2021 11:07
Dans quelle mesure l’automatisation a-t-elle contribué à la hausse des inégalités salariales aux Etats-Unis ?

Les inégalités de salaires ont eu tendance à se creuser depuis le début des années quatre-vingt dans les pays développés. Aux Etats-Unis, les travailleurs diplômés du supérieur ont vu leur salaire réel augmenter au cours de ces quatre dernières décennies, tandis que ceux qui sont peu diplômés ont vu le leur baisser : les hommes qui ne sont pas diplômés du secondaire ont vu leur salaire réel chuter de 15 % depuis 1980. 

Pour expliquer ce creusement des inégalités salariales, toute une littérature a développé à partir des années quatre-vingt-dix l’idée d’un « progrès technique biaisé en faveur des qualifications » (skilled-biased technological change) : les nouvelles technologies supposées essentiellement substituables aux travailleurs non qualifiés et complémentaires avec les travailleurs qualifiés, leur diffusion aurait tendance à réduire la demande de travail non qualifié et à augmenter celle de travail qualifié [Bound et Johnson, 1992 ; Katz et Murphy, 1992].

Toutefois, les analyses empiriques ne parviennent pas à pleinement valider cette théorie. Cette dernière peine notamment à expliquer un phénomène qui a marqué les marchés du travail ces toutes dernières décennies, à savoir celui de la « polarisation de l’emploi » : aux Etats-Unis [Autor et alii, 2006], tout comme en Europe [Goos et alii, 2009], la part des emplois peu qualifiés a eu tendance, non pas à diminuer, mais à augmenter, tout comme celle des emplois très qualifiés, si bien que ce sont en fait les emplois moyennement qualifiés qui ont vu leur part dans l’emploi total diminuer.

Depuis les années deux mille, la focale s’est déplacée sur les tâches de production proprement dites. David Autor, Frank Levy et Richard Murnane (2003) ont souligné que ce sont les tâches essentiellement routinières qui sont les plus susceptibles d’être automatisées (ou délocalisées). Dans la mesure où ces tâches sont généralement réalisées par des travailleurs situés au milieu de la distribution des niveaux de qualifications et des salaires, l’automatisation semble contribuer à expliquer la polarisation de l’emploi.

Daron Acemoglu et Pascual Restrepo (2018) ont cherché à développer un cadre conceptuel pour étudier comment les avancées technologiques, notamment en matière de technologies d’automatisation, sont susceptibles d’affecter l’emploi, la répartition du revenu national et les salaires. En s’appuyant sur des données empiriques, ils ont montré que le déploiement des robots a eu tendance ces dernières décennies à détruire des emplois et à pousser les salaires à la baisse aux Etats-Unis [Acemoglu et Restrepo, 2020] et en France [Acemoglu et alii, 2020].

GRAPHIQUE 1 Relation entre variation des salaires réels et exposition d’un groupe de travailleurs dans les secteurs connaissant une baisse de la part du travail

Dans quelle mesure l’automatisation a-t-elle contribué à la hausse des inégalités salariales aux Etats-Unis ?

Dans une nouvelle analyse, Acemoglu et Restrepo (2021) concluent que l’automatisation explique une part significative de la hausse des inégalités de salaires observée depuis le début des années 1980 aux États-Unis. En effet, ils partent notamment du constat que les groupes de travailleurs qui étaient spécialisés en 1980 dans les secteurs qui connurent par la suite de significatives baisses de la part du travail ont vu leurs salaires relatifs chuter entre 1980 et 2016 (cf. graphique 1). Cette variation explique 40 % des changements de la structure des salaires entre ces groupes. Cette relation s’explique surtout par les groupes de travailleurs qui étaient spécialisés dans les tâches routinières dans ces secteurs (cf. graphique 2). L’indicateur de déplacement des tâches explique 67 % des changements de la structure des salaires. Autrement dit, une grande partie des changements qui ont marqué la structure des salaires aux Etats-Unis au cours des quatre dernières décennies s’explique par la baisse des salaires relatifs des travailleurs qui s’étaient spécialisés dans les tâches routinières dans les secteurs qui connurent ultérieurement une baisse de la part du travail. 

GRAPHIQUE 2 Relation entre variation des salaires réels et exposition aux emplois routiniers dans les secteurs connaissant une baisse de la part du travail

Dans quelle mesure l’automatisation a-t-elle contribué à la hausse des inégalités salariales aux Etats-Unis ?

Pour déterminer le rôle de l’automatisation dans le creusement des inégalités salariales aux Etats-Unis, Acemoglu et Restrepo développent un modèle où les nouvelles technologies d’automatisation élargissent l'éventail de tâches que peut assurer le capital et où celles-ci ont pour effet de déplacer certains groupes de travailleurs des tâches pour lesquelles ils disposaient d’un avantage comparatif. Acemoglu et Restrepo en tirent une équation simple liant les variations de salaires d’un groupe démographique au déplacement de tâches qu’il connaît. En estimant cette équation, ils concluent qu’entre 50 % et 70 % de la déformation de la structure des salaires américains entre 1980 et 2016 s’expliqueraient par la baisse du salaire relatif des groupes de travailleurs spécialisés dans les tâches routinières dans les secteurs ayant connu une forte automatisation. Les délocalisations, la hausse de la concentration sur les marchés des produits, l’intensification de la concurrence des importations et la désyndicalisation ont pu également contribuer à creuser les inégalités salariales, mais dans une bien moindre mesure. 

Ce faisant, Acemoglu et Restrepo estiment les effets directs du déplacement de tâches sur les salaires relatifs, mais leurs régressions ignorent d’importantes forces d’équilibre général, c’est-à-dire des canaux via lesquels l’automatisation est susceptible d’influencer indirectement les salaires réels : dans la mesure où l’automatisation et le déplacement des tâches sont concentrés dans une poignée de secteurs, il vont modifier la composition sectorielle de l’économie, ce qui affecte la demande de travail pour chaque catégorie de travailleurs ; il y a aussi des effets d’entraînement, en l’occurrence une plus grande concurrence entre les travailleurs déclassés pour les tâches non automatisées, ce qui pousse leurs salaires à la baisse, etc. Une fois pris en compte de tels effets d’équilibre général, Acemoglu et Restrepo estiment que le déplacement de tâches expliquerait près de 50 % des changements observés dans la structure des salaires américains. En définitive, ils concluent que le déplacement des tâches a entraîné une hausse significative des inégalités salariales, mais sans pour autant s'accompagner d’importants gains de productivité. 

 

Références

ACEMOGLU, Daron, Claire LELARGE & Pascual RESTREPO (2020), « Competing with robots: Firm-level Evidence from France », in AEA Papers and Proceedings, vol. 110.

ACEMOGLU, Daron, & Pascual RESTREPO (2018), « The race between man and machine: Implications of technology for growth, factor shares and employment », in American Economic Review, vol. 108, n° 6.

ACEMOGLU, Daron, & Pascual RESTREPO (2020), « Robots and jobs: Evidence from US labor markets », in Journal of Political Economy, vol. 128, n° 6.

ACEMOGLU, Daron, & Pascual RESTREPO (2021), « Tasks, automation, and the rise in US wage inequality », NBER, n° 28920.

AUTOR, David H., Lawrence F. KATZ & Melissa S. KEARNEY (2006), « The polarization of the U.S. labor market », in American Economic Review, vol. 96, n° 2.

AUTOR, David, Frank LEVY & Richard J. MURNAME (2003), « The skill content of recent technological change: an empirical exploration », in The Quarterly Journal of Economics, vol. 118, n° 4.

BOUND, John, & George JOHNSON (1992), « Changes in the structure of wages in the 1980's: An evaluation of alternative explanations », in American Economic Review, vol. 82, n° 3.

GOOS, Maarten, Alan MANNING & Anna SALOMONS (2009), « Job polarization in Europe », in The American Economic Review, vol. 99, n° 2.

KATZ, Lawrence F., & Kevin M. MURPHY (1992), « Changes in relative wages 1963-1987: Supply and demand factors », in Quarterly Journal of Economics, vol. 107, n° 1.

Partager cet article
Repost0
17 juin 2021 4 17 /06 /juin /2021 22:26
La courbe de Phillips et la polarisation de l’emploi

Ces dernières décennies, la relation (négative) entre l’inflation des prix et le chômage a eu tendance à s’affaiblir : on évoque un aplatissement de la courbe de Phillips [FMI, 2013]. Dans le cas des pays européens, des analyses comme celles de Clémence Berson et alii (2018), de Laura Moretti et alii (2019) ou encore de Laurence Ball et Sandeep Mazumder (2020) suggèrent que la courbe de Phillips s’est aplatie à partir de la crise financière mondiale, mais que la relation structurelle entre les prix et le chômage demeure. Toutes les études portant sur le cas européen ne vont pas dans ce sens. Par exemple, Matteo Ciccarelli et Chiara Osbat (2017) estiment que la déconnexion entre prix et chômage a débuté après 2012. De leur côté, Domenico Giannone et alii (2014) estiment que la courbe de Phillips est en fait devenue plus pentue au cours de la Grande Récession. 

Pour expliquer l’aplatissement de la courbe de Phillips, certains, comme Olivier Blanchard (2016) mettent particulièrement l’accent sur les anticipations d’inflation. En l’occurrence, celles-ci se seraient stabilisées à un faible niveau, non seulement en raison de la plus grande crédibilité acquise par les banques centrales, mais aussi parce que la faiblesse de l’inflation a un aspect auto-réalisateur : lorsque les prix apparaissent stables, les entreprises et les ménages portent moins attention à l’inflation et tendent moins à réviser leurs anticipations d’inflation lorsque l’inflation varie. D’autres mettent davantage en avant des phénomènes structurels comme la mondialisation, le vieillissement démographique, le progrès technique et les transformations du marché du travail.

L’un des bouleversements qui ont marqué les pays développés ces dernières décennies est celui de la polarisation de l’emploi : la part des emplois associés à des tâches routinières a eu tendance à diminuer [Autor et alii, 2006 ; Goos et alii, 2009]. Ces emplois se situant essentiellement au milieu de la distribution des salaires et des qualifications, la part des emplois moyennement qualifiés a eu tendance à diminuer, tandis que les parts respectives des emplois peu qualifiés et des emplois très qualifiés ont eu tendance à augmenter. La littérature relie avant tout ce phénomène au progrès technique : les avancées technologiques, en l’occurrence celles en matière de technologies d’automatisation, permettent au capital de réaliser efficacement un éventail toujours plus large de tâches pour lesquelles les travailleurs disposaient jusqu’alors d'un avantage comparatif [Acemoglu et Restrepo, 2018a ; Acemoglu et Restrepo, 2018b ; Acemoglu et alii, 2020]. Le commerce international a pu également contribuer, dans une moindre mesure, à la polarisation de l’emploi : ce sont les tâches les plus routinières que les entreprises ont été les plus enclines à sous-traiter ou délocaliser [Autor et alii, 2015].  

Pour Daniele Siena et Riccardo Zago (2021), ces deux phénomènes, l’aplatissement de la courbe de Phillips et la polarisation de l’emploi, sont liés. En effet, ils notent que, dans le cas de la zone euro, les pays abondants en emplois associés aux tâches routinières présentent une courbe de Phillips plus pentue ; réciproquement, les pays abondants aux emplois associés aux tâches non routinières présentent une courbe de Phillips aplatie. Ensuite, ils observent qu’à chaque fois que la composition de l’emploi se modifie au détriment des emplois associés à aux tâches routinières la courbe de Phillips tend à s’aplatir. C’est notamment le cas lors des récessions, des événements au cours desquels la polarisation s’accélère temporairement comme le notaient Paul Gaggl et Sylvia Kaufmann (2019) et Nir Jaimovich et Henry Siu (2020) dans le cas américain, les emplois associés aux tâches routinières ayant alors tendance à être définitivement détruits. En définitive, Siena et Zago estiment que les modifications de la structure professionnelle observées durant la Grande Récession, puis la crise de l'euro expliquent un quart de l'aplatissement de la courbe de Phillips dans la zone euro.

Les deux économistes se penchent ensuite sur les raisons pour lesquelles la polarisation de l’emploi est susceptible d’aplatir la courbe de Phillips. Ils partent de l’idée qu’un marché du travail est d’autant moins fluide, c’est-à-dire présente des taux d’embauches et de ruptures de contrat de travail d’autant plus faibles, qu’il présente une part importante d’emplois associés aux tâches routinières. A partir d’un modèle inspiré de celui d’Olivier Blanchard et Jordi Galí (2010), Siena et Zago suggèrent alors que c’est la plus grande fluidité du marché du travail impliquée par la réallocation de l’emploi qui tend à aplatir la courbe de Phillips. 

 

Références

ACEMOGLU, Daron, Claire LELARGE & Pascual RESTREPO (2020), « Competing with robots: Firm-level Evidence from France », in AEA Papers and Proceedings, vol. 110.

ACEMOGLU, Daron, & Pascual RESTREPO (2018a), « The race between man and machine: Implications of technology for growth, factor shares and employment », in American Economic Review, vol. 108, n° 6.

ACEMOGLU, Daron, & Pascual RESTREPO (2018b), « Articial intelligence, automation and work », NBER, working paper, n° 24196.

AUTOR, David H., David DORN & Gordon H. HANSON (2015), « Untangling trade and technology: Evidence from local labor markets », in Economic Journal, vol. 125, n° 584.

AUTOR, David H., Lawrence F. KATZ & Melissa S. Kearney (2006), « The polarization of the U.S. labor market », in American Economic Review, vol. 96, n° 2.

BALL, Laurence M. & Sandeep MAZUMDER (2020), « A Phillips curve for the euro area », BCE, working paper, n° 2354.

BERSON, Clémence, Louis DE CHARSONVILLE, Pavel DIEV, Violaine FAUBERT, Laurent FERRARA, Sophie GUILLOUX-NEFUSSI, Yannick KALANTZIS, Antoine LALLIARD, Julien MATHERON & Matteo MOGLIANI (2018), « La courbe de Phillips existe-t-elle encore ? », in Banque de France, Rue de la Banque, n° 56.

BLANCHARD, Olivier (2016), « The US Phillips curve: Back to the 60s? », PIIE, policy brief, n° 16-1.

BLANCHARD, Olivier, & Jordi GALÍ (2010), « Labor markets and monetary policy: A new Keynesian model with unemployment », in American Economic Journal: Macroeconomics, vol. 2, n° 2.

CICCARELLI, Matteo, & Chiara OSBAT (2017), « Low Inflation in the euro area: causes and consequences », BCE, occasional paper, n° 181.

FMI (2013), « The dog that didn’t bark: Has inflation been muzzled or was it just sleeping », World Economic Outlook, chapitre 3, avril. Traduction française, « Telle l’histoire du chien qui n’a pas aboyé : l’inflation a-t-elle été muselée, ou s’est-elle simplement assoupie? », Perspectives de l’économie mondiale, chapitre 3.

GAGGL, Paul, & Sylvia KAUFMANN (2019), « The cyclical component of labor market polarization and jobless recoveries in the US », in Journal of Monetary Economics, vol. 116.

GIANNONE, Domenico, Michele LENZA, Daphne MOMFERATOU & Luca ONORANTE (2014), « Short-term inflation projections: A Bayesian vector autoregressive approach », in International journal of forecasting, vol. 30, n° 3.

GOOS, Maarten, Alan MANNING & Anna SALOMONS (2009), « Job polarization in Europe », in The American Economic Review, vol. 99, n° 2.

JAIMOVICH, Nir, & Henry E. SIU (2020), « Job polarization and jobless recoveries », in Review of Economics and Statistics, vol. 102, n° 1.

MORETTI, Laura, Luca ONORANTE & Shayan ZAKIPOUR-SABER (2019), « Phillips curves in the euro area », BCE, working paper, n° 2295.

SIENA, Daniele, & Riccardo ZAGO (2021), « Job polarization and the flattening of the price Phillips curve », Banque de France, working paper, n° 819.

VERDUGO, Gregory (2017), Les Nouvelles Inégalités du travail, Presses de Sciences Po.

Partager cet article
Repost0
10 juin 2021 4 10 /06 /juin /2021 18:18
Partage du revenu, concentration et socialisme dans l’Allemagne de la fin du XIXème

Après une baisse séculaire, les inégalités de revenu ont eu tendance à augmenter à partir des années 1980 dans les pays développés, au point de retrouver, dans certains d’entre eux, les niveaux qu’ils atteignaient au début du vingtième siècle [Piketty, 2013]. Parallèlement, la part du revenu national rémunérant le travail a eu tendance à baisser [Karabarbounis et Neiman, 2014]. Pour certains, cette déformation du partage de la valeur ajoutée au profit du capital résulte, du moins pour partie, de la hausse de la concentration sur les marchés des produits [Autor et alii, 2020]. Pour d’autres, elle s’expliquerait plutôt du côté du marché du travail, en l’occurrence par l’effritement du pouvoir de négociation des travailleurs, qui aurait conduit à une redistribution des rentes tirées du marché des produits des travailleurs vers les propriétaires du capital [Stansbury et Summers, 2020]. Qu’importe les raisons derrière la déformation du partage de la valeur ajoutée, celle-ci est susceptible de contribuer à creuser les inégalités de revenu [Milanovic, 2017 ; Bengtsson et Waldenström, 2018]. Et quelles que soient les causes immédiates ou fondamentales de la hausse des inégalités de revenu, beaucoup craignent qu’elle alimente la polarisation politique [McCarty et alii, 2006]. 

Ces dynamiques du partage du revenu et les débats qu’ils suscitent aujourd’hui ne sont pas sans trouver des similarités avec ceux qui ont marqué la fin du dix-neuvième siècle, notamment avec le « débat sur le révisionnisme » qui opposa en Allemagne les marxistes orthodoxes aux révisionnistes comme Eduard Bernstein. Les marxistes orthodoxes, notamment Karl Kautsky, estimaient que le développement capitaliste se traduirait nécessairement par une hausse des inégalités, un accroissement des conflits sociaux et en définitive l’avènement du socialisme. Cette prédiction tenait pour l’essentiel à trois hypothèses différentes : l’accumulation du capital déformerait le partage du revenu en faveur du capital et creuserait les inégalités de revenu ; le capital se concentrerait davantage et cette intensification de la concentration alimenterait les inégalités de revenu ; la hausse des inégalités de revenu alimenterait le soutien de la population en faveur de la gauche radicale. De leur côté, les révisionnistes, notamment Eduard Bernstein, doutaient que le capital tende à se concentrer davantage et, surtout, estimaient que des facteurs compensateurs, d'ordre institutionnel, se mettraient en branle pour contenir la hausse des inégalités de revenu.

Afin de départager les participants de ce débat avec un recul de plus d'un siècle, Charlotte Bartels, Felix Kersting et Nikolaus Wolf (2021) ont étudié la dynamique des inégalités de revenu, de la concentration du capital et des résultats électoraux avant la Première Guerre mondiale. Ils ont étudié de nouvelles données relatives aux comtés et districts du Royaume de Prusse. Ils constatent que la hausse des inégalités de revenu a été fortement corrélée à la hausse de la part du capital, comme le prédisaient les marxistes à l’époque.

Par contre, le capital s’est certes davantage concentré, comme s'y attendaient les marxistes, mais, contrairement à leurs pronostics, cette plus grande concentration ne s’est pas mécaniquement traduite par une hausse des inégalités de revenu. Bartels et ses coauteurs notent que les secteurs et zones géographiques avec une forte concentration du capital présentaient une forte activité syndicale. Autrement dit, la multiplication des grèves a pu contenir, et même inverser, la tendance à la hausse des inégalités qu’impulsait la hausse de la concentration ; en fait, la concentration du capital, en augmentant la taille des établissements, a peut-être même facilité la mobilisation des travailleurs. Ainsi, comme s'y attendaient les révisionnistes comme Bernstein, des facteurs ont joué un rôle compensateur, en l'occurrence l'essor du syndicalisme qu'ils appelaient de leurs vœux. Ces constats font écho aussi bien à ceux obtenus par Henry Farber et alii (2018), qui soulignaient l’importance des syndicats dans la réduction des inégalités de revenu aux Etats-Unis du milieu des années 1930 à la fin des années 1940, qu’aux conclusions d’Anna Stansbury et Larry Summers (2020).

Enfin, Bartels et ses coauteurs constatent que les socialistes ont tiré un bénéfice direct dans les urnes, non directement de la hausse des inégalités de revenu comme s'y attendaient les marxistes orthodoxes, mais de l’essor du syndicalisme. 

 

Références

AUTOR, David, David DORN, Lawrence F. KATZ, Christina PATTERSON & John VAN REENEN (2020), « The fall of the labor share and the rise of superstar firms », Quarterly Journal of Economics, vol. 135, n° 2.

BARTELS, Charlotte (2019), « Top incomes in Germany, 1871-2013 », Journal of Economic History, vol. 79, n °3.

BARTELS, Charlotte, Felix KERSTING & Nikolaus WOLF (2021), « Testing Marx. Income inequality, concentration, and socialism in late 19th century Germany », EHES, working paper, n° 211.

BENGTSSON, Erik, & Daniel WALDENSTRÖM (2018), « Capital shares and income inequality: Evidence from the long run », in Journal of Economic History, vol. 78, n° 3.

FARBER, Henry S., Daniel HERBST, Ilyana KUZIEMKO & Suresh NAIDU (2017), « Unions and inequality over the twentieth century: New evidence from survey data », NBER, working paper, n° 24587.

KARABARBOUNIS, Loukas, & Brent NEIMAN (2014), « The global decline of the labor share », The Quarterly Journal of Economics, vol. 129, n° 1.

MCCARTY, Nolan, Keith POOLE & Howard ROSENTHAL (2006), Polarized America. The Dance of Ideology and Unequal Riches, MIT Press.

MILANOVIC, Branko (2017), « Increasing capital income share and its effect on personal income inequality », in H. Boushey, J. B. DeLong & M. Steinbaum (dir.), After Piketty. The Agenda for Economics and Inequality, Harvard University Press.

PIKETTY, Thomas (2013), Le Capital au XXIe siècle.

STANSBURY, Anne, & Lawrence SUMMERS (2020), « The declining worker power hypothesis », Brookings Papers on Economic Activity, vol. 50, n° 1.

Partager cet article
Repost0
6 juin 2021 7 06 /06 /juin /2021 15:24
L’allègement de la fiscalité des entreprises stimule-t-il la croissance ?

Ces quatre dernières décennies ont été marquées par une tendance à l’allègement de la fiscalité des entreprises à travers le monde. Ces dernières années, la fiscalité des entreprises s’est trouvée au centre des débats de politique économique outre-Atlantique. En effet, l’administration Trump a accordé d’amples baisses d’impôts aux entreprises, afin de les inciter à investir et à relocaliser leur production aux Etats-Unis [Mertens, 2018 ; Kopp et alii, 2019]. Ces tout derniers mois, l’administration Biden a au contraire cherché à alourdir l’imposition des entreprises, notamment pour financer un surcroît d’investissements publics, ce qui l’a notamment amené à relancer le projet d’introduction d’un taux mondial d’imposition pour les sociétés. La question de la fiscalité des entreprises a bien sûr été évoquée dans les autres pays, notamment ces derniers temps, dans le sillage de la pandémie et des plans de soutien ou de relance qui ont été adoptés lors de celle-ci.

Les gouvernements ont généralement accordé ces baisses d’impôts avec pour objectif affiché de stimuler la croissance économique, mais beaucoup ont critiqué ces mesures fiscales : les détracteurs soulignent qu’elles pourraient ne guère avoir d’effet sur l’activité des entreprises, voire qu’elles pourraient se révéler contre-productives, en contribuant à détériorer les finances publiques et en incitant les gouvernements à réduire certaines de leurs dépenses bénéfiques à la croissance, par exemple leurs investissements dans les infrastructures ou les services publics. 

Les modèles de croissance les plus couramment utilisés ont de prime abord tendance à suggérer un impact nul ou négatif de la fiscalité des entreprises sur la croissance économique. Dans les modélisations néoclassiques à la Solow (1956), la fiscalité des firmes n’a guère d’effet sur la croissance à long terme, dans la mesure où elle n’affecte pas le taux de croissance à l’état stationnaire, qui dépend étroitement d’un progrès technique supposé exogène ; par contre, l’imposition des revenus du capital peut nuire à la croissance et au niveau de revenu par tête à l’état stationnaire et ralentir la transition vers un nouvel équilibre. Dans les modèles de croissance endogène, où la croissance économique dépend étroitement des choix réalisés par les agents économiques, la fiscalité des entreprises est susceptible d’avoir un effet bien plus significatif, dans la mesure où elle risque de modifier leurs incitations à investir. En l’occurrence, une hausse des taux d’imposition des entreprises est susceptible de décourager l’investissement, que ce soit dans l’accumulation même du capital ou dans l’innovation, en augmentant le coût du capital et en réduisant les rendements après impôt. Elle peut également dégrader la productivité globale des facteurs en perturbant les prix des facteurs et en entraînant une mauvaise allocation des ressources. 

Une grande partie de la littérature théorique que s’est directement focalisée sur les effets de la fiscalité des entreprises sur la croissance économique s'inspire des travaux, d'inspiration néoclassique, de Kenneth Judd (1985) et de Christophe Chamley (1986) ; ces derniers concluaient au terme de leur modélisation que l’imposition du capital se révèle particulièrement novice à l’accumulation du capital et, par conséquent, à la production. Mais des modèles plus récents ont suggéré qu’un alourdissement de la fiscalité des entreprises pouvait très bien stimuler la croissance. Philippe Aghion et alii (2013) ont montré qu’une hausse de l’imposition du capital stimulait la croissance en réduisant l’imposition du travail. De leur côté, Larry Jones et alii (1993) ont noté qu’une hausse des impôts sur le capital pouvait stimuler la croissance économique si le supplément de recettes publiques finançait un supplément de dépenses publiques productives ; réciproquement, Clemens Fuest et alii (2019) ont montré que les baisses d’impôts étaient susceptibles de freiner la croissance économique en « affamant la bête » (starving the beast), c’est-à-dire en poussant les autorités à moins investir dans le capital public. 

Beaucoup d’études empiriques se sont penchées sur un éventuel lien entre imposition des entreprises et croissance économique, mais, comme le soulignent Sebastian Gechert et Philipp Heimberger (2021) dans leur revue de la littérature, sans aboutir à un consensus. Beaucoup concluent que les baisses d’impôts des entreprises stimulent la croissance économique. C’est par exemple le cas de Young Lee et Roger Gordon (2005) qui décèlent à long terme un lien négatif entre fiscalité des entreprises et croissance en analysant un échantillon de 70 pays développés et en développement sur la période allant de 1970 à 1997. En s’appuyant quant à eux sur un échantillon restreint à une vingtaine de pays de l’OCDE pour la période allant de 1971 à 2004, Jens Matthias Arnold et alii (2011) concluent que l’alourdissement de la fiscalité des entreprises se révèle bien plus nocive à la croissance économique qu’un alourdissement de la même ampleur de la fiscalité des ménages. De leur côté, Karel Mertens et Morten Ravn (2013) observent dans le cas des Etats-Unis que les allègements de la fiscalité des entreprises ont eu tendance à stimuler la croissance économique, notamment à court terme.

Mais d’autres études, tout aussi nombreuses concluent que les baisses d’impôt des entreprises tendent au contraire à nuire à la croissance économique ou, du moins, que le lien est peu significatif ; c’est notamment le cas de Frida Widmalm (2001), de Konstantinos Angelopoulos et alii (2007), de William Gale et alii (2015) ou encore de Fabian ten Kate et Petros Milionis (2019). 

Bien sûr, comme dans le cas de toute littérature empirique, une partie de l’hétérogénéité des résultats s’explique par des différences en termes d’échantillons de données ou de méthodes. Afin d’éclaircir les choses, Gechert et Heimberger ont alors étudié 441 estimations tirées de 42 études primaires. Ils constatent qu’il y a une tendance des publications à sélectionner les résultats suggérant que les baisses d’impôts des entreprises stimulent la croissance économique. Une fois qu’ils corrigent ce biais de sélection et qu’ils prennent en compte l’hétérogénéité des études, Gechert et Heimberger ne parviennent pas à rejeter l’hypothèse que l’allègement de la fiscalité des entreprises ait un effet nul sur la croissance économique.

En creusant davantage, Gechert et Heimberger font d’autres constats intéressants. Tout d’abord, les effets positifs des allègements de la fiscalité des entreprises sont encore moins manifestes lorsque l’on restreint l’horizon temporel au court terme. Ensuite, il ne semble pas y avoir de réelle différence entre les pays de l’OCDE et les autres pays concernant les effets des changements de fiscalité des entreprises sur la croissance. De plus, les études les plus récentes ont moins tendance à observer un effet positif des allègements de fiscalité des entreprises sur la croissance. Enfin, il apparaît crucial d’observer comment se comportent les autres volets du Budget lorsque la fiscalité des entreprises est modifiée. En effet, il apparaît qu’un alourdissement de la fiscalité des entreprises se révèle légèrement plus nocif pour la croissance lorsque les dépenses publiques sont maintenues au même niveau. Ce résultat suggère que la croissance se trouvera davantage stimulée si le supplément de recettes tiré d’une hausse d’impôts des entreprises est utilisé pour financer des dépenses publiques plutôt que pour consolider les finances publiques.

 

Références

AGHION, Philippe, Ufuk AKCIGIT & Jesús FERNÁNDEZ-VILLAVERDE (2013), « Optimal capital versus labor taxation with innovation-led growth », NBER, working paper, n° 19086.

ANGELOPOULOS, Konstantinos, George ECONOMIDES & Pantelis KAMMAS (2007), « Tax-spending policies and economic growth: Theoretical predictions and evidence from the OECD », in European Journal of Political Economy, vol. 23, n° 4.

ARNOLD, Jens Matthias, Bert BRYS, Christopher HEADY, Åsa JOHANSSON, Cyrille SCHWELLNUS & Laura VARTIA (2011), « Tax policy for economic recovery and growth », in The Economic Journal, vol. 121.

CHAMLEY, Christophe (1986), « Optimal taxation of capital income in general equilibrium with infinite lives », in Econometrica, vol. 54, n° 3.

DJANKOV, Simeon, Tim GANSER, Caralee MCLIESH, Rita RAMALHO & Andrei SHLEIFER (2010), « The effect of corporate taxes on investment and entrepreneurship », in American Economic Journal: Macroeconomics, vol. 2, n °3.

FUEST, Clemens, Florian NEUMEIER & Daniel STÖHLKER (2019), « Tax cuts starve the beast! Evidence from Germany », CESifo, working paper, n° 8009.

GALE, William G., Aaron KRUPKIN & Kim RUEBEN (2015), « The relationship between taxes and growth at the state level: New evidence », in National Tax Journal, vol. 68, n° 4.

GECHERT, Sebastian, & Philipp HEIMBERGER (2021), « Do corporate tax cuts boost economic growth? », IMK, working paper, n° 210.

JONES, Larry E., Rodolfo E. MANUELLI & Peter E. ROSSI (1993), « Optimal taxation in models of endogenous growth », in Journal of Political Economy, vol. 101, n° 3.

JUDD, Kenneth L. (1985), « Redistributive taxation in a simple perfect foresight model », in Journal of Public Economics, vol. 28, n °1.

KATE, Fabian ten, & Petros MILIONIS (2019), « Is capital taxation always harmful for economic growth? », in International Tax and Public Finance, vol. 26, n° 4.

KOPP, Emanuel, Daniel LEIGH, Susanna MURSULA & Suchanan TAMBUNLERTCHAI (2019), « U.S. investment since the tax cuts and jobs act of 2017 », FMI, working paper, n° 19/119.

LEE, Young, & Roger H. GORDON (2005), « Tax structure and economic growth », in Journal of Public Economics, vol. 89, n° 5-6.

MERTENS, Karel (2018), « The near term growth impact of the Tax Cuts and Jobs Act », Federal Reserve Bank of Dallas, working paper, n° 1803.

MERTENS, Karel, & Morten O. RAVN (2013), « The dynamic effects of personal and corporate income tax changes in the United States », in American Economic Review, vol. 103, n° 4.

SOLOW, Robert M. (1956), « A contribution to the theory of economic growth », in Quarterly Journal of Economics, vol. 70, n° 1.

WIDMALM, Frida (2001), « Tax structure and growth: Are some taxes better than others? », in Public Choice, vol. 107, n° 3/4.

Partager cet article
Repost0
30 mai 2021 7 30 /05 /mai /2021 16:06
Les anticipations d’inflation des entreprises sont-elles bien ancrées ?

Depuis l’allocution de Milton Friedman (1968), qui les supposait adaptatives, et surtout depuis les travaux des nouveaux classiques, par exemple ceux de Thomas Sargent et Neil Wallace (1975), qui les supposaient rationnelles, la littérature académique met tout particulièrement en avant le rôle des anticipations d’inflation dans la dynamique de l’inflation, mais aussi bien d'autres phénomènes macroéconomiques comme le cycle d’affaires et le chômage [Kose et alii, 2019]. L'idée de base est reconnue depuis longtemps : les entreprises sont d’autant plus incitées à relever leurs prix (et à réduire leur production et l’emploi) qu’elles s’attendent à ce que leurs coûts de production augmentent. 

Pour stabiliser les prix, cette littérature souligne la nécessité pour les banques centrales d’ancrer les anticipations d’inflation. Certains, en premier lieu les banquiers centraux eux-mêmes, considèrent que la plus grande crédibilité qu’ils ont acquise depuis les années quatre-vingt a joué un rôle déterminant dans la désinflation observée ces quatre dernières décennies : en signalant leur engagement à assurer la stabilité des prix, les banques centrales auraient contribué à ancrer les anticipations d’inflation à un faible niveau, ce qui aurait permis de ramener et de maintenir l’inflation à un niveau faible et stable ; et le maintien de l’inflation à un niveau faible et stable aurait contribué en retour à mieux ancrer les anticipations d'inflation à un faible niveau. Ces derniers mois, c’est précisément le risque d’un désancrage des anticipations d’inflation que certains mettent en avant pour évoquer le scénario d’un dérapage imminent de l’inflation, en particulier aux Etats-Unis avec l'adoption d'amples plans de relance par l'administration Biden [Blanchard, 2021 ; Gopinath, 2021 ; Summers, 2021].

Les autorités auraient également intérêt à jouer sur les anticipations d’inflation pour stabiliser l’activité économique. Certains estiment que la reprise suite à la Grande Dépression ne s’est vraiment amorcée que lorsque les anticipations d’inflation ont été révisées à la hausse [Eggertsson, 2008 ; Jalil et Rua, 2015]. En effet, pour des taux d’intérêt nominaux donnés, un relèvement des anticipations d’inflation se traduit par une baisse des taux d’intérêt réels, ce qui devrait notamment stimuler l’emprunt et l’investissement. En amenant les entreprises et les ménages à relever leurs anticipations d'inflation, les banques centrales pourraient rendre leur politique monétaire davantage accommodante, et ce même si leurs taux directeurs butent sur leur borne inférieure. En l'occurrence, lorsque l'économie est piégée dans une trappe à liquidité, Paul Krugman (1998) et Gauti Eggertsson et Michael Woodford (2003) ont suggéré à ce que la banque centrale annonce qu’elle maintiendra sa politique monétaire accommodante plus longtemps que nécessaire, c'est-à-dire qu'elle ne la resserrera pas immédiatement une fois la reprise amorcée : si les entreprises anticipent un boom dans le futur, cela devrait les inciter à investir dès la période courante, donc accélérer la reprise de l’activité. Si les banques centrales n’ont pas adopté une telle stratégie, elles ont toutefois cherché depuis la crise financière mondiale à mieux communiquer leurs prévisions quant à leurs mesures futures, notamment la trajectoire probable de leurs taux directeurs : c'est l'idée de forward guidance.

Malgré la grande importance donnée par les économistes et les banquiers centraux aux anticipations d’inflation, notamment pour la conduite de la politique monétaire, peu d’enquêtes se sont vraiment penchées sur celles-ci, mais des progrès ont été réalisés ces dernières années dans ce domaine. 

Bernardo Candia, Olivier Coibion et Yuriy Gorodnichenko (2021) viennent justement de s’appuyer sur une nouvelle enquête menée auprès des entreprises américaines depuis 2018. Ils constatent tout d’abord que les entreprises tendent en moyenne à anticiper une inflation supérieure à celle qui est observée en moyenne et qu’elles sont loin d’être unanimes dans leurs anticipations. En l’occurrence, les entreprises sont en désaccord non seulement pour l’évolution des prix à très court terme, par exemple pour l’année ultérieure, mais aussi pour l’évolution des prix sur des horizons temporels supérieurs à cinq ans. Ces désaccords et le fait que la plupart des entreprises prédisent des niveaux d’inflation à long terme bien différents des 2 % ciblés par la Réserve fédérale amènent Candia et ses coauteurs à conclure que les anticipations d’inflation des entreprises sont tout sauf ancrées. 

Cela semble tout d’abord s’expliquer par l'inattention des chefs d’entreprise vis-à-vis de la politique monétaire : la plupart d’entre eux ne connaissent pas la cible d’inflation de la Fed. En effet, Candia et ses coauteurs notent que moins de 20 % des chefs d’entreprise identifient les 2 % d’inflation comme étant la cible poursuivie par la banque centrale américaine. Près des deux tiers des chefs d’entreprise ne tentent même pas de deviner quelle pourrait être cette cible ; et parmi ceux qui tentent, moins de la moitié d’entre eux pensent qu’elle se situe entre 1,5 et 2,5 %. Le manque d’ancrage des anticipations d’inflation des entreprises s’explique également par l’inattention des entreprises vis-à-vis de l’évolution récente de l’inflation : les chefs d’entreprise n’ont qu’une vague idée de ce qu'a été l'inflation au cours des douze mois précédents, alors que les chiffres de l’inflation sont facilement et gratuitement disponibles. 

Ces constats rejoignent ceux d’autres études, portant sur les ménages et observant que ces derniers sont peu informés quant à la politique monétaire et qu’ils comprennent mal celle-ci [Binder, 2017]. Toutes ces études ne concluent toutefois pas que les anticipations d’inflation ne jouent aucun rôle, ni que la politique monétaire s’avère inefficace ; en fait, il est possible que ce soit parce que l’inflation est faible et stable que les entreprises et ménages ne prêtent pas attention à l’inflation. Par contre, elles amènent à douter que la politique monétaire influence les ménages et les entreprises via le canal des anticipations. Autrement dit, les banques centrales ne devraient guère compter sur l'idée de jouer sur les anticipations d’inflation des ménages et des entreprises pour influencer l’activité économique et l’inflation [Coibon et alii, 2020].

 

Références

BINDER, Carola (2017), « Fed speak on Main Street: Central bank communication and household expectations », in Journal of Macroeconomics, vol. 52.

BLANCHARD, Olivier (2021), « In defense of concerns over the $1.9 trillion relief plan », in PIIE, Realtime Economic Issues Watch (blog), 18 février.

CANDIA, Bernardo, Olivier COIBION & Yuriy GORODNICHENKO (2021), « The inflation expectations of U.S. firms: Evidence from a new survey », IZA, discussion paper, n° 14378.

COIBION, Olivier, Yuriy GORODNICHENKO, Saten KUMAR & Mathieu PEDEMONTE (2020), « Inflation expectations as a policy tool? », in Journal of International Economics.

EGGERTSSON, Gauti B. (2008), « Great expectations and the end of the Depression », in American Economic Review, vol. 98, n° 4.

EGGERTSSON, Gauti B., & Michael WOODFORD (2003), « The zero bond on interest rates and optimal monetary policy », in Brookings Papers on Economic Activity, n° 1.

GOPINATH, Gita (2021), « Structural factors and central bank credibility limit inflation risks », 19 février.

JALIL, Andrew, & Gisela RUA (2015), « Inflation expectations and recovery from the Depression in 1933: Evidence from the narrative record », Réserve fédérale, working paper.

KOSE, M. Ayhan, Hideaki MATSUOKA, Ugo PANIZZA & Dana VORISEK (2019), « Inflation expectations: Review and evidence », CEPR, discussion paper, n° 13601.

KRUGMAN, Paul (1998), « It’s baaack: Japan’s slump and the return of the liquidity trap », in Brookings Papers on Economic Activity, n° 2.

SARGENT, Thomas, & Neil WALLACE (1975), « ‘Rational’ expectations, the optimal monetary instrument, and the optimal money supply rule », in Journal of Political Economy, vol. 83, n° 2.

SUMMERS, Lawrence (2021), « The inflation risk is real », 24 mai.

Partager cet article
Repost0
9 mai 2021 7 09 /05 /mai /2021 15:07
Lawrence Christiano en 2014 (crédit : Nils S. Aasheim/Norges Bank)

Lawrence Christiano en 2014 (crédit : Nils S. Aasheim/Norges Bank)

Durant les années soixante-dix, les monétaristes lancèrent les premières attaques contre les keynésiens orthodoxes, mais ce sont les nouveaux classiques (avec pour chef de file Robert Lucas) et les théoriciens des cycles d’affaires réels (notamment Finn Kydland et Edward Prescott), qui lui assénèrent les coups fatals en parvenant à imposer une nouvelle approche, d’inspiration walrasienne, qui met l’accent sur les fondements microéconomiques des modèles. Par la suite, une nouvelle génération d’économistes, qualifiés de « nouveaux keynésiens », continua de poursuivre d’une certaine façon le programme des vieux keynésiens orthodoxes, mais en veillant à microfonder leurs modèles et en utilisant une partie de la méthodologie de la nouvelle école classique et de la théorie des real business cycles, notamment le recours aux anticipations rationnelles. La théorie des cycles d’affaires réels a suscité de fortes critiques de la part de certains nouveaux keynésiens, par exemple de Larry Summers (1986), mais cela n’a pas empêché ultérieurement une certaine convergence entre ces deux courants, notamment à travers le développement des modèles dynamiques stochastiques d’équilibre général (DSGE).  

Comme le rappelle Kevin Hoover (2021), un modèle DSGE se compose d’un ensemble d’équations reliant une poignée de variables macroéconomiques, comme le PIB, l’emploi, la consommation, l’investissement et le taux d’intérêt. Il cherche à mimer le comportement de l’économie en utilisant un « agent représentatif », modélisé comme un microéconomiste modéliserait le comportement d’un individu : celui-ci a des préférences, incarnées par sa fonction d’utilité, et il maximise son utilité en fonction de son budget, en l’occurrence le PIB. Il prend ses décisions pour la période courante et les suivantes en s’appuyant sur l’information courante et en formant des anticipations rationnelles. Il peut commettre des erreurs, mais celles-ci sont aléatoires et il élabore ses anticipations en cohérence avec sa compréhension, parfaite, du fonctionnement de l’économie. Ou, pour reprendre Hoover, « l’agent représentatif n’est pas seulement à la fois un consommateur, un travailleur et un investisseur, il est également économiste ».

Les modèles DSGE sont directement inspirés des modèles d’équilibre général walrasiens et plus exactement des modèles de la théorie des cycles réels, dont ils gardent des éléments comme l’approche dynamique et stochastique, l’optimisation intertemporelle, les anticipations rationnelles et l’ajustement des marchés, mais ils incorporent aussi des éléments « keynésiens » comme la concurrence imparfaite et des rigidités nominales rendant les prix visqueux (1). Ainsi, à partir des années quatre-vingt-dix, le développement d’une telle classe de modèles laissait suggérer une véritable convergence des nouveaux classiques et des nouveaux keynésiens, non pas forcément en termes de conclusions et de recommandations en matière de politique économique, mais dans l’usage d’une même méthodologie : libre à un économiste d’ajouter telle ou telle perturbation à un modèle DSGE pour en voir les implications macroéconomiques. Certains évoquèrent une « nouvelle synthèse néoclassique » [Goodfriend et King, 1997] en référence à la « synthèse néoclassique » des décennies de l’immédiat après-guerre ; keynésiens orthodoxes et monétaristes pouvaient alors utiliser le même cadre théorique, voire le même modèle, comme le modèle IS-LM. C’est dans un tel contexte qu’Olivier Blanchard (2008) jugeait que « l’état de la macroéconomie est bon ».

La crise financière mondiale semblait pour beaucoup avoir ébranlé l’idée d’une nouvelle synthèse. Les modèles DSGE ont en l’occurrence fait l’objet de critiques virulentes, notamment de la part d’économistes comme Anton Korinek (2015) et Joseph Stiglitz (2017). En raison de l’irréalisme de leurs hypothèses et de leur usage répandu au sein du monde universitaire et des banques centrales, les modèles DSGE ont été accusés d’avoir amenés les économistes et les institutions en charge de la politique économique à ignorer l’accumulation des déséquilibres macrofinanciers qui finirent par entraîner la crise et de ne leur avoir été qu’un piètre guide lors de celle-ci. En effet, dans leur version de base, les modèles DSGE sont dénués de secteur financier, si bien qu’ils ne sont pas appropriés pour étudier le risque d’instabilité financière, observer les effets d’une crise financière sur l’économie réelle ou déterminer comment devraient réagir les autorités pour contenir une crise financière et ses répercussions réelles. L’hypothèse d’un agent représentatif aux anticipations rationnelles et à la durée de vie infinie permet difficilement de faire émerger des phénomènes de bulles spéculatives ou de prendre en compte le fait qu’une partie de la population puisse être contrainte en termes de liquidité. L’absence de toute borne inférieure sur laquelle pourrait buter les taux d’intérêt nominaux amène à surestimer la capacité de la politique monétaire à stabilité l’activité économique et l’inflation, etc.

Malgré ces critiques, les modèles DSGE n’ont pas été abandonnés. Il faut dire que certaines critiques ont été exagérées ou qu’elles n’ont plus vraiment lieu d’être. Par exemple, Hoover juge que les détracteurs des modèles DSGE exagèrent leur importance dans la mise en œuvre des politiques économiques. En effet, les institutions en charge de la politique économique, notamment les banques centrales, n’utilisent pas seulement des modèles de type DSGE. Surtout, les décideurs ne s’appuient pas seulement sur les modèles pour prendre leurs décisions ; ils utilisent d’autres sources d’analyses et d’informations. Et leurs décisions ne sont pas le fruit d’une pure analyse économique ; elles sont en partie politiques. 

D’autre part, les partisans du modèle DSGE reconnaissent qu’il n’est pas adéquat pour étudier les crises financières s’il n’intègre pas un secteur financier. Surtout, ils ne sont guère restés passifs face à l’inadaptation de leurs modèles lors de la crise et à la montée des critiques : ils les ont améliorés. Par exemple, comme l’ont montré Christiano et alii (2018) et Jordi Galí (2018) à travers leur passage en revue de la littérature, ils ont plus fréquemment intégré un système financier et introduit des frictions financières dans leur modélisation ; afin de rendre compte de l’hétérogénéité des agents, certains ont inclus dans leur modèle DSGE deux ou trois agents représentatifs ; les modèles DSGE ont plus souvent pris en compte l’existence de la borne inférieure pour étudier les effets de la politique monétaire ; leurs concepteurs se sont inspirés des observations de l’économie comportementale et de la neuroéconomie pour modifier la fonction d’utilité de l’agent représentatif, etc. Hoover souligne que les concepteurs de modèles DSGE proposaient déjà de telles modifications avant même qu’éclate la crise financière mondiale et tendaient déjà à les utiliser plus fréquemment ; la crise a accéléré cette tendance. En fait, la crise n’a guère modifié l’attitude des concepteurs de modèles DSGE : lorsque leur modèle peine à expliquer à un fait observé, ils le modifient, en l’occurrence en adoptant de nouvelles hypothèses ou en modifiant certaines déjà retenues. Hoover ne juge pas en soi problématique une telle stratégie ; ce qu’il juge préoccupant est le rapport que les concepteurs de modèles DSGE entretiennent avec les données empiriques ou avec les économistes développant une approche alternative.

Pour Hoover, les critiques dont les modèles DSGE ont fait l’objet dans le sillage de la crise financière mondiale et les répliques qu’elles suscitèrent de la part de leurs concepteurs ravivent une vieille controverse en science économique, celle opposant les économistes qui donnent la priorité à la théorisation a priori et ceux qui donnent la priorité aux données empiriques. Cette controverse a par exemple atteint un point d’orgue à la fin du dix-neuvième siècle avec la « querelle des méthodes » qui opposa l’école autrichienne naissante avec l’école historique allemande ou encore avec le débat entre la Commission Cowles et le National Bureau of Economic Research (NBER) qui marqua la fin des années quarante ; c’est à ce dernier que Hoover pense particulièrement. Contrairement à l’image que l’on peut en avoir, le paradigme néoclassique n’était pas dominant aux Etats-Unis avant la Seconde Guerre mondiale ; il y était notamment concurrencé par le courant institutionnaliste. Certains institutionnalistes, notamment Wesley Clair Mitchell, créèrent en 1920 le NBER avec pour objectif de rendre compte le plus fidèlement possible des faits empiriques concernant l’économie américaine, notamment en mesurant le revenu national et en observant sa répartition. La Commission Cowles fut quant à elle créée au début des années trente, mais elle prit véritablement son essor dans le sillage de la Seconde Guerre mondiale, lorsqu’elle développa une nouvelle méthodologie s’appuyant étroitement sur la modélisation mathématique. Arthur Burns et Wesley Clair Mitchell (1946) publièrent un ouvrage qui fit ultérieurement date dans l’observation et la datation du cycle d’affaires. Tjalling Koopmans (1947), qui allait être d’ici peu le directeur du NBER, saisit l’occasion que lui offrit la publication de l’ouvrage de Burns et Mitchell pour s’attaquer, dans le compte-rendu critique qu’il en fit, à la « mesure sans théorie » que proposait selon lui le NBER et tenter de démontrer la supériorité de l’approche de la Commission Cowles. C’est Rutledge Vining (1949a, 1949b), l’un des membres du NBER, qui prit le plus ardemment défense de ce dernier. Aux yeux des économistes mainstream, c’est Koopmans qui sortit vainqueur de ces échanges. La Commission Cowles parvint dans tous les cas à supplanter l’approche du NBER et elle contribua non seulement à la mathématisation de la science économique, mais également à l’essor du paradigme néoclassique [Mirowski, 2002 ; Assous, 2017] (2)

Pour Hoover, la position que les théoriciens des cycles réels et les concepteurs de modèles DSGE ont adoptée est précisément celle que défendait Koopmans au sortir de la guerre : il leur apparaît nécessaire de partir d’un modèle et de privilégier sa validité interne à sa validité externe. A leurs yeux, le fait que les hypothèses d’un modèle soient peu réalistes n’est guère un problème tant que les résultats de ce modèle peuvent être confrontés aux données empiriques. Par exemple, les modèles DSGE supposent une fixation des prix à la Calvo (1983), c’est-à-dire imaginent qu’une fraction seulement des entreprises se voient donner par un système de loterie la possibilité de modifier leurs prix au cours d’une période ; un tel mécanisme ne correspond pas à ce qui est observé empiriquement, mais les concepteurs de modèles DSGE l’ont adopté simplement dans la mesure où elle leur permet de reproduire la viscosité des prix qui, elle, est empiriquement observée. Plus important, ils donnent tellement d’importance à la validité interne de leurs modèles qu’ils sont peut-être prêts à sacrifier leur validité externe : ils soulignent certes la nécessité de pouvoir tester empiriquement un modèle, mais ils ne remettent pas forcément en cause ce dernier lorsque ses résultats empiriques divergent des observations empiriques. Ce fut précisément le cas d’Edward Prescott (1986) lorsqu’il donna la proéminence de « la théorie sur la mesure » : selon lui, si les résultats de ses modèles ne collaient guère avec les observations empiriques, la faille se situerait certainement du côté de la mesure des phénomènes empiriques.

Les défenseurs des modèles DSGE soulignent l’importance de la validité interne, mais Hoover estime qu’il est finalement difficile de prétendre que leurs modèles soient microfondés. Par exemple, les théoriciens en microéconomie ont démontré que les conditions sous lesquelles les choix agrégés pouvaient être dérivés des choix individuels s’avéraient si contraignantes qu’elles ne pouvaient guère être observées dans la réalité. Sur ce plan, Hoover déplore une certaine hypocrisie parmi les principaux promoteurs des modèles DSGE : ils passent sous silence plusieurs impasses méthodologiques auxquelles ils ont été confrontés en les concevant et qu’ils n’ont pas résolus [Sergi, 2015]

Enfin, tout comme Koopmans au sortir de la guerre, les plus grands défenseurs des modèles DSGE dénient toute légitimité aux économistes qui ne partagent pas leur approche théorique aprioriste ; dans la version préliminaire de leur défense des modèles DSGE, Christiano et alii (2018) allaient même jusqu’à déclarer que « ceux qui n'aiment pas les modèles DSGE sont des dilettantes ». Ils rejoignent les théoriciens des cycles réels en jugeant que les économistes doivent partir d’un modèle respectant un ensemble de contraintes, en l’occurrence des agents représentatifs, des anticipations rationnelles et une optimisation dynamique dans un cadre d’équilibre général ; c’est ce qui constitue le cœur des modèles DSGE et leurs concepteurs ne le révisent guère lorsqu’ils les modifient pour les améliorer. Jamais ils ne remettent en cause cet ensemble de contraintes. Mais en l’imposant comme condition nécessaire à la modélisation, Christiano et ses coauteurs écartent d’autres approches possibles, par exemple celle des modèles vectoriels autorégressifs (VAR) ou celle des expériences naturelles, qui cherchent davantage à partir des données empiriques. Surtout, ils disqualifient ainsi toute éventuelle critique émanant d’économistes n’utilisant pas leur approche en la présentant de facto comme illégitime. C’est cette attitude qui apparaît aux yeux de Hoover comme particulièrement dangereuse pour la science économique ; cette dernière ne perd guère en scientificité si elle reste ouverte à la critique. Au contraire.

Comme le concluait déjà Vining au terme de ses échanges avec Koopmans, il n’y a peut-être guère de méthodologie qui soit parfaite, si bien que les économistes doivent avoir la possibilité de recourir à différentes méthodologies, différentes classes de modèles et donc non nécessairement les seuls modèles DSGE [Rodrik, 2015 ; Blanchard, 2017]. Et les critiques, qu’elles émanent ou non d’approches alternatives, contribuent à faire avancer une science. Mais de tels progrès ne sont possibles que si les scientifiques acceptent de considérer l’idée qu’ils puissent se tromper.

 

(1) Il est douteux que la concurrence imparfaite et la viscosité des prix suffisent pour permettre à un modèle de reproduire certaines intuitions de la Théorie générale, mais elles permettent de retrouver aux nouveaux keynésiens  de retrouver un résultat qui leur est cher : montrer que la politique monétaire affecte l’activité économique, du moins à court terme. Mais sur ce point, les nouveaux keynésiens s’avèrent peut-être plus proches des monétaristes que des keynésiens. 

(2) Tous les membres de la Commission Cowles n’étaient toutefois pas des néoclassiques. Plusieurs de ses membres, en particulier Lawrence Klein, lauréat du Nobel en 1980, ont particulièrement contribué à l’élaboration de modèles keynésiens et à la diffusion du keynésianisme orthodoxe. Il y a quelque chose de très ironique ici. Aux Etats-Unis, les keynésiens (orthodoxes) ont peut-être dû se résoudre à recourir la mathématisation pour ne pas être suspectés d’idéologie et parvenir à s’imposer après-guerre, mais les travaux auxquels ils participèrent dans cet effort finirent par aboutir à une nouvelle approche, celle de Lucas et des théoriciens du cycle réel, qui les détrônèrent [Assous, 2017]. 

 

Références

ASSOUS, Michaël (2017), La Pensée économique depuis 1945, Armand Colin.

BLANCHARD, Olivier J. (2008), « The state of macro », NBER, working paper, n° 14259.

BLANCHARD, Olivier J. (2017), « On the need for (at least) five classes of macro models », in PIIE, Realtime Economic Issues Watch (blog), 10 avril.

BURNS, Arthur F., & Wesley C. MITCHELL (1946), Measuring Business Cycles, NBER.

CALVO, Guillermo (1983), « Staggered prices in a utility maximizing framework », in Journal of Monetary Economics, vol. 12.

CHRISTIANO, Lawrence J., Martin S. EICHENBAUM & Mathias TRABANDT (2018), « On DSGE models », in Journal of Economic Perspectives, vol. 32, n° 3.

GALÍ, Jordi (2018), « The state of new Keynesian economics: A partial assessment », NBER, working paper, n° 24845.

GOODFRIEND, Marvin, & Robert G. KING (1997), « The new neoclassical synthesis and the role of monetary policy », in NBER Macroeconomics Annual 1997, vol. 12.

HOOVER, Kevin D. (2021), « The struggle for the soul of economics », Center for the History of Political Economy, working paper, n° 2021-04.

KOOPMANS, Tjalling C. (1947), « Measurement without theory », in Review of Economic Statistics, vol. 29, n° 3.

KOOPMANS, Tjalling C. (1949), « Koopmans on the choice of variables to be studied and the methods of measurement: A reply », in Review of Economics and Statistics, vol. 31, n° 2.

KORINEK, Anton (2015), « Thoughts on DSGE macroeconomics: Matching the moment, but missing the point? ».

MIROWSKI, Philip (2002), Machine Dreams. Economics Becomes A Cyborg Science, Cambridge University Press.

PRESCOTT, Edward C. (1986), « Theory ahead of business cycle measurement », in Federal Reserve Bank of Minneapolis Quarterly Review, vol. 10, n° 4.

RODRIK, Dani (2015), Economics Rules: The Rights and Wrongs of the Dismal Science, W. W. Norton & Company. Traduction française, Peut-on faire confiance aux économistes ? Réussites et échecs de la science économique, De Boeck .

SERGI, Francesco (2015), « L’histoire (faussement) naïve des modèles DSGE ».

STIGLITZ, Joseph E. (2017), « Where modern macroeconomics went wrong », NBER, working paper, n° 23795.

SUMMERS, Lawrence H. (1986), « Some skeptical observations on real business cycle theory », in Federal Reserve Bank of Minneapolis Quarterly Review, vol. 10, n° 4.

VINING, Rutledge (1949a), « Koopmans on the choice of variables to be studied and the methods of measurement », in Review of Economics and Statistics, vol. 31, n° 2.

VINING, Rutledge (1949b), « Koopmans on the choice of variables to be studied and the methods of measurement: A rejoinder », in Review of Economics and Statistics, vol. 31, n° 2.

Partager cet article
Repost0
25 avril 2021 7 25 /04 /avril /2021 14:39
Robert Barro

Robert Barro

Tout juste soixante-quinze ans se sont écoulés depuis la mort de John Maynard Keynes et ses travaux, notamment sa Théorie générale (1936), continuent de susciter différentes lectures ; la complexité (ou l'inachèvement) de sa réflexion et l’absence de modélisation mathématique ont contribué à empêcher l'émergence d'un quelconque consensus dans l’interprétation de son magnum opus.

Pour Michel De Vroey (2009), Keynes cherchait dans la Théorie générale à démontrer (i) que l’économie peut connaître du chômage involontaire, (ii) non pas en raison d’une rigidité des salaires, (iii) mais à cause d’une insuffisance de la demande sur le marché des biens et services, (iv) et qu’il ne peut être éradiqué que par une politique de relance adoptée par le gouvernement ou la banque centrale. Autrement dit, il a notamment cherché à montrer que le chômage ne pouvait être compris que comme un problème d’interdépendance des marchés et qu’il s’agit d’un phénomène d’équilibre. Keynes n’est pas parvenu au bout de sa démonstration. Par exemple, il suppose que les salaires étaient rigides ; il précise que cette hypothèse lui permet de simplifier l’exposé et qu’elle n’affecte en rien ses résultats, mais il ne le démontre guère, ne consacrant véritablement qu’un chapitre de sa Théorie générale (le dix-neuvième) à la flexibilité des prix et salaires.

Ce choix a suscité de vifs débats quant à savoir si l’existence du chômage involontaire tient ou non à la rigidité des salaires. Les keynésiens orthodoxes, notamment les divers architectes du modèle IS/LM, comme John Hicks et Franco Modigliani sont très souvent partis de l’hypothèse d’une rigidité des salaires et/ou fait de celle-ci une condition nécessaire pour faire apparaître du chômage involontaire. C’est un véritable recul par rapport au programme de Keynes, dans la mesure où les keynésiens ramenaient ainsi le chômage involontaire à un problème sur le marché du travail. Certains, comme Samuelson, ont évoqué une « synthèse néoclassique », mais celle-ci n’a guère eu de réalité tangible : les keynésiens de la synthèse estimaient finalement que le court terme était keynésien, mais qu’à long terme la théorie néoclassique retrouvait sa validité. La différence tenait au fait que les prix et salaires se sont pleinement ajustés à long terme, mais non à court terme.

Nul n’est peut-être parvenu à réaliser une véritable synthèse entre les cadres néoclassique et keynésien, mais Don Patinkin (1956, 1965) fut près d’y parvenir. Patinkin a cherché à faire apparaître une situation keynésienne de chômage involontaire dans un cadre walrasien d’équilibre général ; à ses yeux, il n’y avait guère incompatibilité dans la mesure où, la Théorie générale évoquant un chômage provoqué par une insuffisance de demande sur le marché des biens et services, c’est un cadre d’équilibre général qu’il faut adopter pour observer l’interdépendance des marchés et ainsi faire apparaître un chômage involontaire. En l’occurrence, Patinkin a considéré une économie initialement au plein emploi et supposé que celle-ci connaissait une baisse de la demande de biens et services. Dans un cadre néoclassique, ce choc entraîne immédiatement un ajustement des prix : les prix baissent, ce qui accroît la valeur réelle du stock de monnaie détenu par les agents, donc amène ces derniers à consommer davantage et permet de maintenir l’économie au plein emploi. Dans un cadre keynésien, Patinkin considère que le même mécanisme (qualifié d’« effet d’encaisses réelles » ou « effet Pigou ») est à l’œuvre, mais plus lentement, si bien que les entreprises réagissent à l’accumulation des stocks en licenciant et que l’économie s’éloigne du plein emploi. Le chômage involontaire apparaît donc bien comme un problème d’interdépendance des marchés : les ménages sont contraints dans leur offre de travail car les entreprises sont elles-mêmes contraintes, en l’occurrence par un manque de débouchés sur le marché des biens et services. Cela dit, Patinkin considère le chômage comme un phénomène de déséquilibre, subsistant tant que l’économie n’a pas rejoint son nouvel équilibre. Mais surtout, contrairement à ce qu’il a pu prétendre, Patinkin n’a pas réussi à faire apparaître un chômage involontaire indépendamment de l’hypothèse d’une viscosité des salaires. En définitive, il a certes offert ce qui constitue pour certains « l’épitomé de la synthèse néoclassique » [De Vroey, 2009], mais sa vision ne s’est guère imposée chez les keynésiens de la synthèse.

Insatisfait par l’état du keynésianisme orthodoxe et par la domination du modèle IS/LM, c’est Robert Clower (1956, 1965) qui a ouvert la voie à une reprise du programme de Patinkin. Alors que les économistes faisaient habituellement l’hypothèse que les ménages décident simultanément de leurs comportements sur le marché du travail et le marché des biens et services, Clower introduit l’hypothèse de « décision duale » : les ménages décident du montant de leur consommation en fonction du revenu qu’ils gagnent de leur participation sur le marché du travail. Clower s’inspire ici directement de la fonction de consommation que développe Keynes dans la Théorie générale ; c’est cette idée d’une consommation contrainte par le revenu qui constitue selon lui la clé de voûte de la réflexion keynésienne et il reproche précisément aux keynésiens de la synthèse de l’avoir écartée. Cette hypothèse permet à Clower de montrer qu’un éventuel rationnement sur le marché du travail affecte la situation sur le marché des biens et services. En outre, il introduit d’un échec de coordination : il n’y a guère de commissaire-priseur pour coordonner les décisions des échangistes et les amener à reformuler leurs offres et demandes si les marchés ne sont pas équilibrés. Par conséquent, si un rationnement apparaît sur le marché du travail, un rationnement apparaîtra également sur le marché des biens et services et aucun des deux marchés ne s’apurera.

Les travaux de Patinkin et de Clower, approfondis par les réflexions d’Axel Leijonhufvud (1968), ont ouvert la voie à un nouveau courant de pensée macroéconomique que l’on a initialement qualifié de « théorie du déséquilibre », avant que l’on évoque des « modèles d’équilibre non walrasien » [De Vroey, 2009]. Les approches de Patinkin et de Clower étaient en effet complémentaires. Tous deux évoquaient un effet de report : le rationnement sur un marché entraîne un rationnement sur un autre marché. Mais alors que Patinkin se focalisait sur les entreprises et observait comment celles-ci changeaient de comportement en matière de demande de travail du fait d’un rationnement sur le marché des biens et services, Clower se focalisait sur les ménages et observait comment ces derniers changeaient de comportement sur le marché des biens et services du fait d’un rationnement sur le marché du travail. Ce sont Robert Barro et Herschel Grossman (1971, 1976) qui ont généralisé les apports de Patinkin et de Clower dans un même modèle, à prix fixes. De nombreux modèles ont été développés dans la cadre de la théorie du déséquilibre ; nous pouvons notamment compter ceux d’Antoine d’Autume, de Jean-Pascal Benassy, de Jacques Drèze et d’Edmond Malinvaud, mais aussi de John Hicks, qui confirmait ainsi son éloignement par rapport à ses propres positions quelques décennies plus tôt. Les prix étant considérés visqueux, les ajustements passent désormais avant tout par les quantités. Mais alors que Barro et Grossman se contentaient avant tout de faire l’hypothèse d’une fixité des prix, les contributeurs ultérieurs à la théorie du déséquilibre cherchèrent par la suite à l’expliquer et à l’endogénéiser.

La théorie du déséquilibre n’a pas réussi à retrouver les conclusions keynésiennes en se débarrassant de l’hypothèse d’une viscosité des salaires, chose que recherchaient initialement Patinkin, Clower et Leijonhufvud ; elle ne s’est pas non plus écartée du cadre walrasien, contrairement à ce que désiraient Clower et Leijonhufvud. Mais elle a bien proposé un « paradigme » concurrent à celui des keynésiens orthodoxes pour expliquer le chômage involontaire, avec un sérieux avantage sur celui-ci, celui d’avoir des microfondations.

Pourtant, lorsque le keynésianisme de la synthèse fut remis en cause dans les années soixante-dix, lors de la stagflation, au motif qu’il n’était pas microfondé, il ne fut pas supplanté par la théorie du déséquilibre, mais par l’approche de Robert Lucas. Celle-ci, développée tout d’abord par les nouveaux classiques, c’est-à-dire Lucas (1972, 1975, 1977) lui-même ou encore Thomas Sargent et Neil Wallace (1975), puis par les théoriciens des cycles réels (real busines cycles), notamment Finn Kydland et Edward Prescott (1982), se singularisait avec l’adoption de deux hypothèses, à savoir celle d’un ajustement permanent des marchés et celle d’anticipations rationnelles. A la fin des années soixante-dix, Barro et Grossman, qui avaient particulièrement contribué à faire progresser la théorie du déséquilibre, s’étaient déjà détournés de celle-ci pour embrasser l’approche de Lucas ; la théorie du déséquilibre continua d’être développée en Europe dans les années quatre-vingt, avant d’y tomber également en désuétude. De leur côté, les keynésiens de la synthèse tentèrent eux-mêmes dans les années soixante-dix de proposer des approches microfondées alternatives à celle de Lucas, mais ils ne parvinrent à l’imposer [Goutsmedt et alii, 2017]. Le keynésianisme orthodoxe se maintint à partir des années quatre-vingt essentiellement à travers les travaux des « nouveaux keynésiens », qui développèrent des modèles microfondés, mais en acceptant l’approche de Lucas, notamment l’usage des anticipations rationnelles.

Selon le récit qui en est habituellement fait, par exemple par les nouveaux keynésiens Greg Mankiw (1990), Michael Woodford (1999) et Olivier Blanchard (2000), l’approche des nouveaux classiques se serait imposée, notamment face à la théorie du déséquilibre, en raison de la plus grande rigueur de sa modélisation mathématique et de la supériorité de son explication de la stagflation des années soixante-dix. Or, il n’est pas certain que les macroéconomistes aient embrassé l’approche de Lucas au motif que les modèles des nouveaux classiques en proposaient une qui soit crédible [Goutsmedt, 2017] ; les explications de la stagflation avancées par les nouveaux classiques n’étaient d’ailleurs guère reprises par les autres économistes avant les années quatre-vingt-dix et celles qui dominaient durant les années soixante-dix étaient jugées à l’époque tout à fait satisfaisantes [Goutsmedt, 2020]. Dans une nouvelle étude, Romain Plassard (2021) note que les théoriciens du déséquilibre, notamment Barro et Grossman, ont proposé des explications cohérentes de la stagflation et eux-mêmes les jugèrent crédibles. 

Afin de contribuer à expliquer pourquoi le programme de recherche de Lucas a fini par supplanter la théorie du déséquilibre, Plassard s’est penché sur Barro et Grossman pour comprendre ce qui les a amenés à changer de trajectoire intellectuelle. Selon Roger Backhouse et Mauro Boianovsky (2013), Barro et Grossman déploraient le fait que la viscosité des prix dans la théorie du déséquilibre ne résultait pas de comportements optimisateurs. Kevin Hoover (2012) juge cette interprétation correcte, mais incomplète. Plassard a donc davantage creusé dans les travaux et la correspondance de Barro et Grossman. Il apparaît que ces derniers n’ont pas adopté la macroéconomie de Lucas pour des questions de rigueur ou de réalisme ; par exemple, ils jugeaient les modèles de déséquilibre plus réalistes que les modèles avec anticipations rationnelles, en l’occurrence que ces derniers avaient gagné en rigueur en perdant en réalisme, mais ils considéraient que le réalisme des hypothèses était secondaire par rapport à l’évaluation des modèles. Barro et Grossman ont notamment été séduits par les modèles avec anticipations rationnelles pour une question de simplicité pratique : ces modèles se révélaient plus malléables que les modèles de déséquilibre, notamment pour prendre en compte les anticipations. Ils semblaient également offrir la possibilité de s'attaquer à un éventail plus large de questions. 

Plassard ne s’est pas contenté d’éclairer les bifurcations dans la production même de Barro et de Grossman ; il constate que les deux chercheurs ont contribué autrement que par leur seule production à populariser l’approche de Lucas tout en poussant la théorie du déséquilibre sur la voie du déclin. Dès le milieu des années soixante-dix, Barro et Grossman cessèrent d’enseigner la théorie du déséquilibre, mais ils présentèrent par contre à leurs étudiants les travaux adoptant l’approche de Lucas et ils acceptèrent de superviser avant tout les thèses de doctorat qui l’adoptaient. Ensuite, dès le début des années quatre-vingt, les adeptes de l’approche de Lucas, notamment Barro et Grossman, se retrouvèrent aux comités éditoriaux des revues les plus prestigieuses, ce qui facilita la publication des travaux épousant cette approche et incita davantage le reste des macroéconomistes, notamment les ultimes théoriciens du déséquilibre (Plassard prend l’exemple d’Antoine d’Autume), à l’embrasser.  

 

Références

BACKHOUSE, Roger, & Mauro BOIANOVSKY (2013), Transforming Modern Macroeconomics. Exploring Disequilibrium Microfoundations (1956-2003), Cambridge University Press.

BARRO, Robert J., & Herschel I. GROSSMAN (1971), « A general disequilibrium model of income and employment », in American Economic Review, 61.

BARRO, Robert J., & Herschel I. GROSSMAN (1976), Money, Employment, and Inflation, Cambridge University Press.

BEAUD, Michel, & Gilles DOSTALER (1996), La Pensée économique depuis Keynes, éditions du Seuil.

BLANCHARD, Olivier J. (2000), « What do we know about macroeconomics that Fisher and Wicksell did not? », in Quarterly Journal of Economics, vol. 115, n° 4.

CLOWER, Robert W. (1965), « The Keynesian counter-revolution: A theoretical appraisal », in F.H. Hahn & F.P.R Brechling (dir.), The Theory of Interest Rates.

DE VROEY, Michel (2009), Keynes, Lucas. D’une macroéconomie à l’autre, Dalloz.

GOUTSMEDT, Aurélien (2017), « Stagflation and the crossroad in macroeconomics: The struggle between structural and New Classical macroeconometrics », Centre d’économie de la Sorbonne, document de travail, n° 2017.43.

GOUTSMEDT, Aurélien (2020), « From the stagflation to the Great Inflation: Explaining the US economy of the 1970s ».

GOUTSMEDT, Aurélien, Erich PINZON-FUCHS, Matthieu RENAULT & Francesco SERGI (2017), « Reacting to the Lucas critique: The Keynesians’ pragmatic replies », Centre d’économie de la Sorbonne, document de travail, n° 2017.42.

HOOVER, Kevin D. (2012), « Microfoundational programs », in Pedro Garcia Duarte & Gilberto Tadeu Lima (dir.), Microfoundations Reconsidered: The Relationship of Micro and Macroeconomics in Historical Perspective, Edward Elgar.

KEYNES, John Maynard (1936), The General Theory of Employment, Interest, and Money, Palgrave Macmillan. Traduction française, Théorie générale de l'emploi, de l'intérêt et de la monnaie, éditions Payot.

KYDLAND, Finn E., & Edward C. PRESCOTT (1982), « Time to build and aggregate fluctuations », in Econometrica, vol. 50, n° 6.

LEIJONHUFVUD, Axel (1968), On Keynesian economics and the Economics of Keynes, Oxford University Press.

LUCAS, Robert E. (1972), « Expectations and the neutrality of money », in Journal of Economic Theory, vol. 4, n° 2.

LUCAS, Robert E. (1975), « An equilibrium model of the business cycle », in Journal of Political Economy, vol. 83.

LUCAS, Robert E. (1977), « Understanding business cycles », in K. Brunner & A. Meltzer (dir.), Stabilization of the Domestic and International Economy, North Holland.

MANKIW, N. Gregory (1990), « A quick refresher course in macroeconomics », in Journal of Economic Literature, vol. 28.

PATINKIN, Don (1956, 1965), Money, Interest and Prices, Harper & Row.

PLASSARD, Romain (2021), « Barro, Grossman, and the domination of equilibrium macroeconomics », MPRA, paper, n° 107201.

SARGENT, Thomas, & Neil WALLACE (1975), « ‘Rational’ expectations, the optimal monetary instrument, and the optimal money supply rule », in Journal of Political Economy, vol. 83, n° 2.

WOODFORD, Michael (1999), « Revolution and evolution in twentieth-century macroeconomics ».

Partager cet article
Repost0
20 avril 2021 2 20 /04 /avril /2021 15:58
Les répercussions réelles des ruées bancaires

Les difficultés d’une banque sont susceptibles de se répercuter aux autres banques. Les ruées bancaires (bank runs) constituent l’un de ces canaux de contagion, propres à amorcer ou aggraver une crise financière : une banque connaît une ruée bancaire quand une grande partie de ses clients cherche simultanément à réaliser des retraits. Une banque n’ayant pas forcément toutes les liquidités dans l’immédiat pour satisfaire cette demande, elle risque alors de faire faillite. Puisque par effet domino, la faillite d’une banque risque d’entraîner la faillite d’autres banques, tout d’abord celles qui détiennent des créances à son égard, les autres banques risquent de perdre la confiance de leurs déposants et de connaître à leur tour des ruées bancaires.

La mécanique est vicieuse ; dès lors qu’une banque connaît une telle fuite des dépôts, il lui est difficile de la stopper. En effet, même s’il est convaincu de la solvabilité de sa banque, il est rationnel pour un déposant de se ruer aux guichets pour récupérer ses liquidités s’il pense que les autres déposants sont susceptibles de s’y ruer [Diamond et Dybvig, 1983]. En d’autres termes, les ruées bancaires peuvent être autoréalisatrices : une banque peut faire faillite si ses clients pensent qu’elle fera faillite, et ce même si initialement elle était saine, comme l’illustre le cas de la Northern Rock lors de dernière crise financière mondiale [Ménia, 2007].

Comme les autres canaux de transmission des crises financières, les paniques bancaires sont susceptibles de profondément affecter l’activité réelle. Balayant l’idée que la sphère financière ne se contente que de refléter les fluctuations de l’activité réelle, de nombreux travaux ont mis l’accent sur le rôle de l’effondrement du crédit et, plus spécifiquement, des paniques bancaires pour expliquer la gravité de la Grande Dépression dans les années trente [Friedman et Schwartz, 1963 ; Bernanke, 1983 ; Calomiris et alii, 2003]. Les Etats-Unis connurent quatre vagues de ruées bancaires. La première éclata à l’automne 1930 : un an après le « Jeudi noir » et le début de l’effondrement boursier, l’économie américaine semblait amorcer une reprise, mais la crise bancaire l’a véritablement faite basculer dans la Grande Dépression. 

La France connut également des paniques bancaires durant la Grande Dépression. A partir du début du mois de novembre 1930, sur l’ensemble du territoire, les déposants retirèrent leurs fonds des banques commerciales. Une seconde série de ruées bancaires survint l’année suivante et attint son pic en septembre 1931. Ces paniques bancaires ont pu fortement contribuer à creuser la contraction de l’activité économique en France : même si les quatre plus grandes banques de l’époque n’ont pas vu leurs dépôts s’écrouler, le reste du système bancaire a vu les siens fondre de 40 % entre 1929 et 1931 [Baubeau et alii, 2021] (cf. graphique).

GRAPHIQUE  Dépôts dans les banques et Caisses d’épargne en France durant l’entre-deux-guerres (en milliards de francs)

Les répercussions réelles des ruées bancaires

source : Baubeau et alii (2021)

Il est difficile d’identifier les conséquences réelles des ruées bancaires, tout d’abord dans la mesure où celles-ci n’éclatent pas de façon purement exogène. Tout d’abord, elles sont davantage susceptibles de se produire en période de mauvaise conjoncture. Par exemple, entre 1863 et 1913, les paniques bancaires aux Etats-Unis coïncidaient typiquement avec le retournement du cycle d’affaires [Gorton, 1988]. Les déposants, subissant une détérioration de leur situation financière ou redoutant que celle-ci ne se dégrade, pouvaient avoir davantage tendance à puiser dans leur patrimoine financier pour compenser une chute de leur revenu courant. Ou bien, certains déposants, anticipant que les emprunteurs auraient plus de difficile à rembourser leur crédit, redoutaient, à tort ou à raison, que leur banque fasse faillite. Il n'est guère surprenant de voir l'activité économique décliner lors des paniques bancaires ; ces dernières surviennent précisément souvent parce que l'activité économique décline. Il est alors difficile de déceler l'impact propre à une panique bancaire.

Les banques elles-mêmes changent de comportement lors d’une récession ou d’une crise financière : elles-mêmes peuvent redouter une hausse des défauts de remboursement et restreindre en conséquence le crédit ; elles peuvent chercher à vendre en catastrophe des actifs, notamment des titres, pour obtenir des liquidités, mais, en faisant ainsi pression à la baisse sur les prix des actifs, elles détériorent la situation des banques qui détiennent toujours ces actifs et les poussent à se débarrasser à leur tour de leurs actifs. Réciproquement, si les banques subissent des ruées bancaires, elles seront tentées de réduire leur activité de prêt ou de vendre des actifs en catastrophe pour assainir leur bilan. La contagion financière empruntant plusieurs canaux, il est difficile de déceler précisément l’impact exact de l’un d’entre eux sur l’activité réelle. 

Eric Monnet, Angelo Riva et Stefano Ungaro (2021) ont tiré profit d’une singularité du paysage bancaire français lors de la Grande Dépression pour étudier l’impact propre aux ruées bancaires. A cette époque, les banques commerciales n’étaient toujours pas régulées ; la première véritable loi relative à l’activité bancaire date de 1941. Mais elles coexistaient avec les Caisses d’épargne : ces dernières, des institutions de collecte d’épargne bénéficiant d’une garantie de la part de l’Etat, constituaient des substituts plus sûrs aux yeux des déposants. D’ailleurs, lors de la Grande Dépression, les déposants étaient plus susceptibles de retirer l’épargne qu’ils avaient dans un compte hébergé par une banque commerciale lorsqu’ils possédaient également un compte dans une Caisse d’épargne ; et d’importants flux de fonds furent transférés des banques commerciales aux Caisses d’épargne, ce qui explique non seulement pourquoi le montant total de dépôts est resté relativement stable malgré l’effondrement des dépôts bancaires (cf. graphique), mais aussi pourquoi le crédit s’est fortement contracté au cours de la période [Baubeau et alii, 2021].

Or, les Caisses d’épargne n’étaient pas implantées de façon homogène sur le territoire ; leur implantation était assez indépendante des performances économiques locales et du réseau bancaire. C’est cette hétérogénéité qui offre à Monnet et à ses coauteurs une occasion pour déceler les répercussions réelles des ruées bancaires.

Les trois chercheurs ont utilisé la densité des Caisses d’épargne observée avant la Grande Dépression pour quantifier le déclin de l’activité bancaire pendant la crise ; ils ont mesuré l’activité économique locale à partir des données fiscales relatives aux recettes et revenus. Au terme de leur analyse, ils constatent qu’une baisse de 1 % des agences bancaires réduisait le revenu agrégé de 1 %. Les ruées bancaires semblent par conséquent avoir très significativement contribué à la sévérité de la Grande Dépression en France : un calcul au dos de l’enveloppe suggère qu’elles ont pu expliquer un tiers de la chute du PIB réel observée de 1930 à 1931. 

 

Références 

BAUBEAU, Patrice, Eric MONNET, Angelo RIVA & Stefano UNGARO (2021), « Flight-to-safety and the credit crunch: A new history of the banking crisis in France during the Great Depression », in Economic History Review, vol. 74, n° 1.

BERNANKE, Ben S. (1983), « Nonmonetary effects of the financial crisis in propagation of the Great Depression », in American Economic Review, vol. 73, n° 3.

CALOMIRIS, Charles W., & Joseph R. MASON (2003), « Fundamentals, panics, and bank distress during the depression », in American Economic Review, vol. 93, n° 5.

DIAMOND, Douglas W., & Philip H. DYBVIG (1983), « Bank runs, deposit insurance, and liquidity », in Journal of Political Economy, vol. 91, n° 3.

FRIEDMAN, Milton, & Anna J. SCHWARTZ (2008), A Monetary History of the United States, 1867-1960, Princeton University Press.

GORTON, Gary (1988), « Banking panics and business cycles », in Oxford Economic Papers, vol. 40, n° 4.

MÉNIA, Stéphane (2007), « Faire nocturne pour sauver la banque », in Econoclaste (blog), 17 septembre.

MONNET, Eric, Angelo RIVA & Stefano UNGARO (2021), « The real effects of bank runs. Evidence from the French Great Depression (1930-1931) », CEPR, discussion paper, n° 16054.

Partager cet article
Repost0
11 avril 2021 7 11 /04 /avril /2021 16:06
Comment l’immigration affecte-t-elle les salaires ? Gare au biais de sélection !

Les économistes ont tendance à partir d’un cadre néoclassique pour étudier les effets de l’immigration sur le marché du travail. Les immigrés étant très souvent en âge de travailler, l’immigration se traduit immédiatement par une hausse de l’offre de travail. Or, dans la modélisation néoclassique, la hausse de l’offre sur un marché entraîne une baisse du prix d’équilibre et, le temps que le prix s’ajuste pour rejoindre son nouvel équilibre, une offre excédentaire. Autrement dit, sur le marché du travail, on s’attend à une baisse des salaires pour les autochtones et, le temps de l’ajustement, à une hausse de leur chômage.

Une telle modélisation est bien sûr simplificatrice. Elle risque tout d’abord de nous amener à négliger les effets de bouclage : si un territoire connaît une vague d’immigration, celle-ci va certes directement accroître l’offre de travail, mais elle va aussi, plus indirectement, accroître la demande de travail, dans la mesure où les immigrés sont aussi des consommateurs. La demande de travail augmentant, l’effet négatif de l’immigration sur les salaires des autochtones s’en trouve atténué. Ensuite, il ne faut pas oublier que les travailleurs, ne serait-ce que parmi les autochtones, ne forment pas un ensemble homogène : ils diffèrent notamment en termes de compétences. Par exemple, les immigrés n’ont pas nécessairement les mêmes qualifications que les autochtones. Si les immigrés sont essentiellement peu qualifiés, ce sont surtout les natifs peu qualifiés qu’ils risquent de « concurrencer ». Plus largement, les immigrés entrent en concurrence avec les natifs qui leur sont comparables.

Toute une littérature en économie du travail a cherché à déterminer empiriquement l’impact exact de l’immigration sur l’emploi et les salaires des autochtones. Elle n'est pas parvenue à un consensus, tant la mesure de cet impact pose de redoutables défis méthodologiques. En l'occurrence, ces trois dernières décennies ont été marquées par de très vifs débats, opposant notamment David Card et George Borjas, initialement autour de l’exode de Mariel. Selon Card (1990), qui s’appuie sur la méthode dite « des doubles différences » (ou « des différences de différences »), l’arrivée des réfugiés cubains (les « Marielitos ») à Miami n’a guère affecté la situation des autochtones : en l’occurrence, la situation des autochtones habitant Miami ne semble guère s’être dégradée lorsqu’on la compare avec celle des autochtones habitant d’autres villes américaines économiquement similaires à Miami.

Pour Borjas (2003), l’immigration a au contraire un impact significatif sur les salaires des autochtones (1), mais l’approche des doubles différences peut difficilement le saisir dans la mesure où les autochtones peuvent réagir à l’arrivée des immigrés en se déplaçant vers d'autres marchés du travail où ces derniers ne sont pas arrivés, diffusant le choc d’offre initial aux autres marchés du travail. Par exemple, les autochtones peuvent déménager ou rechercher un emploi dans les villes qui ont accueilli moins d’immigrés [Borjas, 2006] ; ils peuvent se tourner vers la formation pour acquérir de nouvelles compétences et ainsi pour ne plus être directement concurrencés par les immigrés [Hunt, 2017] ; ils peuvent changer de profession [Card, 2001] ; ils peuvent tout simplement quitter la vie active [Dustmann et alii, 2017], etc. En définitive, la variation des salaires directement provoquée par le choc d’offre dans une zone d’emploi risque d’être en partie dissimulée par la transmission de ce choc aux zones d’emplois qu’il n’a pas initialement touchés. Selon Borjas (2017), c’est précisément pour cette raison que Card n’a pas correctement identifié l’impact des réfugiés cubains sur la situation des natifs à Miami. 

En fait, la variation des salaires provoquée par l’immigration ne dépend pas seulement de l’ampleur de la réaction des natifs, mais également de sa composition : rien ne certifie que ce sont n’importe quels natifs qui changent de marché de travail en réaction à l’arrivée d’immigrés. Il peut y avoir un effet de composition et celui-ci va lui-même affecter le salaire moyen des autochtones, conduisant l'économiste qui ne le prendrait pas en compte à sous-évaluer ou surévaluer l'impact de l'immigration sur le salaire moyen. 

GRAPHIQUE 1  Part des immigrés dans la population active française (en %)

Comment l’immigration affecte-t-elle les salaires ? Gare au biais de sélection !

source : Borjas et Edo (2021)

George Borjas et Anthony Edo (2021) viennent d’illustrer l’importance de ce biais de sélection en se focalisant sur le marché du travail français et plus exactement en distinguant la situation des femmes de celle des hommes. En effet, la France a connu une importante féminisation de sa main-d’œuvre immigrée au cours des dernières décennies. La part des immigrés parmi les hommes actifs a certes diminué, mais la part des immigrées parmi les femmes actives a augmenté, passant de 5,7 % à 9,2 % entre 1968 et 2007 (cf. graphique 1). En conséquence, la part des femmes parmi les travailleurs nés à l’étranger est passée de 18,7 % à 22,8 % entre 1962 et 1975, pour ensuite doubler et atteindre 42,4 % en 1999 (cf. graphique 2). Cela ne s’explique pas seulement par les comportements de regroupement familial. « Les femmes qui arrivent en France sont de plus en plus souvent des célibataires ou des "pionnières" qui devancent leur conjoint » [Beauchemin et alii, 2013].

GRAPHIQUE 2  Part des femmes parmi les travailleurs immigrés (en %)

Comment l’immigration affecte-t-elle les salaires ? Gare au biais de sélection !

source : Borjas et Edo (2021)

L’accroissement de la part des femmes parmi les immigrés peut ne pas affecter de la même façon les autochtones selon leur sexe, dans la mesure où les femmes et les hommes n’occupent pas les mêmes emplois et où la l’offre de travail des femmes tend à être plus élastique que celle des hommes à la marge extensive : relativement aux hommes, les femmes ont davantage tendance à réduire leur offre de travail en quittant tout simplement le marché du travail plutôt qu’en réduisant leur temps de travail. Par conséquent, le choc d’offre peut avoir eu un impact significatif sur le taux d’activité des femmes autochtones, ce qui biaise la mesure de l’impact de l’immigration sur les salaires.

Les corrélations brutes suggèrent que l’immigration a réduit le salaire des natifs, mais non des natives, tandis qu’il a réduit le taux d’emploi des natives, mais non celui des natifs. Or, Borjas et Edo montrent au terme de leur analyse que cette élasticité apparemment nulle des salaires des femmes est un artefact produit par le biais de sélection. En effet, les natives qui quittèrent le marché du travail après le choc d’offre étaient des femmes relativement peu rémunérées. Leur sortie de la vie active s’est mécaniquement traduite par une hausse du salaire moyen simplement par effet de composition : le salaire moyen des femmes autochtones a eu tendance par ce biais-là à augmenter du seul fait que la part des femmes peu rémunérées s’est réduite. Une fois cet effet de composition pris en compte, il apparaît que l’immigration a bien eu un effet négatif sur les salaires des natives : le salaire moyen des natives ne semble guère avoir varié face au choc d’offre précisément par ce que l’effet négatif de ce dernier a été compensé par l’effet de composition. Une fois ajusté pour prendre en compte l’effet de sélection, l’élasticité des salaires des natives se révèle négative et de la même ampleur que pour les natifs, c’est-à-dire compris entre - 1 et - 0,8.

 

(1) Borjas juge que l'immigration détériore la situation des natifs sur le marché du travail, mais il voit d'un plus mauvais œil l'arrivée des robots [Borjas et Freeman, 2019]. 

 

Références 

BEAUCHEMIN, Cris, Catherine BORREL & Corinne REGNARD (2013), « Les immigrés en France : en majorité des femmes », in INED, Population et Sociétés, n° 502, juillet-août 2013.

BORJAS, George J. (2003), « The labor demand curve is downward sloping: Reexamining the impact of immigration on the labor market », in Quarterly Journal of Economics, vol. 118, n° 4.

BORJAS, George J. (2006), « Native internal migration and the labor market impact of immigration », in Journal of Human Resources, vol. 41, n° 2.

BORJAS, George J. (2017), « The wage impact of the Marielitos: A reappraisal », in Industrial and Labor Relations Review, vol. 70.

BORJAS, George J., & Anthony EDO (2021), « Gender, selection into employment, and the wage impact of immigration », IZA, discussion paper, n° 14261.

BORJAS, George J., & Richard B. FREEMAN (2019), « From immigrants to robots: The changing locus of substitutes for workers », NBER, working paper, n° 25438.

CARD, David (1990), « The impact of the Mariel boatlift on the Miami labor market », in Industrial and Labor Relations Review, vol. 43, n° 2.

DUSTMANN, Christian, Uta SCHÖNBERG & Jan STUHLER (2017), « Labor supply shocks, native wages, and the adjustment of local employment », in Quarterly Journal of Economics, vol. 132, n° 1.

HUNT, Jennifer (2017), « The impact of immigration on the educational attainment of natives », in Journal of Human Resources, vol. 52, n° 4.

Partager cet article
Repost0
28 mars 2021 7 28 /03 /mars /2021 14:05
Plongée dans la guerre commerciale Smoot-Hawley

La Grande Récession et la faible reprise qui l’a suivie ont laissé craindre que les pays aient recours au protectionnisme pour tenter de stimuler leur activité domestique. La croissance du commerce international a certes ralenti après la crise financière mondiale, mais ce ralentissement ne semble pas trouver sa source dans un quelconque relèvement des barrières commerciales [Constantinescu et alii, 2015]. Cette période n’a toutefois pas été épargnée par le protectionnisme : l’administration Trump a multiplié les hausses de droits de douane, notamment vis-à-vis des importations chinoises, en y voyant un moyen de pression pour renégocier les traités commerciaux. Cette guerre commerciale a renouvelé l’intérêt des économistes pour l’étude du protectionnisme. Ils ont ainsi rappelé les effets pervers que peut avoir ce dernier [Furceri et alii, 2018]. Plus spécifiquement, plusieurs travaux ont mis en évidence les coûts que la guerre commerciale de l’administration Trump a occasionnés pour l’économie américaine elle-même [Amiti et alii, 2019 ; Fajgelbaum et alii, 2020].

Ce n’est pas la première guerre commerciale qu’ont lancée les Etats-Unis. Lorsque l’administration Trump lança la sienne, beaucoup ont dressé des parallèles avec l’adoption des droits de douane Smoot-Hawley par les Etats-Unis en juin 1930 dans le contexte de la Grande Dépression. A l’époque, suite à la signature de cette loi, les partenaires commerciaux des Etats-Unis protestèrent tout d’abord contre celle-ci et plusieurs d’entre eux finirent par accroître en représailles leurs droits de douane sur les importations en provenance des Etats-Unis. C’est là l’un des mécanismes mis en avant pour expliquer la sévérité de la Grande Dépression : chaque pays relevant ses barrières commerciales vis-à-vis du reste du monde pour stimuler sa demande domestique ou pour punir ses partenaires à l’échange ayant relevé les leurs à son égard, la guerre commerciale aurait aggravé la contraction de l’activité économique. C’est bien le spectre de la Grande Dépression que les économistes ont en tête lorsqu’ils dénoncent les dangers d’une montée du protectionnisme. 

Pourtant, même si les droits de douane Smoot-Hawley ont fait l’objet d’une très large littérature, peu de travaux ont cherché à en quantifier l’impact économique. En fait, les travaux d’histoire économique que se sont penchés sur les années 1930 ont plutôt tendance à conclure que les conflits commerciaux qui les ont émaillées ont eu beaucoup moins d’effets qu’on a tendance à le penser. Selon eux, la chute de l’activité économique provoquée par la Grande Dépression a été telle qu’elle explique l’essentiel de l’effondrement des échanges observé entre 1929 et 1933 ; la hausse des coûts commerciaux n’en expliquerait qu’une faible part. Par exemple, Douglas Irwin (1998a) estime que, si les droits de douane n’avaient pas été modifiés, les importations des Etats-Unis auraient décliné de 31,9 % entre le deuxième trimestre 1930 et le troisième trimestre 1932, alors qu’elles se sont effectivement contractées de 41,2 %, ce qui représente une faible différence. En outre, comme le commerce extérieur ne représentait guère un dixième revenu total des Etats-Unis à la fin des années 1920, beaucoup en ont conclu que les droits de douane ont eu un impact négligeable sur l’activité économique aux Etats-Unis : selon Irwin (1998b), ces effets ont certes été négatifs, mais faibles, tandis que pour Barry Eichengreen (1989) ils ont non seulement faibles, mais également positifs. 

Kris James Mitchener, Kirsten Wandschneider et Kevin Hjortshøj O’Rourke (2021) se sont penchés sur les actes de représailles commerciales que suscitèrent les droits de douane Smoot-Hawley. Ils ont tout d’abord identifié les réponses de chaque pays à ces dernières, puis ils ont analysé si ces réactions pouvaient être prédites par les relations commerciales ou politiques que ces pays entretenaient avec les Etats-Unis. Ils ont alors constaté que la réponse d’un pays à la loi Smoot-Hawley n’est déterminée ni par la part de ce pays dans les exportations avant 1930, ni par son solde commercial bilatéral vis-à-vis des Etats-Unis. 

Mitchener et ses coauteurs se sont alors penchés sur les effets de la guerre commerciale Smoot-Hawley sur les échanges bilatéraux. En utilisant une nouvelle série de données trimestrielles relatives aux échanges bilatéraux de 99 pays durant l’entre-deux-guerres, ils constatent que les exportations américaines ont été très pénalisées par la loi Smoot-Hawley et les représailles qu'elle suscita (cf. graphique). Même après prise en compte de la crise financière, de la chute de la demande globale et du déclin mondial des importations, il apparaît que les exportations américaines ont chuté de façon disproportionnée. Elles ont chuté plus amplement que ne l'ont fait les importations dans chaque pays : les exportations américaines vers les pays qui protestèrent chutèrent de 15 à 22 %, tandis que les exportations américaines vers les pays qui répliquèrent chutèrent de 28-33 %. Autrement dit, les représailles commerciales adoptées de facto n’ont pas été le fait des seuls pays qui en ont officiellement adoptées.

GRAPHIQUE  Exportations des Etats-Unis avant et après la loi Smoot-Hawley (en millions de dollars)

Plongée dans la guerre commerciale Smoot-Hawley

source : Mitchener et alii (2021)

La question qui se pose alors est de savoir comment les pays qui ont répliqué ont réussi à cibler les exportations américaines alors même que plusieurs d’entre eux étaient contraints par les clauses de la nation la plus favorisée. Ils ont pu adopter des quotas, qui sont par nature discriminant, ou alors ils ont pu relever des droits de douane en ciblant particulièrement les produits les plus exportés par les Etats-Unis.

En utilisant une seconde série de nouvelles données relatives aux exportations américaines vers 59 pays sur la période allant de 1926 à 1932, Mitchener et ses coauteurs constatent que les pays qui répliquèrent ont significativement réduit leurs achats d’exportations clés des Etats-Unis, en particulier de voitures, après l’adoption des droits de douane Smoot-Hawley. Même après prise en compte des exportations américaines agrégées pour certains marchés, il apparaît que les principales exportations américaines vers les pays qui répliquèrent chutèrent de 33 % après la hausse des droits de douane américains en 1930, ce qui est cohérent avec l’idée que les pays répliquèrent en ciblant les biens qui étaient de grande importance pour les Etats-Unis. En plus des droits de douanes ciblés, les représailles sont passées par des mesures non tarifaires comme des quotas et des boycotts visant les importations de produits américains.

Mitchener et ses coauteurs concluent leur analyse en rejetant l'affirmation de Peter Navarro selon laquelle aucun pays ne répliquerait aux droits de douane américains : les événements des années 1930 suggèrent que même un pays riche et puissant comme les Etats-Unis ne peut déclarer une guerre commerciale en se croyant jouir d'une pleine impunité.

 

Références

AMITI, Mary, Stephen J. REDDING & David E. WEINSTEIN (2019), « The impact of the 2018 trade war on U.S. prices and welfare », CEPR, discussion paper, n° 13564.

CONSTANTINESCU, Cristina, Aaditya MATTOO & Michele RUTA (2015), « Global trade slowdown: Cyclical or structural? », FMI, working paper, n° 15/6.

EICHENGREEN, Barry (1989), « The political economy of the Smoot-Hawley tariff », in Roger L. Ransom & Peter H. Lindert (dir.), Research in Economic History.

FAJGELBAUM, Pablo D., Pinelopi K. GOLDBERG, Patrick J. KENNEDY & Amit K. KHANDELWAL (2019), « The return to protectionism », NBER, working paper, n° 25638.

FURCERI, Davide, Swarnali A. HANNAN, Jonathan D. OSTRY & Andrew K. ROSE (2018), « Macroeconomic consequences of tariffs », NBER, working paper, n° 25402.

IRWIN, Douglas A. (1998a), « The Smoot-Hawley tariff: A quantitative assessment », in Review of Economics and Statistics, vol. 80, n° 2.

IRWIN, Douglas A. (1998b), « From Smoot-Hawley to reciprocal trade agreements: Changing the course of U.S. trade policy in the 1930s », in Michael D. Bordo, Claudia Goldin & Eugene N. White (dir.), The Defining Moment: The Great Depression and the American Economy in the Twentieth Century, University of Chicago Press.

IRWIN, Douglas A. (2011), Peddling Protectionism: Smoot-Hawley and the Great Depression, Princeton University Press.

MITCHENER, Kris James, Kirsten WANDSCHNEIDER & Kevin Hjortshøj O’ROURKE (2021), « The Smoot-Hawley trade war », CEPR, discussion paper, n° 15952.

Partager cet article
Repost0
3 mars 2021 3 03 /03 /mars /2021 17:52
De la stagflation à la Grande Inflation, ou comment le regard des économistes sur les années 1970 a changé

Ces dernières semaines, le plan de relance proposé par l'administration Biden a alimenté un débat houleux parmi les économistes outre-Atlantique. Certains, notamment Olivier Blanchard (2021), jugent cette relance excessive, en l'occurrence ils craignent qu'elle alimente l'inflation en poussant la production bien au-delà de son potentiel et que les anticipations d'inflation cessent d'être ancrées à un faible niveau, entraînant un véritable emballement de l'inflation que la banque centrale saurait difficilement maîtriser. Ce qu'ils redoutent en définitive, c'est que l'économie américaine connaisse la même « Grande Inflation » qu'au cours des années soixante-dix (cf. graphique). Le débat sur l'opportunité pour l'administration Biden d'adopter sa relance budgétaire s'est ainsi cristallisé sur le comportement de l'inflation [Gopinath, 2021].

GRAPHIQUE  Taux de chômage et taux d’inflation aux Etats-Unis (en %)

De la stagflation à la Grande Inflation, ou comment le regard des économistes sur les années 1970 a changé

source : FRED

L'épisode inflationniste des années soixante-dix a précisément marqué une grande rupture dans l’histoire de la pensée économique. Les décennies qui avaient immédiatement suivi la Seconde Guerre mondiale ont été celles d’un keynésianisme triomphant : les théories orthodoxes dominantes s’inspiraient des idées de Keynes et les autorités en charge de la politique économique adoptaient des politiques actives de gestion de la demande pour stabiliser l’activité économique. S’appuyant sur les travaux de Phillips, les keynésiens orthodoxes évoquèrent la possibilité d’arbitrer dans une certaine mesure entre inflation et chômage : c’est la courbe de Phillips [Samuelson et Solow, 1960]. Celle-ci semblait leur offrir l'« équation manquante » pour boucler leur construction théorique, si bien qu'ils l'adoptèrent dans leurs modélisations.

La « stagflation » des années soixante-dix mit un terme à la domination keynésienne : les pays développés faisaient alors simultanément face à une accélération de l’inflation et à une hausse du taux de chômage. Selon le récit que nous en faisons aujourd’hui, non seulement les politiques d’inspiration keynésienne ont été tenues responsables de cette situation, mais cette dernière révélait également les insuffisances de la macroéconomie keynésienne, notamment en jetant le discrédit sur la courbe de Phillips. Sur le plan théorique, ce sont tout d’abord les monétaristes, regroupés autour de Milton Friedman, qui remirent en cause les idées des keynésiens orthodoxes, mais pour autant ils partageaient fondamentalement le même cadre théorique que ces derniers. La révolution méthodologique a surtout été menée par les nouveaux classiques, avec Robert Lucas comme chef de file, puis poursuivie par les théoriciens des cycles d’affaires réels (real business cycles), notamment Finn Kydland et Edward Prescott. Les nouveaux keynésiens acceptèrent leur méthodologie et adoptèrent notamment les anticipations rationnelles, si bien que les années quatre-vingt-dix avaient laissé suggérer l’émergence d’une « nouvelle synthèse néoclassique » [Goodfriend et King, 1997] : la majorité des macroéconomistes orthodoxes n’aboutissaient peut-être pas aux mêmes conclusions, notamment en termes de politique économique, mais ils utilisaient les mêmes outils, le même « langage ».

Plusieurs travaux, notamment d’histoire de la pensée économique, ont nuancé, voire remis en cause, ce récit. Par exemple, James Forder (2014) a souligné l’ambivalence de la relation que les keynésiens ont pu entretenir avec la courbe de Phillips, tandis que Simon Wren-Lewis (2014a, 2014b) et Aurélien Goutsmedt (2017) ont montré que les innovations méthodologiques proposées par les nouveaux classiques n’ont pas forcément été adoptées parce qu’elles offraient une meilleure explication de la stagflation. Poursuivant ce travail, Goutsmedt (2020) vient d'étudier comment le regard des économistes sur les causes de la stagflation a pu changer au fil du temps : il a compilé tous les articles et livres qui cherchaient à expliquer cet épisode, ainsi que leurs références, pour ensuite déterminer quelles interprétations ont pu prévaloir en chaque point du temps et sur quelles références elles se sont appuyées.

Les travaux qui ont lancé la révolution méthodologique lors des années soixante-dix, notamment ceux de Friedman (1958), de Lucas (1976) et de Kydland et Prescott (1977), mettaient l’accent sur les chocs monétaires pour expliquer l’inflation. Or, Goutsmedt note qu’ils ont peu été mobilisés lors des années soixante-dix pour expliquer la stagflation qui sévissait alors aux Etats-Unis. Selon les interprétations qui dominaient à l’époque, la stagflation avait été provoquée par des chocs d’offre, notamment la hausse des prix des matières premières et le ralentissement de la croissance de la productivité. Les interprétations les plus influentes comprennent notamment celles développées par Robert Gordon (1975a, 1975b, 1977a), George Perry (1978), Edmund Phelps (1978), Alan Blinder (1979) ou encore Jeffrey Sachs (1979). L’intérêt des économistes pour l’épisode de la stagflation s’essouffle au milieu des années quatre-vingt, peut-être précisément parce que l’interprétation par les chocs d’offre semblait satisfaisante.

Cet intérêt se ravive à la fin des années quatre-vingt, notamment avec les publications de Brad DeLong (1997) et de Thomas Sargent (1999). Celles-ci marquent en outre un tournant dans l’interprétation des causes de la stagflation. S’éloignant de celles qui prédominaient dans les années soixante-dix et quatre-vingt, les interprétations qui sont désormais privilégiées insistent sur les erreurs commises par la Fed et plus largement sur l’inadéquation de la politique économique et sur les déficiences du cadre institutionnel, tandis que la question du chômage est finalement reléguée en second plan. Goutsmedt note incidemment que ce changement de focal s’accompagne d’ailleurs d’un glissement sémantique : les économistes n’utilisent plus le terme de « stagflation », mais celui de « Grande Inflation » (Great Inflation), pour qualifier l’épisode des années soixante-dix.

Les travaux qui étaient les plus cités au cours des années soixante-dix et quatre-vingt pour expliquer la stagflation le sont désormais rarement. Par contre, les analyses de Friedman (1968), de Lucas (1976), de Kydland et Prescott (1977) et de Robert Barro et David Gordon (1983), qui mettent l’accent sur les problèmes de cohérence temporelle, deviennent des références centrales pour évoquer cette décennie. Autrement dit, les travaux des nouveaux classiques ont beau avoir bouleversé la méthodologie en macroéconomie dès les années soixante-dix, leur interprétation de l’inflation mit par contre plusieurs décennies pour gagner en popularité. En outre, Goutsmedt souligne que celle-ci est devenue dominante sans réellement avoir eu à se confronter aux interprétations qui dominaient jusqu’au milieu des années quatre-vingt.

Les économistes qui se sont penches depuis les années quatre-vingt-dix sur l’épisode de la stagflation partagent un cadre commun : par exemple, ils mettent l’accent sur la politique monétaire et les anticipations, ont les mêmes références et utilisent fréquemment la règle de Taylor ou la courbe de Phillips des nouveaux keynésiens. Pour autant, Goutsmedt note qu’une véritable ligne de fracture sépare les économistes en deux camps, ce qui l’amène d’ailleurs à douter que l’évocation d’une « nouvelle synthèse néoclassique » décrive une réelle convergence entre les différents macroéconomistes orthodoxes. D’un côté, certains considèrent que les leçons de la stagflation ont été retenues et estiment qu’un tel épisode ne devrait guère se répéter : c’est le cas de Christina et David Romer et, dans une moindre mesure, de Brad DeLong. Selon eux, le dérapage de l’inflation dans les années soixante-dix s’explique essentiellement par la croyance erronée de la Fed en un arbitrage entre inflation et chômage à long terme, mais ils estiment que la banque centrale s’est bien défaite de cette croyance. De l’autre, certains jugent un épisode inflationniste semblable à celui des années soixante-dix comme encore tout à fait possible : par exemple, pour Thomas Sargent, la Fed n’a pas su prendre en compte la critique de Lucas ; d’autres estiment que le double mandat de la banque centrale américaine l’expose à des problèmes de cohérence temporelle, etc.

 

Références

BARRO, Robert J., & David B. GORDON (1983), « A positive theory of monetary policy in a natural rate model », in Journal of Political Economy, vol. 91, n° 4.

BLANCHARD, Olivier (2021), « In defense of concerns over the $1.9 trillion relief plan », in PIIE, Realtime Economic Issues Watch (blog), 18 février.

BLINDER, Alan S. (1979), Economic Policy and the Great Stagflation, Academic Press.

BRUNO, Michael, & Jeffrey D. SACHS (1985), Economics of Worldwide Stagflation, NBER.

DELONG, J. Bradford (1997), « America’s Peacetime Inflation: The 1970s », in Christina & David ROMER (dir.), Reducing Inflation. Motivation and Strategy, University of Chicago Press.

GOODFRIEND, Marvin, & Robert G. KING (1997), « The new neoclassical synthesis and the role of monetary policy », in NBER Macroeconomics Annual 1997, vol. 12.

FORDER, James (2014), Macroeconomics and the Phillips Curve Myth, Oxford University Press.

FRIEDMAN, Milton (1968), « The role of monetary policy », in American Economic Review, vol. 58, n° 1.

GOPINATH, Gita (2021), « Structural factors and central bank credibility limit inflation risks », FMI, 19 février.

GORDON, Robert J. (1975a), « Alternative responses of policy to external supply shocks », in Brookings Papers on Economic Activity, vol. 1975, n° 1.

GORDON, Robert J. (1975b), « The impact of aggregate demand on prices », in Brookings Papers on Economic Activity, vol. 1975, n° 3.

GORDON, Robert J. (1977), « Can the inflation of the 1970s be explained? », in Brookings Papers on Economic Activity, vol. 1977, n° 1.

GOUTSMEDT, Aurélien (2017), « Stagflation and the crossroad in macroeconomics: The struggle between structural and New Classical macroeconometrics », Centre d’économie de la Sorbonne, document de travail, n° 2017.43.

GOUTSMEDT, Aurélien (2020), « From the stagflation to the Great Inflation: Explaining the US economy of the 1970s ».

GOUTSMEDT, Aurélien, & Goulven RUBIN (2018), « Robert J. Gordon and the introduction of the natural rate hypothesis in the Keynesian framework », in History of Economic Ideas, vol. 26, n° 3.

KYDLAND, Finn E., & Edward C. PRESCOTT (1977), « Rules rather than discretion: The inconsistency of optimal plans », in Journal of Political Economy, vol. 85, n° 3.

LUCAS, Robert E. (1972), « Expectations and the neutrality of money », in Journal of Economic Theory, vol. 4, n° 2.

LUCAS, Robert E. (1976), « Econometric policy evaluation: A critique », Carnegie-Rochester Conference Series on Public Policy, vol. 1.

PERRY, George L. (1978), « Slowing the wage-price spiral: The macroeconomic view », in Brookings Papers on Economic Activity, vol. 1978, n° 2.

PHELPS, Edmund S. (1978), « Commodity-supply shock and full-employment monetary policy », in Journal of Money, Credit and Banking, vol. 10, n° 2.

PHILLIPS, Albin William (1958), « The relation between unemployment and the rate of change of money wage rates in the United Kingdom, 1861–1957 », in Economica, vol. 25, n° 100.  

SACHS, Jeffrey D. (1979), « Wages, profits, and macroeconomic adjustment: A comparative study », in Brookings papers on economic activity, vol. 1979, n° 2.

SAMUELSON, Paul A. & Robert M. SOLOW (1960), « Problem of achieving and maintaining a stable price level: Analytical aspects of anti-inflation policy », in American Economic Review, vol. 50, n° 2.

SARGENT, Thomas J. (1999), The Conquest of American Inflation, Princeton University Press.

WREN-LEWIS, Simon (2014a), « Understanding the New Classical revolution », in Mainly Macro (blog), 28 juin.

WREN-LEWIS, Simon (2014b), « Rereading Lucas and Sargent 1979 », in Mainly Macro (blog), 11 juillet.

Partager cet article
Repost0
19 février 2021 5 19 /02 /février /2021 14:48
La taille du multiplicateur dépend-elle du différentiel taux d’intérêt-croissance ?

Dans le sillage de la crise financière mondiale de 2008 et, plus récemment, de la pandémie, les dettes publiques ont fortement augmenté dans les pays développés, au point de retrouver des niveaux qui n’avaient guère été observés depuis la Seconde Guerre mondiale. Une telle situation suscite des inquiétudes quant à la soutenabilité de la dette publique. En pleine récession, elle peut ainsi réduire les incitations des gouvernements à adopter des mesures de relance budgétaire, voire les pousser à embrasser l’austérité budgétaire pour tenter d’assainir leurs finances publiques, un comportement qui pourrait se révéler particulièrement contre-productif à court comme à long terme [House et alii, 2019 ; Fatás et Summers, 2016] (1).

Pour juger de la soutenabilité de la dette publique, les économistes se penchent souvent sur l’écart entre le taux d’intérêt sur la dette publique (r) et le taux de croissance du PIB (g). Si, comme ils le supposent traditionnellement, le taux d’intérêt que le gouvernement verse à ses emprunteurs est supérieur au taux de croissance de l’économie, le risque est que la dette publique augmente mécaniquement selon un effet boule de neige et finisse par acculer les Etats au défaut de paiement. Pour stabiliser sa dette et a fortiori pour la réduire, l’Etat doit alors générer un excédent budgétaire primaire d’autant plus élevé que le différentiel entre taux d’intérêt et taux de croissance (rg) est élevé.

GRAPHIQUE  Dette publique et r – g

La taille du multiplicateur dépend-elle du différentiel taux d’intérêt-croissance ?

source : Di Serio et alii (2021)

Or, depuis la crise financière mondiale, les taux d’intérêt sont restés historiquement faibles et les différentiels taux d’intérêt-croissance sont devenus négatifs dans plusieurs pays (cf. graphique). Olivier Blanchard (2019) a noté, dans le cas des Etats-Unis, que le différentiel taux d’intérêt-croissance a souvent été négatif par le passé, en l’occurrence que les taux d’intérêt sûrs ont souvent été inférieurs au taux de croissance de l’économie. Philip Barrett (2018) a montré que les différentiels taux d’intérêt-croissance pouvaient être durablement négatifs à long terme dans les autres pays développés.

De telles analyses offrent un certain optimisme quant à la soutenabilité des dettes publiques : non seulement les gouvernements n’ont pas nécessairement à accroître les impôts pour réduire leur dette publique et ils peuvent se contenter de la reconduire, mais ils pourraient même générer un léger déficit budgétaire tout en voyant le ratio de leur dette publique décliner. Dans un contexte de récession comme celle provoquée par la pandémie, elles amènent les gouvernements à envisager plus sereinement l’adoption d’un plan de relance pour stimuler l’activité économique. Certains, comme Paul Krugman (2020), ont même plaidé en faveur d’une relance budgétaire permanente, c’est-à-dire d’un maintien d’une politique budgétaire accommodante en dehors des récessions.

Dans le sillage de l'analyse de Blanchard, plusieurs travaux se sont davantage focalisés sur le lien entre, d’une part, le différentiel taux d’intérêt-croissance et, d’autre part, la soutenabilité de la dette publique. S’ils ne balayent pas l’optimisme quant à la soutenabilité des dettes publiques, ils le tempèrent fortement. Kenneth Rogoff (2020), inquiet par le niveau exceptionnellement élevé atteint par les dettes publiques, souligne que rien ne garantit que le différentiel reste négatif. En utilisant un large échantillon de pays émergents et développés, Weicheng Lian, Andrea Presbitero et Ursula Wiriadinata (2020) constatent que les pays ayant initialement un niveau élevé de dette publique connaissent des épisodes de différentiels négatifs plus courts, des différentiels en moyenne plus élevés et de plus fortes hausses des taux d’intérêt lors des effondrements de l’activité, surtout lorsque leur dette est libellée en devises étrangères. De leur côté, Paolo Mauro et Jing Zhou (2020), en étudiant un échantillon de 55 pays sur une période s’étendant sur plus de deux siècles, constatent que les différentiels taux d’intérêt-croissance ont été fréquemment négatifs par le passé. Mais ils notent également que les différentiels ne se creusent pas forcément à la veille des défauts souverains : les coûts d’emprunt des gouvernements peuvent soudainement et fortement augmenter immédiatement avant qu’ils ne fassent défaut sur leur dette. Autrement dit, un rg négatif est loin de constituer une condition suffisante pour assurer la soutenabilité de la dette publique.

Les gouvernements pourraient toutefois n’avoir guère intérêt à chercher à tirer profit d’un différentiel taux d’intérêt-croissance négatif en adoptant une relance budgétaire si cette dernière promettait d’être inefficace. Plusieurs études ont déjà souligné que la taille du multiplicateur budgétaire dépendait de la position dans le cycle d’affaires, en l’occurrence qu’il était plus élevé lors des récessions que lors des expansions [Auerbach et Gorodnichenko, 2012 ; Blanchard et Leigh, 2013 ; Riera-Crichton et alii, 2015 ; Jordà et Taylor, 2016], qu’il dépendait de l’orientation de la politique monétaire et notamment qu’il était plus élevé lorsque les taux d’intérêt sont contraints par leur borne inférieure zéro (zero lower bound) [Belinga et Lonkeng Ngouana, 2015] ou encore qu’il pouvait être plus faible lorsque la dette publique est initialement élevée [Ilzetzki et alii, 2013 ; Huidrom et alii, 2020]. Mais aucune étude n’avait jusqu’à présent tenté de déceler une éventuelle influence du différentiel r - g sur la taille du multiplicateur budgétaire.

Dans un nouveau document de travail publié par le FMI, Mario Di Serio, Matteo Fragetta et Giovanni Melina (2021) ont cherché à déterminer dans quelle mesure la taille du multiplicateur dépend du différentiel taux d’intérêt-croissance. Pour cela, ils ont étudié un échantillon de dix pays appartenant à la zone euro depuis sa création, en l’occurrence l’Allemagne, l’Autriche, la Belgique, l’Espagne, la Finlande, la France, l’Irlande, l’Italie, les Pays-Bas et le Portugal. 

Di Serio et ses coauteurs constatent que la taille du multiplicateur des dépenses publiques dépend du signe du différentiel. En effet, à moyen terme, les multiplicateurs cumulatifs médians sont compris entre 1,22 et 1,77 lorsque g est négatif et entre 0,51 et 1,26 lorsque r-g est positif. Plus généralement, il apparaît que la taille du multiplicateur est inversement corrélée avec le différentiel taux d’intérêt-croissance. Ils notent que leurs résultats ne dépendent ni de la position dans le cycle d’affaires, ni de l’orientation de la politique monétaire, ni du volume de la dette publique.

Une telle étude n'indique en rien combien de temps les différentiels taux d'intérêt-croissance resteront négatifs, ni dans quelle mesure les trajectoires de dette publique s'avèrent soutenables, mais elle rend encore plus tentante l'idée de profiter des actuels différentiels négatifs pour stimuler l'activité économique dans le contexte de la pandémie et, notamment à travers cette relance, pour procéder aux investissements nécessaires dans la politique climatique.

 

(1) Lors des récessions, il n’y a d’ailleurs peut-être pas de dilemme entre stimulation de la croissance économique et stabilisation de la dette publique : Alan Auerbach et Yuriy Gorodnichenko (2017) ont observé que les plans de relance adoptés lors des récessions n’entraînent pas de hausse durable du ratio dette publique sur PIB.

 

Références

AUERBACH, Alan J., & Yuriy GORODNICHENKO (2012), « Measuring the output responses to fiscal policy », in American Economic Journal – Economic Policy, vol. 4.

AUERBACH, Alan J., & Yuriy GORODNICHENKO (2017), « Fiscal stimulus and fiscal sustainability », document de travail présenté à la conférence de Jackson Hole, août.

BARRETT, Philip (2018), « Interest-growth differentials and debt limits in advanced economies », FMI, working paper, n° 18/82.

BELINGA, Vincent, & Constant LONKENG NGOUANA (2015), « (Not) dancing together: Monetary policy stance and the government spending multiplier », FMI, working paper, n° 15/114.

BLANCHARD, Olivier (2019), « Public debt and low interest rates », in American Economic Review, vol. 109, n° 4.

BLANCHARD, Olivier, & Daniel LEIGH (2013), « Growth forecast errors and fiscal multipliers », FMI, working paper, n° 13/1.

DI SERIO, Mario, Matteo FRAGETTA & Giovanni MELINA (2021), « The impact of r-g on the euro-area government spending multiplier », FMI, working paper, n° 21/39.

FATAS, Antonio, & Lawrence H. SUMMERS (2018), « The permanent effects of fiscal consolidations », in Journal of International Economics, vol. 112.

HOUSE, Christopher L., Christian PROEBSTING & Linda L. TESAR (2019), « Austerity in the aftermath of the Great Recession », in Journal of Monetary Economics.

HUIDROM, Raju, M. Ayhan KOSE, Jamus J. LIM & Franziska L. OHNSORGE (2020), « Why do fiscal multipliers depend on fiscal positions? », in Journal of Monetary Economics, vol. 114.

ILZETZKI, Ethan, Enrique G. MENDOZA & Carlos A. VEGH (2013), « How big (small?) are fiscal multipliers? », in Journal of Monetary Economics, vol. 60, n° 2.

JORDÀ, Òscar, & Alan M. TAYLOR (2016), « The time for austerity: Estimating the average treatment effect of fiscal policy », in The Economic Journal, vol. 126.

KRUGMAN, Paul (2020), « The case for permanent stimulus », 7 mars.

LIAN, Weicheng, Andrea F. PRESBITERO & Ursula WIRIADINATA (2020), « Public debt and r - g at risk », FMI, working paper, n° 20/137.

MAURO, Paolo, & Jing ZHOU (2020), « r-g<0: Can we sleep more soundly? », FMI, working paper, n° 20/52.

RIERA-CRICHTON, Daniel, Carlos A. VEGH & Guillermo VULETIN (2015), « Procyclical and countercyclical fiscal multipliers: Evidence from OECD countries », in Journal of International Money and Finance, vol. 52, n° C.

ROGOFF, Kenneth S. (2020), « Falling real interest rates, rising debt: A free lunch? », in Journal of Policy Modeling vol. 42, n° 4.

Partager cet article
Repost0
16 février 2021 2 16 /02 /février /2021 16:03
Anatomie de la plus longue reprise de l’emploi américain

Il y a bientôt un an, la contraction de l’activité économique associée à la pandémie a mis un terme à la plus longue expansion de l’économie américaine qui ait enregistrée. Cette expansion s’était amorcée il y a un peu plus d’une décennie suite à la crise financière et à la Grande Récession que celle-ci avait provoquée. Jay Shambaugh et Michael Strain (2021) viennent de dresser le bilan de cette reprise en se focalisant spécifiquement sur le marché du travail.

GRAPHIQUE 1  Evolution de l’emploi au cours du cycle d’affaires aux Etats-Unis (en indices, base 100 le premier mois de la récession)

Anatomie de la plus longue reprise de l’emploi américain

source : Shambaugh et Strain (2021)

L’éclatement d’une bulle immobilière, l’effondrement boursier et les difficultés du secteur bancaire avaient fait basculer fin 2007 l’économie américaine dans la plus grave récession qu’elle ait connue depuis la Seconde Guerre mondiale. Sur une base annuelle, l’économie américaine s’était alors davantage contractée que lors de la Grande Dépression. 8,7 millions d’emplois furent détruits au cours des deux années qui suivirent le début de la récession (cf. graphique 1), le taux de chômage augmenta de 5,3 points de pourcentage, amenant jusqu’à un actif sur dix à se retrouver au chômage, et le taux d’activité baissa fortement (cf. graphique 2).

GRAPHIQUE 2  Taux d’activité des 25-54 ans aux Etats-Unis (en %)

Anatomie de la plus longue reprise de l’emploi américain

source : Shambaugh et Strain (2021)

La Grande Récession prit officiellement fin durant l’été 2009. La reprise qui s’ensuivit fut marquée par une faible croissance de la productivité et une croissance de la production plus lente que ce que beaucoup avaient anticipé. Elle mit plusieurs années à éliminer le chômage conjoncturel tant elle fut lente et que la récession avait été sévère (cf. graphique 3). Shambaugh et Strain rappellent que plusieurs facteurs ont contribué a freiné la reprise. Tout d’abord, le chômage conjoncturel provoqué par la précédente récession, celle de 2001, n’avait peut-être pas été totalement résorbé lorsque l’économie américaine bascula dans la Grande Récession. Ensuite, la récession, synchrone à une crise financière, a été précédée d’une forte hausse de l’endettement des ménages et d’une accumulation d’amples déséquilibres sur les marchés financiers et les marchés immobiliers. Il fallut du temps pour que ces déséquilibres se résorbent et notamment pour que les ménages se désendettent. Enfin, les politiques conjoncturelles n’ont pas été assez expansionnistes. D’un côté, la politique monétaire a rapidement été contrainte par la borne inférieure zéro (zero lower bound). De l’autre, la politique budgétaire a certes été expansionniste lors de la Grande Récession, mais elle est rapidement devenue restrictive une fois la reprise amorcée [Fatás et Mihov, 2013].

GRAPHIQUE 3  Ecart entre le taux de chômage et le taux de chômage naturel (en points de %)

Anatomie de la plus longue reprise de l’emploi américain

source : Shambaugh et Strain (2021), d’après les estimations du CBO

Mais parce qu’elle a été régulière et longue, l’expansion qui suivit la Grande Récession inclut la plus longue période de créations d’emplois qui ait été enregistrée. Celle-ci s’est étalée sur 113 mois consécutifs, allant d’octobre 2010 au mois de mars 2020, lorsque la pandémie de Covid-19 provoqua une nouvelle contraction de l’activité économique. 

Shambaugh et Strain distinguent plusieurs phases au cours de cette reprise et notent que les différentes catégories de travailleurs n’ont pas été affectées de la même façon au cours de chacune d’entre elles. Au début de l’expansion, les taux de chômage restaient très élevés, les taux d’activité continuaient de baisser et la croissance des salaires était très lente. Beaucoup craignaient une « reprise sans emploi » (jobless recovery) et redoutaient que le chômage provoqué par la Grande Récession se soit transformé en chômage structurel, mais la faiblesse de la croissance des salaires et de l’inflation suggérait, comme d’autres éléments, qu’une part substantielle du chômage restait de nature conjoncturelle [Lazear et Spletzer, 2012]. A partir de 2014, les salaires commencèrent à croître plus vite à la médiane (cf. graphique 4). A partir de 2015, le taux d’activité des 25-54 ans commença à son tout à s’accroître. Au cours des cinq dernières années de l’expansion, la croissance des salaires s’est accélérée en bas de la répartition des salaires et est apparue plus rapide qu’en haut de la répartition. Les taux d’emploi des travailleurs les moins diplômés grimpèrent bien au-delà de leur niveau d’avant-crise que ne le firent ceux des travailleurs diplômés du supérieur.

GRAPHIQUE 4  Croissance des salaires horaires réels à divers centiles aux Etats-Unis (en %)

Anatomie de la plus longue reprise de l’emploi américain

source : Shambaugh et Strain (2021)

Finalement, l’emploi et le taux d'activité des 25-54 ans finirent par dépasser leur niveau d’avant-crise et le taux de chômage par se retrouver en-deçà du sien. L’ensemble du cycle d’affaires, comprenant la récession et la subséquente reprise, qui s’amorça en décembre 2007 a constitué l’une des meilleures périodes pour la croissance des salaires réels depuis plusieurs décennies. L’essentiel de cette croissance s’est réalisée pendant les toutes dernières années et c’est au cours de celles-ci qu’elle s’est généralisée à l’ensemble de la distribution des salaires.

Shambaugh et Strain concluent leur analyse en avançant plusieurs raisons qui les amènent à se montrer optimistes pour la reprise de l’économie américaine consécutive à l’actuelle récession. Tout d’abord, la contraction de l’activité économique associée à l’épidémie de Covid-19 a eu lieu en l’absence de déséquilibres préexistants et elle n’a, pour l’heure, pas été associée à une réelle crise financière. De plus, l’économie américaine s’est retrouvée en récession en ayant résorbé le chômage provoqué par la précédente récession, ce qui n’était peut-être pas tout à fait le cas lorsqu’elle avait basculé dans la Grande Récession. 

Enfin, Shambaugh et Strain appellent à ne pas hésiter à utiliser des politiques budgétaire et monétaire agressives lors des récessions. Tout au long de la reprise qui suivit la Grande Récession, beaucoup s’étaient inquiétés à l’idée que des effets d’hystérèse aient rendu permanente une partie de la hausse du chômage provoquée par la crise financière et que la reprise ne soit rapidement contrainte par l’offre, remettant en cause la stabilité des prix ; le fait que le taux de chômage ait finit par descendre en-deçà de son niveau d’avant-crise et que le taux d’activité ait presque rejoint le sien, sans générer une significative inflation, vient suggérer que de tels effets d’hystérèse ne se sont guère manifestés. D’autre part, ce n’est que lorsque le taux de chômage s’est rapproché de son niveau d’avant-crise que la croissance des salaires s’est accélérée et qu’elle s’est transmise au bas de la répartition des salaires. Un marché du travail sous tensions s’est révélé être favorable aux salaires et à l’égalité salariale sans nuire à l’emploi.

 

Références

FATAS, Antonio, & Ilian MIHOV (2013), « Recoveries », document présenté lors de la 57ième conférence « Fulfilling the full employment mandate », Réserve fédérale de Boston, 13 avril.

LAZEAR, Edward P., & James R. SPLETZER (2012), « The United States labor market: Status quo or a new normal? », NBER working paper, n° 18386.

SHAMBAUGH, Jay C., & Michael R. STRAIN (2021), « The recovery from the Great Recession: A long, evolving expansion », IZA, discussion paper, n° 14017.

Partager cet article
Repost0
13 février 2021 6 13 /02 /février /2021 11:41
Comment la grippe espagnole s’est retrouvée dans l’angle mort de la science économique 

Aujourd’hui, ce sont officiellement dans le monde près de 110 millions de personnes qui ont été contaminées à la Covid-19 et presque 2,5 millions de personnes qui en sont mortes. La pandémie et les mesures de confinement qui ont été adoptées pour en contenir la propagation ont provoqué la plus forte contraction de l’acticité économique depuis la Seconde Guerre mondiale. 2020 a été l’une des rares années au cours desquelles le PIB annuel mondial a baissé : il a chuté de 3,5 % selon les estimations du FMI ; de 4,3 % selon celles de la Banque mondiale. Selon l’OIT, 114 millions d’emplois ont été détruits dans le monde en 2020, relativement à 2019 ; en conséquence, le nombre d’inactifs a augmenté de 81 millions et le nombre de chômeurs de 33 millions. Selon la Banque mondiale, ce sont 110 millions de personnes que la pandémie devrait faire basculer dans la pauvreté.

Lorsque l’épidémie de Covid-19 a pris une dimension pandémique, les économistes se sont rapidement et massivement investis sur celle-ci. Bien sûr, ils ont cherché à en déterminer les répercussions sur l’activité économique, notamment afin de préconiser des mesures de politique économique pour atténuer ces dommages. Mais ils ont en outre fait des recommandations en matière de politique sanitaire, notamment pour réduire les dommages économiques de l’épidémie et de sa gestion par les autorités sanitaires. Pour cela, ils se sont notamment appuyés sur le modèle SIR que Kermack et McKendrick (1927) avaient élaboré en épidémiologie il y a près d’un siècle en y ajoutant leurs propres extensions ou modifications [Cantore et alii, 2020 ; Lewis, 2020].

Si les économistes se sont aventurés sur le terrain des épidémiologistes, c’est avant tout parce que l’épidémie et la politique sanitaire affectent l’activité économique. Mais beaucoup y ont également vu une façon pour les économistes de regagner en crédibilité après l’échec, sur le plan de la théorie et de la prévision, que la crise financière mondiale de 2008 a constitué pour leur profession [Coyle, 2020]. Certains pourraient également y voir une nouvelle manifestation de l’impérialisme dont fait régulièrement preuve la science économique ; mais jusque là les économistes n’avaient mobilisé leurs outils que pour éclairer des objets traditionnellement étudiés dans le champ des autres sciences sociales, non celui des sciences naturelles.

Pour éclairer la situation actuelle, beaucoup, notamment parmi les économistes, se sont tournés vers ce qui s’est présenté comme le plus proche précédent historique, à savoir la grippe espagnole de 1918-1920. Celle-ci s’est propagées en trois vagues : la première semble avoir émergé dans le Midwest américain en mars 1918 avant de se propager en Europe ; la deuxième, la plus meurtrière, a débuté en août ; la troisième, qui fut moins puissante et toucha moins de pays, commença au début de l’année 1919. La mortalité liée à cette pandémie a été bien plus élevée que celle que nous connaissons actuellement : ce pourrait être entre 24,7 et 39,3 millions de personnes qui en moururent à travers le monde [Patterson et Pyle, 1991]. Et le choc économique qu’elle a suscité a été énorme : elle a réduit le PIB réel par tête d’environ 6 % et, si l’on ne prend pas en compte la contraction de l’activité provoquée par l’épidémie de Covid-19, celle associée à la grippe espagnole a entraîné, par ordre décroissant d’intensité, la quatrième plus forte contraction de l’activité que l’économie mondiale ait connue depuis 1870 [Barro et alii, 2020]

Pourtant, la grippe espagnole a beau avoir été marquée par une plus forte mortalité que la pandémie actuelle et provoqué une puissante récession, Mauro Boianovsky et Guido Erreygers (2021) notent que les économistes ne s’y sont guère intéressés jusqu’à ces toutes dernières décennies. Les économistes de l’époque ne s’étaient guère penchés sur ses répercussions sur l’activité économique. Entre 1918 et 1921, aucun des plus grands journaux d’économie ne publia un article sur la grippe espagnole. Par exemple, au cours de cette période, un seul article de l’American Economic Review évoqua la pandémie et encore, en guise de métaphore : son auteur, Carl C. Plehn, comparait l’adoption d’une pratique fiscale par un nombre croissant de pays à la propagation de la grippe espagnole. De même, cette dernière n’a été mentionnée que sporadiquement dans les pages du Journal of Political Economy, de la Review of Economics and Statistics ou de la Revue d’économie politique. Sur cette période, aucun économiste ne publia un livre sur la pandémie ou consacra une partie significative d’un livre à celle-ci. Dans ses Conséquences économiques de la Paix, Keynes (1919) évoque certes les mauvaises conditions sanitaires des pays vaincus pour démontrer leur incapacité à rembourser leurs réparations de guerre, mais il ne mentionne à aucun moment la grippe espagnole.

Dans les décennies qui suivirent la pandémie, Boianovsky et Erreygers notent que celle-ci n’a guère fait l’objet d’un surcroît d’attention de la part des économistes, même dans l’étude du cycle d’affaires. La contraction de l’activité économique provoquée par la grippe espagnole a été de courte durée, si bien qu’elle ne transparait vraiment qu’au prisme des données à haute fréquence et non les seules données annuelles [Beach et alii, 2020 ; Velde, 2020]. Dans la mesure où la pandémie a éclaté dans le sillage de la Première Guerre mondiale, il a de surcroît été difficile de distinguer l’impact économique de la première de celui de la seconde [Barro et alii, 2020]. Wesley C. Mitchell (1927) passe ainsi sous silence cette récession lorsqu’il passe en revue le cycle d’affaires aux Etats-Unis et en Europe. Burns et Mitchell (1946) l’évoquent, mais n’y donnent guère d’importance, en jugeant son amplitude modérée.

Bien sûr, les populations n’avaient à l’époque pas le même rapport avec les pandémies qu’aujourd’hui, notamment parce qu’elles étaient habituées à vivre dans un contexte de forte mortalité ; plus proche de nous, même la grippe hongkongaise de 1968 n’avait guère attiré l’attention des médias. Mais pour Boianovsky et Erreygers, ce n’est pas que les économistes de l’époque ignoraient la pandémie ou ne lui donnaient aucune importance ; ils considéraient plutôt que son étude se situait en-dehors du champ de la science économique.

Finalement, l’investissement des économistes autour de l’épidémie de Covid-19 permet ainsi de prendre la mesure de certains des réels progrès réalisés par leur discipline depuis un siècle, ne serait-ce que dans l’analyse de la conjoncture et dans la réflexion sur les rapports entre économie et santé. Ces progrès devraient se poursuivre : en rappelant que les pandémies ne sont pas des phénomènes improbables et qu’elles peuvent avoir de profondes répercussions économiques, l’épidémie de Covid-19 devrait amener les économistes à davantage collaborer avec les épidémiologistes [Murray, 2020] et peut-être, plus largement, à prendre davantage en compte la santé dans leurs analyses et leurs recommandations en matière de politique économique.

 

Références

BARRO, Robert J., José F. URSUA & Joanna WENG (2020), « The coronavirus and the Great Influenza Epidemic. Lessons from the “Spanish flu” for the coronavirus’s potential effects on mortality and economic activity », CESifo, working paper, n° 8166.

BEACH, Brian, Karen CLAY & Martin H. SAAVEDRA (2021), « The 1918 influenza pandemic and its lessons for Covid-19 », in Journal of Economic Literature, vol. 59.

BOIANOVSKY, Mauro, & Guido ERREYGERS (2021), « How Economists Ignored the Spanish Flu Pandemic in 1918–20 », Center for the History of Political Economy at Duke University, working paper.

BURNS, Arthur F., & Wesley C. MITCHELL (1946), Measuring Business Cycles, NBER.

CANTORE, Cristiano, Federico DI PACE, Riccardo M MASOLO, Silvia MIRANDA-AGRIPPINO & Arthur TURRELL (2020), « Covid-19 briefing: epi-macro 101 », in Bank Undergroung (blog), 7 août.

COYLE, Diane (2020), « From villains to heroes? The economics profession and its response to the pandemics », in CEPR, Covid Economics, Vetted and Real-Time Papers, n° 48.

KEYNES, John Maynard (1919), The Economic Consequences of the Peace, Macmillan and Co.

LEWIS, John (2020), « Covid-19 briefing: extensions to the SIR model », in Banque d’Angleterre, Bank Underground (blog), 30 novembre.

KERMACK, William Ogilvy, & A. G. MCKENDRICK (1927), « A contribution to the mathematical theory of epidemics », Proceedings of the Royal Society of London, Series A, Mathematical, Physical and Engineering Sciences, vol. 115.

MITCHELL, Wesley C. (1927), Business Cycles: The Problem and its Setting, NBER.

MURRAY, Eleanor J. (2020), « Epidemiology’s time of need: COVID-19 calls for epidemic-related economics », in Journal of Economic Perspectives, vol. 34, n° 4.

OGBURN, William F., & Dorothy S. THOMAS (1922), « The influence of the business cycle on certain social conditions », in Journal of the American Statistical Association, vol. 18, n° 139.

PATTERSON, K. David, & Gerald F. PYLE (1991), « The geography and mortality of the 1918 influenza pandemic », in Bulletin of the History of Medicine, vol. 65, n° 1.

VELDE, François (2020), « What happened to the US economy during the 1918 influenza pandemic? A view through high-frequency data », Federal Reserve Bank of Chicago, working paper, n° 2020-11.

Partager cet article
Repost0
24 janvier 2021 7 24 /01 /janvier /2021 09:14
La pandémie et les inégalités mondiales

L’épidémie de Covid-19 et les mesures adoptées par les autorités en vue d’en freiner la propagation vont creuser les inégalités de revenu au sein de chaque pays. En effet, les pandémies qui ont marqué ces dernières décennies ont eu tendance à accroître les inégalités de revenu dans les pays qu’elles ont touchés [Furceri et alii, 2020]. Comme au cours des précédentes récessions, la hausse du chômage qui a été provoquée par l’actuelle pandémie a certainement affecté de façon disproportionnée les travailleurs les moins qualifiés, mais cet effet pourrait être encore plus marqué dans l’actuelle récession, dans la mesure où ce sont les travailleurs les plus qualifiés qui peuvent le plus facilement travailler à distance et où l’épidémie risque d’accroître les incitations des entreprises à automatiser leur production [Saadi Sedik et Yoo, 2021]. La détérioration de la situation des plus modestes s’avère plus dramatique dans les pays en développement, dans la mesure où ces derniers sont généralement dotés d’un système de protection sociale peu développé. Par conséquent, la pandémie a certainement ramené des dizaines de millions de personnes à travers le monde dans la pauvreté extrême (cf. graphique 1) [Lakner et alii, 2021]. Pour autant, contrairement à ce que l’on pourrait penser et à ce qu’affirment effectivement certains, notamment Joseph Stiglitz (2020), la pandémie a peut-être réduit les inégalités de revenu entre les pays.

GRAPHIQUE 1  Nombre de personnes à travers le monde en situation de pauvreté extrême (en millions)

La pandémie et les inégalités mondiales

source : Lakner et alii (2021)

En effet, comme le souligne Angus Deaton (2021), les pays qui ont connu la plus forte mortalité sont également ceux qui ont vu leur revenu chuter le plus amplement (cf. graphique 2). Finalement, contrairement à ce que beaucoup ont prétendu, il n’y a pas d’arbitrage entre la santé et le revenu : une hausse de la mortalité s’est traduite par une chute du revenu par habitant. Il est difficile d'affirmer que les confinements sauvent des vies en détruisant l’économie.

GRAPHIQUE 2  Croissance du revenu par tête prévue en 2020 et nombre de morts par million d’habitants

La pandémie et les inégalités mondiales

source : Deaton (2021)

note : la taille des cercles est proportionnelle à la population et les cercles noirs représentent les pays de l’OCDE

Or, ce ne sont pas les pays pauvres qui ont connu la plus forte mortalité : ce sont les pays riches (cf. graphique 3), et ce malgré le fait qu’ils disposent a priori non seulement d’un système de santé et d’une protection sociale plus développés, mais aussi d’institutions plus efficaces et de dirigeants plus compétents. Beaucoup ont critiqué la gestion de l’épidémie par l’administration Trump, mais, comme le note Deaton, lorsque l’on regarde le nombre de morts par million d’habitants, les Etats-Unis ne font guère pire que d’autres pays développés et n’apparaissent pas comme une franche anomalie statistique.

GRAPHIQUE 3  Nombre de morts de la Covid-19 par million d’habitants et revenu par tête en 2019

La pandémie et les inégalités mondiales

source : Deaton (2021)

note : la taille des cercles est proportionnelle à la population et les cercles noirs représentent les pays de l’OCDE

Finalement, si l’on se contente d’observer les pays sans tenir compte de la taille de leur population, il apparaît que les inégalités de revenu internationales, mesurées par la dispersion des revenus par tête entre les pays, ont décliné (cf. graphique 4). Par contre, lorsque l’on pondère les pays en fonction de la taille de leur population, il apparaît que les inégalités de revenu internationales ont légèrement augmenté. Cet apparent paradoxe ne s’explique pas par une chute des revenus plus rapide dans les pays pauvres que dans les pays riches, mais par l’évolution de la Chine.

GRAPHIQUE 4  Ecart-type du logarithme du revenu par tête (en dollars PPA)

La pandémie et les inégalités mondiales

source : Deaton (2021), d’après les prévisions du FMI en octobre 2019 (traits en pointillés) et en 2020 (traits continus)

Pendant plusieurs décennies, la forte croissance chinoise a permis à des centaines de millions de Chinois de quitter la pauvreté extrême, si bien qu’elle a contribué à réduire les inégalités de revenu mondiales. Mais, à présent, la Chine n’est plus un pays pauvre. Elle a connu peu de morts et sa croissance économique s’est poursuivie, permettant à son économie de s’éloigner davantage de celle des pays pauvres. Aujourd’hui, parmi la population mondiale de 7,8 milliards d’êtres humains, 4,4 milliards vivent dans des pays dont le revenu par tête est inférieur à celui de la Chine et seulement 2,0 milliards de personnes vivent dans des pays dont le revenu par tête est supérieur à celui de la Chine. Par conséquent, comme l’ont pressenti Angus Deaton (2013) et Branko Milanovic (2018), la poursuite de la croissance chinoise contribue désormais, non plus à réduire les inégalités de revenu mondiales, mais à les creuser. C’est précisément ce qui se passe lors de la pandémie.

 

Références

DEATON, Angus (2013), The Great Escape: Health, Wealth, and the Origins of Inequality, Princeton. Traduction française, La Grande Evasion, PUF.

DEATON, Angus (2021), « COVID-19 and global income inequality », document de travail.

FURCERI, Davide, Prakash LOUNGANI, Jonathan D. OSTRY & Pietro PIZZUTO (2020), « Will Covid-19 affect inequality? Evidence from past pandemics », in CEPR, COVID Economics: Vetted and real-time papers, n° 12.

LAKNER, Christoph, Nishant YONZAN, Daniel Gerszon MAHLER, R. Andres CASTANEDA & Haoyu WU (2021), « Actualisation des estimations de l'impact de la pandémie de COVID-19 sur la pauvreté : retour sur 2020 et perspectives pour 2021 », Banque mondiale, Blog de données, 11 janvier. 

MILANOVIC, Branko (2016), Global Inequality: A New Approach for the Age of Globalization, Belknap. Traduction française, Inégalités mondiales, La Découverte. 

SAADI SEDIK, Tahsin, & Jiae YOO (2021), « Pandemics and automation: Will the lost jobs come back? », FMI, working paper, n° 21/11.

STIGLITZ, Joseph (2020), « Vaincre la Grande Fracture », in FMI, Finances & Développement, septembre.

Partager cet article
Repost0
4 janvier 2021 1 04 /01 /janvier /2021 08:00
La crise du SME : simplement le produit d'événements domestiques ?

Dans une nouvelle étude publiée par la Banque de France, Barry Eichengreen et Alain Naef (2020) sont revenus sur un événement crucial de la construction européenne, à savoir la crise du système monétaire européen (SME) en 1992-1993.

Ce dernier avait été créé en 1979 par des pays européens afin de limiter les fluctuations de leurs taux de change bilatéraux, mais aussi pour ouvrir ultérieurement la voie à une véritable unification monétaire. Les banques centrales des pays-membres s’étaient engagées à maintenir les fluctuations de leur monnaie dans des bandes étroites en référence à une unité de compte, l’écu. En pratique, toutefois, les différentes diverses étaient ancrées au deutschemark. La monnaie allemande constituait en effet la monnaie la plus forte parmi les devises du SME. Par conséquent, les différentes banques centrales des pays-membres prenaient leurs décisions en matière de politique monétaire en se conformant à celles de la Bundesbank.

Au cours de la seconde moitié de l’année 1992, plusieurs devises subirent une première vague d’attaques spéculatives et connurent de fortes fluctuations de leur taux de change, amenant plusieurs banques centrales à puiser dans leurs réserves de change pour contenir la dépréciation de leur monnaie. La lire italienne, la peseta espagnole et l’escudo portugais finissent par être dévaluées et la Grande-Bretagne par sortir du SME. L’été suivant, plusieurs devises firent l’objet d’une nouvelle vague d’attaques spéculatives. La Banque de France épuisa ses réserves en quelques semaines pour défendre le franc français. Début août, les Etats-membres se résolurent à fortement élargir les bandes de fluctuations des taux de change. Cette décision acta la fin du SME, mais elle fut suivie par la stabilisation des différents taux de change.

En montrant que la fixité des taux de change bilatéraux pour un ensemble de pays était instable, la crise du SME a signalé aux pays-membres la nécessité soit de faire marche arrière, soit d’accélérer le processus d’unification monétaire. C’est finalement la deuxième option qui a été retenue et la monnaie unique a finalement été lancée en 1999.

Comme le notent Eichengreen et Naef, la crise du SME ne fait toujours pas l’objet d’une interprétation qui fasse consensus près de trois décennies après. Une première série d’explications se focalise sur les fondamentaux macroéconomiques et les politiques économiques des pays dont la monnaie a été attaquée. Elle s’inspire des modèles de crises de change de première génération à la Paul Krugman (1979), qui interprètent les crises de change comme la conséquence de mauvais fondamentaux économiques ou de l’adoption d’une politique économique inadaptée. En effet, si les fondamentaux d’un pays se détériorent ou si ses autorités adoptent une politique insoutenable, alors son taux de change devrait avoir tendance à se déprécier s’il est libre de fluctuer. Mais si le taux de change est fixe, la monnaie risque d’être de plus en plus surévaluée, l’ancrage apparaîtra comme de moins en moins crédible et la monnaie finira par faire l’objet d’une attaque spéculative si les autorités monétaires tardent à la dévaluer. Dans cette optique, la livre sterling aurait été attaquée parce qu’elle avait été introduite dans le SME à une parité surévaluée ; la lire italienne aurait été attaquée en raison du niveau excessif des dettes et déficits italiens ; des monnaies scandinaves auraient été attaquées en raison de l’insolvabilité des banques scandinaves ; le franc français aurait été attaqué en raison de la politique jugée insoutenable que le gouvernement avait adoptée pour combattre le chômage, etc.

Une deuxième série d’explications souligne la fragilité des ancrages de monnaie dans un contexte de forte mobilité des capitaux [Eichengreen et Wyplosz 1993 ; 1994]. Elle s’inspire des modèles de crises de change de deuxième génération à la Maurice Obstfeld (1994). Selon eux, une sortie des capitaux, qu’importe sa cause, affecte la performance économique d’un pays ou entraîne une modification de la politique économique de telle façon que la monnaie finit par faire l’objet d’une attaque spéculative. Par exemple, la banque centrale risque de relever ses taux d’intérêt pour défendre la parité, mais un tel resserrement monétaire dégrade les fondamentaux économiques, ce qui entraîne ou amplifie la surévaluation de la monnaie et rend l’ancrage moins crédible aux yeux des investisseurs financiers. Si ces derniers attaquent la monnaie, la banque centrale risque de finir par abandonner l’ancrage, dans la mesure où ses réserves de change ne sont pas infinies. Par conséquent, la simple anticipation, même erronée, qu’un ancrage s’avère insoutenable entraîne un enchaînement d’événements conduisant à une crise de change et à l’abandon de l’ancrage. Dans ces modèles de crises de change de deuxième génération, de tels événements peuvent ainsi être auto-réalisateurs.

L’ouverture des pays européens aux flux de capitaux étrangers et notamment le retrait de leurs contrôles des capitaux les exposèrent à de tels phénomènes. Mais ce serait avant tout le rejet du Traité de Maastricht par le Danemark lors d’un référendum tenu le 2 juin 1992 qui a suscité des doutes quant au projet d’unification monétaire et amorcé ainsi une sortie des capitaux dans d’autres pays-membres du système. La Banque d’Angleterre réagit à celle-ci en relevant ses taux directeurs, or ce tel resserrement monétaire déprima son marché de l’immobilité et sa compétitivité. En Italie, la hausse des taux d’intérêt alourdit le coût de service de la dette publique et détériora ainsi les finances publiques. Dans les pays scandinaves, elle aggrava la situation des banques, etc. En définitive, le maintien des parités définies dans le cadre du SME se révéla être de plus en plus coûteux pour les banques centrales.

Ces deux classes d’interprétations mettent souvent l’accent sur le rôle joué par les taux d’intérêt allemands dans la crise du SME. En effet, la réunification accéléra fortement l’inflation en Allemagne de l’Ouest. Soucieuse de maintenir la stabilité des prix, la Bundesbank réagit en relevant fortement ses taux d’intérêt. D’une part, ce resserrement monétaire alimenta le mouvement des capitaux du reste du SME vers l’Allemagne. D’autre part, il dégrada fortement l’activité économique dans le reste du SME, notamment parce qu’il contraint les autres banques centrales du SME à relever leurs propres taux pour freiner la sortie des capitaux et maintenir l’ancrage de leur monnaie sur le deutschemark. 

Eichengreen et Naef se sont penchés sur une troisième classe d’explications qui considèrent que les parités au sein du SME ont pu être déstabilisées par des événements qui lui furent extérieurs. En l’occurrence, le dollar américain était à l’époque une monnaie faible, ce qui alimenta les conversions du dollar en deutschemark. La monnaie allemande eut alors tendance à s’apprécier vis-à-vis du dollar (cf. graphique 1) et des autres devises du SME. Cette troisième classe d’explications, qui n’est pas exclusive avec les deux premières, amène à conclure que la crise du SME a été le produit, non seulement d’événements internes au SME, mais également d’événements extérieurs à celui-ci : elle a été en partie importée.

GRAPHIQUE 1  Taux de change du dollar américain vis-à-vis du deutschemark 

La crise du SME : simplement le produit d'événements domestiques ?

source : Eichengreen et Naef (2020)

Profitant des archives relatives à cette période que la Banque d’Angleterre a récemment rendues publiques, Eichengreen et Naef ont constitué une base de données relatives aux interventions sur le marché des changes pour 14 pays européens pour la période allant de 1986 à 1995. Ils ont utilisé ces données en combinaison avec celles relatives aux taux d’intérêt et aux taux de change pour construire un indice de pression sur le marché des changes (cf. graphique 2). Celui-ci indique que la pression sur les devises du SME a commencé à s’intensifier avant la tenue du référendum danois sur le Traité de Maastricht, ce qui suggère que celui-ci a été au mieux un facteur aggravant, mais non l’amorce, de la crise du SME. 

GRAPHIQUE 2  Pression sur le marché des changes (moyenne pour 12 pays-membres du SME)

La crise du SME : simplement le produit d'événements domestiques ?

source : Eichengreen et Naef (2020)

La phase la plus aiguë de la crise du SME semble avoir débuté avec les propos plus ou moins informels tenus par Helmut Schlesinger, le président de la Bundesbank à l'époque, au milieu du mois de septembre, à la veille du référendum français sur le Traité de Maastricht. Ceux-ci pouvaient être interprétés comme suggérant que la banque centrale allemande n’était peut-être pas prête à intervenir massivement pour soutenir le cours des autres monnaies. Autrement dit, ils purent signaler que la coopération entre les banques centrales du SME n’était pas illimitée. Ce sont de tels propos qui ont pu ainsi amener les investisseurs financiers à véritablement douter de la crédibilité du projet d’unification monétaire. 

 

Références

EICHENGREEN, Barry, & Alain NAEF (2020), « Imported or home grown? The 1992-3 EMS crisis », Banque de France, document de travail, n° 793.

EICHENGREEN, Barry, & Charles WYPLOSZ (1993), « The unstable EMS », in Brookings Papers on Economic Activity.

EICHENGREEN, Barry, & Charles WYPLOSZ (1994), « Pourquoi le SME a explosé et comment le relancer ? », in Revue économique, vol. 45, n° 3.

KRUGMAN, Paul (1979), « A model of balance of payments crises », in Journal of Money, Credit and Banking, vol. 11.

OBSTFELD, Maurice (1994), « The logic of currency crises », in Cahiers Economiques et Monétaires, vol. 43.

Partager cet article
Repost0
28 décembre 2020 1 28 /12 /décembre /2020 08:00
Quel est l’impact de l’épidémie de Covid-19 sur la productivité ?

Les répercussions économique de l’épidémie de Covid-19 font déjà l’objet d’une importante littérature, théorique comme empirique. A court terme, la pandémie génère une série de chocs d’offre et de demande négatifs : les individus réduisent leur offre de travail et consomment moins, ne serait-ce parce qu’ils réduisent leurs interactions physiques pour éviter de tomber malades ou d’infecter les autres [Eichenbaum et alii, 2020 ; Baqaee et Farhi, 2020]. Les individus optant en partie volontairement pour la distanciation physique, ces effets se manifestent même en l’absence de mesures de confinement [Aum et alii, 2020]. Plusieurs études empiriques suggèrent que les chocs de demande tendent à dominer les chocs d’offre, du moins à très court terme [Balleer et alii, 2020]. Même si l’épidémie et les mesures adoptées par les autorités en vue de la contenir se traduisaient essentiellement par un choc d’offre pour certains secteurs de l’économie, celui-ci peut facilement dégrader la demande dans les autres secteurs ce qui amplifie la contraction de l’activité, notamment avec la multiplication des faillites d’entreprises et la hausse du taux de chômage [Guerrieri et alii, 2020].

A plus long terme, la pandémie de Covid-19 risque d’avoir des effets durables sur l’économie, comme le suggèrent les précédentes pandémies qui ont marqué l’Histoire. Oscar Jordà et alii (2020) ont en effet noté que les taux de rendement sur les actifs restaient faibles plusieurs décennies après chaque grande pandémie. En effet, les épidémies, contrairement aux guerres, ne détruisent pas le stock de capital, ce qui réduit les incitations des entreprises à investir ; d’autre part, les populations pourraient tendre à davantage épargner, pour un motif de précaution. Autrement dit, non seulement l’intervention publique semble nécessaire en raison du sous-investissement et de l’excès d’épargne, mais en outre cette dernière facilite son financement par endettement en maintenant les taux d'intérêt à un faible niveau.

Afin de mieux saisir les répercussions économiques de l’épidémie de Covid-19, Nicholas Bloom, Philip Bunn, Paul Mizen, Pawel Smietanka et Gregory Thwaites (2020a) ont analysé son impact sur la productivité au Royaume-Uni en utilisant les données tirées du Decision Maker Panel, une vaste enquête menée auprès de milliers d’entreprises. Leurs estimations suggèrent que l’épidémie de Covid-19 devrait réduire la productivité globale des facteurs dans le secteur privé d’environ 3 % en moyenne entre le deuxième trimestre 2020 et le deuxième trimestre 2021, relativement à ce qu’elle aurait été sinon, et d’environ 1 % en 2022 et au-delà (cf. graphique 1). C’est au quatrième trimestre 2020 qu’elle atteindrait son creux, en baissant alors de 5 %. En l’occurrence, les entreprises anticipent une forte réduction de la productivité au sein de l’entreprise, essentiellement parce qu’elles s’attendent à ce que les mesures visant à contenir l’épidémie accroissent le coût des consommations intermédiaires.

GRAPHIQUE 1  Impact de la pandémie de Covid-19 sur les mesures de productivité au Royaume-Uni (en %, relativement au scénario de base)

Quel est l’impact de l’épidémie de Covid-19 sur la productivité ?

source : Bloom et alii (2020a)

L’effet négatif sur la productivité au sein des entreprises est en partie compensé par un effet positif au niveau de l’ensemble des entreprises, dans la mesure où les secteurs à faible productivité et les firmes les moins productives parmi eux sont disproportionnellement affectées par l’épidémie de Covid-19 et contribuent par conséquent à une part moins importante de l’économie. Par conséquent, la pandémie devrait réduire la productivité globale des facteurs d’environ 0,7 % à moyen terme. 

L’impact positif sur la productivité que Bloom et ses coauteurs décèlent au niveau de l’ensemble des entreprises suggère-t-il que l’épidémie de Covid-19 alimente un processus schumpétérien de destruction créatrice ? En l’occurrence, les firmes présentant la plus faible productivité disparaissent-elles en étant remplacées par des entreprises plus productives ? C’est en partie le cas, mais seulement en partie. En effet, l’économie connaît pour l’essentiel une simple destruction des secteurs présentant une faible productivité. Des secteurs comme ceux de l’hébergement, de la restauration, du voyage et des loisirs se sont fortement contractés, mais les autres secteurs n’ont connu qu’une expansion limitée, ce qui empêche une réallocation des facteurs, notamment des travailleurs, vers les secteurs en expansion. Finalement, la productivité moyenne a augmenté, mais la production totale a décliné.

GRAPHIQUE 2  Dépenses d’investissement en recherche d’investissement au Royaume-Uni (à prix constants, en indices, base 100 en 2018)

Quel est l’impact de l’épidémie de Covid-19 sur la productivité ?

source : Bloom et alii (2020a)

Bloom et ses coauteurs estiment que l’épidémie freinera la croissance de la productivité à plus long terme. Tout d’abord, les entreprises ont fortement réduit leurs dépenses en recherche-développement (cf. graphique 2). Quant aux efforts de recherche-développement, ceux-ci risquent d’être moins efficaces qu’habituellement, dans la mesure où les scientifiques et les ingénieurs peuvent moins accéder physiquement aux équipements. D’autre part, l’épidémie a été très chronophage pour les dirigeants : ces derniers ont consacré un tiers de leur temps à gestion de la pandémie, un temps qu’ils n’ont donc pas pu consacrer à des activités améliorant la productivité à long terme, notamment les projets d'innovation. Autrement dit, les effets de l'épidémie risquent de se conjuguer à ceux de tendances de plus long terme pour freiner le progrès technique [Gordon, 2012 ; Bloom et alii, 2020b]. Les effets de la pandémie sont en partie pris en compte par les entreprises lorsque celles-ci anticipent que la productivité globale des facteurs sera à moyen terme inférieure de 1 % à ce qu’elle aurait été sinon, mais Bloom et ses coauteurs craignent qu’ils ne se soient pour l’heure qu’en partie manifestés.

 

Références

AGHION, Philippe (2020), « Le Covid amplifie la destruction créatrice », in Les Echos, 16 décembre.

AUM, Sangmin, Sang Yoon (Tim) LEE, Yongseok SHIN (2020), « COVID-19 doesn't need lockdowns to destroy jobs: The effect of local outbreaks in Korea », NBER, working paper, n° 27264.

BALLEER, Almut, Sebastian LINK, Manuel MENKHOFF & Peter ZORN (2020), « Demand or supply? Price adjustment during the Covid-19 pandemic », in CEPR, Covid Economics: Vetted and Real-Time Papers, n° 31.

BAQAEE, David, & Emmanuel FARHI (2020), « Supply and demand in disaggregated Keynesian economies with an application to the Covid-19 crisis », NBER, working paper, n° 27152.

BLOOM, Nicholas, Philip BUNN, Paul MIZEN, Pawel SMIETANKA & Gregory THWAITES (2020), « The impact of Covid-19 on productivity », Banque d’Angleterre, staff working paper, n° 900.

BLOOM, Nicholas, Charles I. JONES, John Van REENEN & Michael WEBB (2020), « Are ideas getting harder to find? », in American Economic Review.

EICHENBAUM, Martin, Serigio REBELO & Mathias TRABANDT (2020), « The macroeconomics of epidemics », NBER, working paper, n° 26882.

GORDON, Robert (2012), « Is US economic growth over? Faltering innovation confronts the six headwinds », CEPR, policy insight, n° 63.

GUERRIERI, Veronica, Guido LORENZONI, Ludwig STRAUB & Iván WERNING (2020), « Macroeconomic implications of COVID-19: Can negative supply shocks cause demand shortages? », NBER, working paper, n° 26918.

JORDÀ, Oscar, Sanjay R. SINGH & Alan M. TAYLOR (2020), « Longer-run economic consequences of pandemics », Federal Reserve Bank of San Francisco, working paper, n° 2020-09.

Partager cet article
Repost0
21 décembre 2020 1 21 /12 /décembre /2020 15:33
Nicholas Orchard/Hans Lucas via AFP

Nicholas Orchard/Hans Lucas via AFP

L’une des mesures prises par les autorités à travers le monde pour freiner la propagation de l’épidémie de Covid-19 et éviter une saturation totale des systèmes hospitaliers a été de fermer les établissements scolaires. En avril, 192 pays avaient fermé toutes leurs écoles, ce qui avait forcé 1,5 milliard d’élèves à travers le monde à rester chez eux. Au début de ce mois de décembre, un écolier sur cinq dans le monde était touché par la fermeture de sa classe, d’après les Nations Unies.

Ces fermetures d'écoles sont encore trop récentes pour que les chercheurs aient pu pleinement évaluer leurs effets. La littérature existante a toutefois bien montré que les fermetures d’écoles et l’absentéisme scolaire dégradent les performances scolaires des élèves [Marcotte, 2007 ; Marcotte et Hemelt, 2008 ; Goodman, 2014 ; Aucejo et Romano, 2016 ; Gershenson et alii, 2017 ; Jaume et Willén, 2019]. Elles suggèrent également que ceux-ci ont un impact significatif sur la trajectoire professionnelle ultérieure. D’après la littérature développée autour de l’« équation de Mincer » (1974), chaque année d’études supplémentaires accroîtrait les revenus futurs d’environ 9 %. Ainsi, certaines estimations suggèrent que si un étudiant perd environ un tiers d’une année scolaire, il connaîtra une perte de revenu d’environ 3 % en moyenne sur l’ensemble de sa vie active [Hanushek et Woessmann, 2020]. L’expérience naturelle qu’a constituée la Seconde Guerre mondiale montre que l’absence de scolarisation continue d’exercer ses effets plusieurs décennies après [Ichino et Winter-Ebmer, 2004]. Les coûts ne seront pas qu’individuels : si le potentiel de croissance des économies tient étroitement au stock de capital humain de leurs résidents [Égert et alii, 2020], celui-ci ne manquera pas de s’en trouver dégradé. Et bien sûr, les coûts ne sont pas qu’économiques : les élèves subissent une perte de bien-être immédiate, perdent en sociabilité, souffrent davantage d’isolement, de dommages psychologiques, etc.

Les rares études dont nous disposons pour l’heure quant à l’impact des fermetures d’écoles confirment que celles-ci ont bien dégradé les performances scolaires des élèves [Chetty et alii, 2020], précisément parce qu’elles ont privé les élèves d’une grande partie de leurs interactions, notamment physiques, avec leurs professeurs [Chetty et alii, 2014]. La fermeture des écoles lors du printemps amputerait déjà les rémunérations qui seront perçues sur l’ensemble de la carrière de l’équivalent de 2.833 dollars dans les pays à faible revenu, de 6.777 dollars dans les pays à revenu intermédiaire et de 21.158 dollars dans les pays à haut revenu [Psacharopoulos et alii, 2020]. Elle peut se révéler particulièrement désastreuse à long terme pour les populations des pays pauvres, notamment face aux autres épidémies : la scolarisation y joue un rôle crucial pour diffuser les bonnes pratiques en matière de santé.

Au sein de chaque pays, la dégradation des performances scolaires n’a pas été uniforme d’un milieu social à l’autre. Les études disponibles montrent que les élèves des familles les plus modestes en sont davantage pénalisés que ceux issus de familles plus aisées ; c’est le cas de l’étude d'Alison Andrew et alii (2020), d’Elisabeth Grewenig et alii (2020), d’Andrew Bacher-Hicks et alii (2020) ou encore de Joana Maldonado et Kristof De Witte (2020) portant respectivement sur les élèves anglais, allemands, américains et belges. Ce sont les élèves de milieux modestes qui ont le plus réduit le temps quotidien consacré aux activités éducatives. Non seulement ils tendent à avoir moins de ressources matérielles que les élèves de milieux plus aisés pour suivre les cours en ligne, mais ils souffrent également du moindre engagement et du moindre niveau scolaire de leurs parents pour les motiver et pour les aider. Autrement dit, les inégalités dans l’accès au numérique sont très loin d’expliquer les écarts dans le suivi des cours à distance. Par conséquent, non seulement les élèves de milieux modestes pourraient voir leurs difficultés s’accentuer dans la suite de leur scolarité, mais en conséquence les inégalités dans l’accès à l’emploi et en termes de salaires pourraient ultérieurement se creuser davantage. L’impact sur la scolarisation pourrait finalement être l’un des canaux via lesquels les pandémies tendent à creuser les inégalités de revenu à long terme [Furceri et alii, 2020].

Depuis le début de l’épidémie de Covid-19 beaucoup, notamment parmi les économistes, ont cherché à dresser des parallèles entre celle-ci et la grippe espagnole en 1918-1919. Il y a un siècle, de nombreux établissements scolaires avaient été fermés pour contenir la propagation de la pandémie. Philipp Ager, Katherine Eriksson, Ezra Karger, Peter Nencka et Melissa Thomasson (2020) ont alors cherché à déterminer les répercussions des fermetures d’écoles aux Etats-Unis en 1918-1919 en se penchant sur celles de 168 des plus grosses villes américaines de l’époque.

Ager et ses coauteurs n’ont tout d’abord décelé aucun effet significatif de la fermeture des écoles en 1918-1919 sur la fréquentation des établissements scolaires en 1919-1920. Ils n’ont pas non plus observé d’hétérogénéité dans leurs résultats selon la profession des parents ou le sexe et l’origine ethnique des élèves. Ensuite, ils ont étudié les données du recensement de 1940 pour déterminer quel impact à long terme ces fermetures d’écoles ont pu avoir sur la trajectoire des élèves qui les fréquentaient. Ils n’ont pas décelé d’impact sur le niveau de diplôme, le salaire, le revenu non salarial et le nombre d’heures travaillées en 1940. A nouveau, ils n’ont pas non plus observé d’hétérogénéité dans leurs résultats selon les caractéristiques sociodémographiques des élèves. Par conséquent, la pandémie a pu affecter la performance scolaire immédiate des étudiants en 1918-1919, mais les fermetures d’écoles ne semblent pas avoir eu d’effets significatifs à long terme sur les diverses variables étudiées.

Les constats tirées de cette étude ne peuvent pleinement nous rassurer, tant, comme Ager et ses coauteurs ne manquent pas de le noter, il y a de grandes différences entre ces deux épisodes pandémiques. En effet, les écoles ont été fermées bien moins longtemps en 1918-1919 qu'elles ne l'ont été au cours de cette année. Dans les villes américaines qu’Ager et alii observent, les écoles ont été fermées pendant 36 jours en moyenne et plusieurs villes décidèrent de rattraper en allongeant l’année scolaire. En outre, l’épidémie de grippe espagnole s’est révélée bien plus mortelle pour les plus jeunes, ce qui a favorisé les comportements de distanciation physique de leur part et notamment l’absentéisme scolaire : beaucoup d’élèves sont restés chez eux, indépendamment des décisions prises par les autorités quant à l’ouverture de leur établissement scolaire. Enfin, le fait qu’il n’y avait pas de possibilités de faire des cours à distance il y a un siècle a réduit la propension des fermetures d’écoles lors de l’épidémie de grippe espagnole à creuser les inégalités sociales, tout d’abord en termes de réussite scolaire.

 

Références

AGER, Philipp, Katherine ERIKSSON, Ezra KARGER, Peter NENCKA & Melissa A. Thomasson (2020), « School closures during the 1918 flu pandemic », NBER, working paper, n° 28246.

Agostinelli, Francesco, Matthias Doepke, Giuseppe Sorrenti & Fabrizio Zilibotti (2020), « When the Great Equalizer shuts down: Schools, peers, and parents in pandemic times », IZA, discussion paper, n° 13965.

Andrew, Alison, Sarah Cattan, Monica Costa Dias, Christine Farquharson, Lucy Kraftman, Sonya Krutikova, Angus Phimister & Almudena Sevilla (2020), « Inequalities in children’s experiences of home learning during the COVID-19 lockdown in England », in Fiscal Studies, vol. 41, n° 3.

AUCEJO, Esteban M., & Tereso Foy ROMANO (2016), « Assessing the effect of school days and absences on test score performance », in Economics of Education Review, vol. 55.

BACHER-HICKS, Andrew, Joshua GOODMAN & Christine MULHERN (2020), « Inequality in household adaptation to schooling shocks: Covid-induced online learning engagement in real time », NBER, working paper, n° 27555.

CHETTY, Raj, John N. FRIEDMAN, Nathaniel HENDREN & Michael STEPNER (2020), « How did Covid-19 and stabilization policies affect spending and employment? A new real-time economic tracker based on private sector data ».

CHETTY, Raj, John N. FRIEDMAN & Jonah E. ROCKOFF (2014), « Measuring the impacts of teachers II: Teacher value-added and student outcomes in adulthood », in American Economic Review, vol. 104, n° 9.

ÉGERT, Balázs, Jarmila BOTEV & David TURNER (2020), « The contribution of human capital and its policies to per capita income in Europe and the OECD », CESifo, working paper, n° 8776.

FURCERI, Davide, Prakash LOUNGANI, Jonathan D. OSTRY & Pietro PIZZUTO (2020), « Will Covid-19 affect inequality? Evidence from past pandemics », in CEPR, COVID Economics: Vetted and real-time papers, n° 12.

GERSHENSON, Seth, Alison JACKNOWITZ & Andrew BRANNEGAN (2017), « Are student absences worth the worry in U.S. primary schools?  », in Education Finance and Policy, vol. 12, n° 2.

GOODMAN, Joshua (2014), « Flaking out: Student absences and snow days as disruptions of instructional time », NBER, working paper, n° 20221.

GREWENIG, Elisabeth, Philipp LERGETPORER, Katharina WERNER, Ludger WOESSMANN & Larissa ZIEROW (2020), « COVID-19 and educational inequality: How school closures affect low- and high-achieving students », CESifo, working paper, n° 8648.

HANUSHEK, Eric A., & Ludger WOESSMANN (2020), The Economic Impacts of Learning Losses, OCDE.

ICHINO, Andrea, & Rudolf WINTER-EBMER (2004), « The long-run educational cost of World War II », in Journal of Labor Economics, vol. 22, n° 1.

JAUME, David, & Alexander WILLÉN (2019), « The long-run effects of teacher strikes: Evidence from Argentina », in Journal of Labor Economics, vol. 37, n° 4.

Maldonado, Joana Elisa, & Kristof De Witte (2020), « The effect of school closures on standardized student test outcomes », KU Leuven, discussion paper, n° 20.17.

MARCOTTE, Dave (2007), « Schooling and test scores: A mother-natural experiment », in Economics of Education Review, vol. 26, n °5.

MARCOTTE, Dave E., & Steven W. HEMELT (2008), « Unscheduled school closings and student performance », in Education Finance and Policy, vol. 3, n° 3.

MINCER, Jacob (1974), Schooling, Experience, and Earnings, NBER.

PSACHAROPOULOS, George, Victoria COLLIS, Harry Anthony PATRINOS & Emiliana VEGAS (2020), « Lost wages: The COVID-19 cost of school closures », IZA, discussion paper, 13641. 

Partager cet article
Repost0
13 décembre 2020 7 13 /12 /décembre /2020 15:32
PIB, bien-être et santé

Le PIB joue un rôle important pour mesurer la création de richesses dans un pays et la comparer avec celle des autres pays. La simple conversion des PIB (ou PIB par tête) des différents pays dans la même unité monétaire ne permet toutefois pas de réaliser correctement des comparaisons immédiates, ne serait-ce que parce que le niveau des prix n’est pas le même d’un pays à l’autre. Dans la mesure où les prix sont plus faibles dans la plupart des pays qu’aux Etats-Unis, les PIB mesurés en parités de pouvoir d’achat sont souvent plus importants qu’en termes de taux de change de marché (cf. graphique 1). En l’occurrence, en termes de taux de change de marché, l’économie chinoise est plus petite que l’économie américaine. Mais en parité de pouvoir d’achat, l’économie chinoise contribue davantage à la production mondiale que l’économie américaine.

GRAPHIQUE 1  PIB d’une sélection de pays (en millions de dollars américains)

PIB, bien-être et santé

source : Deaton et Schreyer (2020), d’après les données du PCI

Les estimations des parités de pouvoir d’achat sont actualisées par le Programme de comparaison internationale (PCI) à un rythme pluriannuel. Les nouvelles estimations ont été publiées au mois de mars et concernent l’année 2017 ; les précédentes estimations avaient été publiées en 2014 et concernaient l’année 2011 [Deaton et Aten, 2014]. Angus Deaton et Paul Schreyer (2020) viennent de commenter les nouvelles estimations. Ils notent que la plus grande nouvelle est précisément l’absence de nouvelle : contrairement aux précédentes publications, les estimations de l’année 2017 ne sont guère différentes des prévisions qui pouvaient être faites en extrapolant les estimations de 2011. Cela contraste avec les publications passées du PCI : les estimations pour l’année 2011 étaient éloignées des prévisions effectuées à partir des estimations de l’année 2005, tout comme les estimations pour l’année 2005 ne collaient guère avec les prévisions obtenues en extrapolant les estimations de l’année 1993. 

Cette nouvelle publication du PCI offre l’occasion à Deaton et Schreyer de revenir sur les limites du PIB comme indicateur de bien-être. La première qu’ils évoquent est le décalage entre le PIB des pays et leurs performances en termes de santé. On pourrait s'attendre à ce que la croissance économique d’un pays s’accompagne d’une amélioration de la santé de ses habitants : a priori, non seulement les conditions de vie tendent à s’améliorer, mais en outre davantage de ressources tendent à être consacrées  aux soins. En outre, les dépenses de santé font comptablement partie intégrante du PIB, si bien que leur accroissement augmente mécaniquement celui-ci à court terme. Elles ne sont pas non plus sans contribuer à stimuler la croissance économique à long terme, par exemple en rendant les travailleurs plus efficaces. Si les pays consacrent davantage de richesses à la prévention des épidémies, leur économie serait moins affectée par celle-ci (tout comme les dépenses dans la lutte contre le réchauffement climatique réduisent l’ampleur de celui-ci, donc l’ampleur de ses dommages économiques). La prévention des épidémies et plus largement les dépenses de santé constituent un investissement. Par conséquent, il n’est pas surprenant que nous puissions observer une forte corrélation entre mortalité, morbidité et PIB par tête : par exemple, les habitants des pays pauvres tendent à vivre moins longtemps que les habitants des pays riches. Mais cette relation n’est pas parfaite (cf. graphique 2).

GRAPHIQUE 2  Dépenses de consommation individuelle effective par tête et espérance de vie à la naissance en 2017

PIB, bien-être et santé

source : Deaton et Schreyer (2020), d’après les données du PCI et de la Banque Mondiale

Dans les faits, la croissance économique ne s’accompagne pas mécaniquement d’une amélioration des indicateurs de santé, comme l’illustre le cas très exceptionnel des Etats-Unis : ces derniers dépensent deux fois plus dans la santé que les autres pays, mais ils présentent la plus faible espérance de vie relativement aux autres pays riches. Ou, comme le montre l’actuelle pandémie de coronavirus, des niveaux élevés de PIB par tête ou de dépenses de santé ne suffisent pas pour protéger les pays contre une pandémie et, par conséquent, pour les protéger contre les importantes pertes de revenus que celle-ci va occasionner [Cooray et alii, 2020].

Ce décalage tient notamment aux inégalités dans la répartition des revenus et dans l’accès au système de santé. Ce n’est pas parce qu’un pays s’enrichit que chacun de ses habitants voit son niveau de vie augmenter, tout comme une hausse des dépenses de santé ne bénéfice pas forcément à l’ensemble des habitants. Les Etats-Unis ont beau présenter des niveaux élevés de PIB par tête et de dépenses de santé par habitant, l’espérance de vie de leurs résidents a eu tendance à décliner ces dernières décennies, notamment en raison des « morts de désespoir » (deaths of despair), c’est-à-dire par suicide, overdose de drogue ou maladie liée à la consommation d’alcool, qui frappent à un rythme équivalent à celui « du crash quotidien de trois Boeing 747 MAX remplis à ras bord » les populations blanches peu diplômées exposées au chômage et à la modération salariale. Cette autre « épidémie » qui touchait les Etats-Unis avant même qu'éclate celle du coronavirus est bien l’un des revers de l’accroissement des inégalités de revenu et de richesses observé aux Etats-Unis depuis les années quatre-vingt [Saez et Zucman, 2020].

Outre la santé et la qualité de l’air, il y a d’autres aspects de la qualité de vie que le PIB ne capture pas, comme la sociabilité, l’équilibre entre vie professionnelle et vie privée, la démocratie, la sécurité et le bonheur. Il faut dire qu’il n’a jamais eu la prétention de le faire. Ce n’est pas la qualité de vie que Simon Kuznets et les autres concepteurs du PIB ont cherché à mesurer en concevant celui-ci. D’autres indicateurs sont nécessaires en complément du PIB [Nordhaus et Tobin, 1972 ; Stiglitz et alii, 2009 ; Gadrey et Jany-Catrice, 2016].

Pour autant, Deaton et Schreyer soulignent qu’un PIB, même exprimé en dollars PPA, peut être trompeur lorsqu’il s’agit de mesurer le bien-être matériel. La consommation par tête est certes fortement corrélée au PIB par tête, mais elle convient davantage pour mesurer ce bien-être. Par exemple, les Etats-Unis et la Chine ont certes à peu près le même PIB, ces deux économies ne consacrent pas la même part de leur PIB à la consommation. Plus largement, plusieurs pays présentent un PIB par habitant bien plus élevé que leur consommation par tête, généralement soit parce qu’ils reçoivent un flux important d’investissements directs à l’étranger (comme dans le cas de l’Irlande et des îles Caïmans), soit parce qu’ils tirent d’importantes rentes de l’exportation de leurs ressources naturelles (comme dans le cas du Qatar, des Emirats Arabes Unis et de la Norvège) (cf. graphique 3). Dans l’un et l’autre cas, la consommation représente une faible part du PIB souvent parce que les profits représentent une plus grosse part du revenu national que les salaires. Les profits vont certes accroître les revenus de certains résidents, mais le PIB par tête va alors évoluer indépendamment du bien-être matériel de la majorité de la population.

GRAPHIQUE 3  Les 12 pays présentant le plus haut PIB par tête (en dollars PPA de 2017)

PIB, bien-être et santé

source : Deaton et Schreyer (2020), d’après les données du PCI

L’exemple irlandais montre clairement l’effet des transferts de profits. Durant la seule année 2015, l’Irlande a ainsi vu son PIB s’accroître de 26 % en termes réels, mais quasi totalement en raison des transferts de profits réalisés par des multinationales attirées par la faible fiscalité locale : les Irlandais n’ont vu leur revenu disponible par tête croître « que » de 4,6 %. Le Luxembourg présente également un RNB bien inférieur à son PIB en raison des flux de travailleurs transfrontaliers : 40 % des travailleurs employés sur son territoire vivent en France, en Allemagne ou en Belgique, si bien qu’ils dépensent à l’étranger leur salaire. Dans le cas de l’Irlande comme du Luxembourg, le PIB se révèle trompeur, précisément parce qu’il mesure la quantité de richesses produites dans un pays, or ces richesses ne sont pas forcément détenues par les résidents. Le RNB par tête s’avère ainsi bien plus pertinent que le PIB par tête pour mesurer le revenu gagné par les résidents.

En fait, il existe différentes façons de mesurer l’activité économique et partant la croissance économique. En d’autres termes, dire que celles-ci sont correctement mesurées par un indicateur donné reviendrait à « dire qu’un poney Shetland est un véritable cheval, qu’un loup gris est un véritable chien ou que le nombre de pics à bec d’ivoire dans une forêt mesure correctement la faune de celle-ci ». C’est notamment pour cette raison que Deaton et Schreyer sont peu convaincus par les différents travaux qui ont récemment cherché à mesurer le niveau d’activité économique des pays en utilisant l’intensité de la lumière électrique telle qu’elle est capturée par les satellites afin de surmonter les éventuelles insuffisances des système de comptabilité nationale [Hendersen et alii, 2012] ou pour déterminer si le PIB est mieux mesuré en parité de pouvoir d’achat ou aux taux de change de marché [Pinkovskiy et Sala-i-Martin, 2020].

GRAPHIQUE 4  Répartition du revenu entre pays (pondérée en fonction de la taille de la population)

PIB, bien-être et santé

source : Deaton et Schreyer (2020), d’après les données du PCI

Enfin, Deaton et Schreyer se penchent sur la question de la répartition des revenus. Le PCI ne donne pas d’informations sur la répartition du revenu au sein de chaque pays, mais il se révèle important pour mesurer la répartition mondiale du revenu. D’une part, ses données sont utilisées par la Banque mondiale pour mesurer la pauvreté extrême. D’autre part, il permet de mesurer les inégalités de consommation moyenne entre les pays. En l’occurrence, les inégalités mondiales apparaissent bien plus amples si elles sont calculées à partir des taux de change de marché qu’en parité de pouvoir d’achat. Le coefficient de Gini s’élève dans le premier cas à 0,49 et à 0,29 dans le second. En effet, dans la mesure où les prix à la consommation sont bien plus faibles dans les pays pauvres, les inégalités mondiales sont fortement exagérées lorsqu’elles sont mesurées aux taux de change de marché. Les nouvelles estimations du CPI confirment ainsi que les inégalités mondiales ont continué de refluer à la veille de la pandémie.

 

Références

CASE, Anne, & Angus DEATON (2015), « Rising morbidity and mortality in midlife among white non-hispanic Americans in the 21st century », in Proceedings of the National Academy of Sciences, vol. 112, n° 49.

CASE, Anne, & Angus DEATON (2020), Deaths of Despair and the Future of Capitalism, Princeton University Press.

COORAY, Arusha, Krishna Chaitanya VADLAMANNATI & Indra de SOYSA (2020), « Do bigger health budgets cushion pandemics? An empirical test of COVID-19 deaths across the world », WIDER, working paper, n° 2020/165.

DEATON, Angus, & Bettina ATEN (2014), « Trying to understand the PPPs in ICP2011: Why are the results so different? », NBER, working paper, n° 20244.

DEATON, Angus, & Paul SCHREYER (2020), « GDP, wellbeing, and health: Thoughts on the 2017 round of the International Comparison Program », NBER, working paper, n° 28177.

GADREY, Jean, & Florence JANY-CATRICE (2016), Les Nouveaux Indicateurs de richesse, La Découverte, quatrième édition.

HENDERSON, J. Vernon, Adam STOREYGARD & David N. WEIL (2012), « Measuring economic growth from outer space », in American Economic Review, vol. 102, n° 2.

NORDHAUS, William D., & James TOBIN (1972), « Is growth obsolete? », in Economic Research and Prospect, vol. 5: Economic Growth, NBER.

PINKOVSKIY, Maxim, & Xavier SALA-I-MARTIN (2020), « Shining a light on purchasing power parities », in American Economic Journal: Macroeconomics, vol. 12, n° 4.

SAEZ, Emmanuel, & Gabriel ZUCMAN (2020), « The rise of income and wealth inequality in America: Evidence from distributional macroeconomic accounts », NBER, working paper, n° 27922.

STIGLITZ, Joseph, Amartya SEN, Jean-Paul FITOUSSI (2009), Report by the Commission on the Measurement of Economic Performance and Social Progress.

Partager cet article
Repost0
6 décembre 2020 7 06 /12 /décembre /2020 13:28
crédit : AFP

crédit : AFP

Selon le théorème Modigliani-Miller (1958), la valeur d’une entreprise ne dépend pas de sa structure de financement, mais ce bien sûr à condition qu’un certain nombre d’hypothèses soient respectées. S’écartant de ce cadre théorique idyllique, certains ont suggéré qu'un recours excessif à l'endettement était susceptible de conduire à un sous-investissement. Stewart Myers (1977), par exemple, a montré que le risque de défaut réduit les incitations à investir des entreprises endettées. Ces dernières peuvent ne pas mettre en œuvre des projets ayant pourtant une valeur actuelle nette positive, dans la mesure où les actionnaires risquent de ne pas en bénéficier en cas de défaut. L’excès de dette (debt overhang) peut ainsi amener les firmes à réduire les dépenses qui n’ont pas de rendement immédiat, comme l’embauche, la formation du personnel et la recherche-développement. Au niveau agrégé, il pèserait ainsi sur l’emploi, l’investissement et, plus largement, la croissance économique, non seulement à court terme, mais aussi à long terme.

Or, l’endettement des entreprises s’est fortement accru dans le monde ces dernières décennies, en particulier dans les pays émergents. Dans les pays développés, le volume de crédit aux entreprises a par le passé représenté entre 50 % et 100 % du PIB (cf. graphique 1). Le ratio a eu tendance à augmenter de la fin du dix-neuvième siècle à la Première Guerre mondiale, puis à connaître une période de forte volatilité, avant de fortement chuter lors de la Seconde Guerre mondiale ; depuis, le ratio a doublé, le volume de crédit passant de 50 % à 100 % du PIB, et il atteint désormais son plus haut niveau en 150 ans dans plusieurs pays [Jordà et alii, 2020].

GRAPHIQUE 1  Ratio crédit aux entreprises non financières sur PIB dans les pays développés

Dette des entreprises : faut-il craindre des zombies ?

source : Jordà et alii (2020)

C’est en raison de ce niveau d’endettement que la situation des entreprises cristallise tant les inquiétudes aujourd’hui. La chute des flux de recettes provoquée par la pandémie et les mesures de confinement accroît les chances qu’une entreprise fasse faillite, et ce d’autant plus que celle-ci est endettée. Les firmes endettées peuvent en l’occurrence être tentées de réduire leurs dépenses pour continuer de rembourser leurs créanciers, mais ce faisant elles réduisent davantage les débouchés des autres entreprises et alimentent leurs difficultés financières, selon un processus proche de la déflation par la dette à la Fisher. Beaucoup craignent que de nombreux pays développés connaissent une nouvelle décennie perdue, après celle provoquée par la crise financière mondiale.

Mais la situation actuelle n’est précisément pas la même qu’en 2008. Il y a une décennie, les banques étaient sous-capitalisées et ce sont les ménages qui rencontraient des problèmes de surendettement, si bien que ce sont eux, et non les entreprises, qui cherchèrent alors à assainir leurs bilans. C’est ce processus de désendettement qui a provoqué la Grande Récession et freiné la subséquente reprise. Les difficultés financières peuvent être plus facilement résolues dans le cas des entreprises. D’une part, si la valeur d’exploitation d’une entreprise est supérieure à la valeur de marché de ses actifs, les propriétaires et les créanciers tirent profit d’une restructuration efficace de la dette, si bien qu’ils ont une forte incitation à procéder à celle-ci.  D’autre part, si la valeur d’exploitation d’une entreprise chute en-deçà de la valeur de marché de ses actifs, l’entreprise peut être liquidée, l’excès de dette effacé et les actifs réalloués vers d’autres usages productifs, a priori plus efficaces.

Pour autant, en pratique, la résolution des difficultés financières des entreprises ne se fait pas sans heurts. Même si la valeur d’exploitation d’une entreprise reste supérieure à la valeur de marché de ses actifs, les asymétries d’information entre les différentes parties prenantes et les difficultés de coordination peuvent compliquer, voire empêcher, une renégociation de la dette. Si la valeur d’exploitation d’une entreprise baisse en-deçà de la valeur de marché de ses actifs, l’entreprise n’est pas forcément liquidée ou sa liquidation ne sera pas forcément efficace. Une faible protection des créanciers ou un coût élevé des procédures judiciaires peuvent en effet décourager et retarder la liquidation. En outre, les prêteurs peuvent chercher à éviter d’essuyer des pertes et de déprécier leur bilan en reconduisant leurs prêts aux entreprises insolvables. Selon Ricardo Caballero, Takeo Hoshi et Anil Kashyap (2008), cette inclinaison des banques à reconduire leurs prêts non performants aux entreprises aurait tout particulièrement contribué à la stagnation que connaît l’économie japonaise depuis l’éclatement de ses bulles spéculatives à l’aube des années quatre-vingt-dix. Beaucoup estiment que les politiques ultra-accommodantes que les banques centrales ont adopté depuis la crise financière mondiale ont maintenu à flot de nombreuses entreprises insolvables ou, tout du moins, inefficaces ; le processus de réallocation des facteurs vers les entreprises les plus efficaces et innovantes étant enrayé, la reprise de l’activité s’en serait trouvée freinée et le potentiel de croissance à long terme dégradé.

Des analyses, comme celle d’Atif Mian, Amir Sufi et Emil Verner (2017), ont bien montré que l’activité économique restait durablement déprimée dans le sillage des booms du crédit aux ménages, mais la question reste plus ouverte dans le cas des booms du crédit aux entreprises. Pour l’éclairer, Òscar Jordà, Martin Kornejew, Moritz Schularick et Alan Taylor (2020) viennent d’étudier les effets l’endettement des entreprises en se basant sur les données relatives à 17 pays développés depuis le dix-neuvième siècle.

GRAPHIQUE 2  Variation du PIB par tête réel après le pic d'activité, selon que la récession soit précédée ou non par un boom du crédit aux entreprises ou aux ménages (en %)

Dette des entreprises : faut-il craindre des zombies ?

source : Jordà et alii (2020)

Au niveau agrégé, Jordà et ses coauteurs constatent que les booms d’endettement des entreprises ne sont suivis ni par de plus amples baisses de l’investissement ou de la production, ni par des reprises plus longues qu’habituellement, contrairement aux booms du crédit aux ménages (cf. graphique 2). Le niveau et la croissance du crédit aux entreprises ne permettent de prédire ni l’ampleur de la récession, ni le rythme de la reprise. Les quatre chercheurs se sont ensuite demandé si les booms du crédit aux entreprises tendent à fragiliser l’économie et à davantage l’exposer à des chocs rares, mais très coûteux. Leur analyse ne suggère pas non plus que les booms du crédit aux entreprises augmentent ce risque extrême.

Jordà et ses coauteurs en concluent que nous vivons pour l’essentiel dans un « monde à la Modigliani-Miller », du moins en ce qui concerne la dette des entreprises dans les pays développés : l’excès de dette des entreprises n’a généralement guère de significatifs coûts économiques. Mais ces derniers se manifestent bien lorsqu’il est difficile de restructurer et liquider la dette. Dans une telle situation, les entreprises zombies ont davantage de chances d’apparaître, dans la mesure où des coûts élevés de liquidation incite les banques à continuer de prêter plutôt que de procéder à une liquidation.

 

Références 

CABALLERO, Ricardo J., Takeo HOSHI & Anil K. KASHYAP (2008), « Zombie lending and depressed restructuring in Japan », in American Economic Review, vol. 98, n° 5.

JORDÀ, Òscar, Martin KORNEJEW, Moritz SCHULARICK & Alan M. TAYLOR (2020), « Zombies at large? Corporate debt overhang and the macroeconomy », Federal Reserve Bank of New York, staff report, n° 951.

MIAN, Atif, Amir SUFI, & Emil VERNER (2017), « Household debt and business cycles worldwide », in Quarterly Journal of Economics, vol. 132, n° 4.

MODIGLIANI, Franco, & Merton H. MILLER (1958), « The cost of capital, corporation finance and the theory of investment », in American Economic Review, vol. 48, n° 3.

MYERS, Stewart C. (1977), « Determinants of corporate borrowing », in Journal of Financial Economics, vol. 5, n° 2.

Partager cet article
Repost0
13 octobre 2020 2 13 /10 /octobre /2020 14:22
George Robinson, Tea Clipper Cutty Sark

George Robinson, Tea Clipper Cutty Sark

Plus deux pays sont géographiquement éloignés l’un de l’autre, moins ils tendent à commercer entre eux. En l’occurrence, les échanges seraient divisés par deux lorsque la distance double. Cette relation est suffisamment robuste pour que le commerce bilatéral entre deux pays puisse être assez finement prédit en prenant seulement en compte la distance qui les sépare et leur poids économique. C’est l’« équation de la gravité » développée par Jan Tinbergen (1962), qualifiée ainsi dans la mesure où la distance joue un rôle semblable à celui joué par les forces de gravité dans la physique newtonienne. Selon cette équation, le volume d’échanges bilatéraux (X) que réalisent deux pays A et B est, d’une part, proportionnel à leur produit intérieur brut (PIB) et, d’autre part, inversement proportionnel à la distance (d) qui les sépare, selon la relation suivante :

Y a-t-il une constante universelle en commerce international ?

La robustesse de l’équation de la gravité a été régulièrement vérifiée au fil des études empiriques, au point d’apparaître comme un véritable fait stylisé en économie internationale [Head et Mayer, 2014]. Les analyses ayant cherché à évaluer α, β et γ, l’exposant de la distance, ont conclu qu’elles étaient relativement stables et proches de l’unité. Les économistes se sont d’ailleurs surtout concentrés à chercher à expliquer cette relation, sans parvenir à un consensus [Chaney, 2018]. Bien sûr, les diverses barrières à l’échange, en premier lieu les coûts et délais de transport, jouent un rôle déterminant : si les pays lointains échangent peu entre eux, c’est avant tout parce qu’il leur est coûteux de le faire. Mais avec la réduction des barrières à l’échange, liée notamment à la baisse des droits de douane et les avancées technologiques, la relation s’est maintenue : la « tyrannie de la distance » n’est pas morte.

Prenant davantage de recul historique que les analyses existantes, David Jacks, Kevin O’Rourke et Alan Taylor (2020) viennent de se demander comment s’est comportée la « force de gravité » du commerce à très long terme. Pour cela, ils ont élaboré une nouvelle base de données relatives aux exportations britanniques sur la période allant de 1700 à 1899. Ils ont alors observé le rôle de deux déterminants du commerce bilatéral britannique : d’une part, les effets dépressifs de la distance sur les échanges et, d’autre part, les effets stimulateurs de l’Empire britannique sur les échanges.

La période étudiée a été marquée par de nombreux bouleversements de grande ampleur, tout d’abord sur les plans politique et géopolitique. L’Angleterre et le Pays de Galles se sont réunis en 1707 avec l’Ecosse pour former la Grande-Bretagne. En 1801, la Grande-Bretagne et l’Irlande se sont réunies pour former le Royaume-Uni. Malgré l’indépendance des Etats-Unis, l’Empire britannique a poursuivi son expansion au dix-neuvième siècle, en particulier en Afrique et en Asie. Durant cette période, le Royaume-Uni a été le premier pays à connaître la Révolution industrielle et à amorcer véritablement le décollage de sa croissance économique. Il a joué un rôle déterminant dans la vague de mondialisation du dix-neuvième siècle, en contribuant notamment au développement des réseaux ferroviaires et du transport maritime. L’économie britannique importait alors des aliments et des matières premières du reste du monde et exportait des capitaux, des biens manufacturés et des services. 

A travers leur analyse empirique, Jacks et ses coauteurs constatent que la gravité exerçait déjà ses effets en 1700, soit un siècle plus tôt que ne l’estimaient jusqu’à présent les études existantes. Mais ils constatent aussi que l’effet de la distance a par la suite eu tendance à décliner et qu’il avait presque disparu autour de 1800, restant négligeable tout au long du dix-neuvième siècle. Les flux mondiaux du commerce n’ont jamais autant échappé à la tyrannie de la distance que ne l’ont fait les exportations britanniques, mais elles ont toutefois eu tendance à connaître les mêmes évolutions à la fin du dix-neuvième siècle et au début du vingtième siècle. Parallèlement, l’effet associé à l’Empire a atteint son pic lors de la période mercantiliste à la fin du dix-huitième siècle, pour ensuite significativement décliner en valeur. Ce ne fut seulement qu’après 1950 que la distance a retrouvé tous les effets qu’elle exerce aujourd’hui. Par conséquent, la relation entre la distance et les exportations britanniques en 1700 s’apparentait davantage à celle observée aujourd’hui qu’en 1800 ou en 1900.

Les trois économistes jugent tentant d’expliquer la disparition de la tyrannie de la distance sur les exportations britanniques au dix-neuvième siècle en la rattachant à l’impérialisme britannique, mais ils écartent cette hypothèse dans al mesure où elle ne colle pas avec le fait que le rôle de la distance se soit aussi fortement affaibli pour les pays en-dehors de l’Empire britannique. Il est possible d’imaginer qu’une forme informelle d’impérialisme ait contribué à stimuler les exportations britanniques à destination de pays éloignés comme l’Argentine, même s’ils étaient formellement en-dehors de l’Empire, mais Jacks et ses coauteurs jugent difficile de tester une telle hypothèse. Le protectionnisme adopté par les pays européens peine également à expliquer les constats de Jacks et alii dans la mesure où ils restent vérifiés lorsque les pays européens sont exclus de l’échantillon de données. Les trois auteurs doutent également qu’un éventuel changement dans la composition des biens échangés ait joué un rôle significatif.

Jacks et ses coauteurs laissent ainsi inexpliquée l’énigme qu’ils ont mise à jour. Par contre, ils concluent que les estimations des paramètres de l’équation de gravité ne sont pas nécessairement constantes à long terme : les forces de la gravité s’exerçaient déjà il y a fort longtemps, mais elles sont loin d’être invariables. Ce résultat ne leur apparaît en définitive pas surprenant au vu des énormes bouleversements commerciaux, technologiques et géopolitiques qui ont marqué ces derniers siècles.

 

Références

CHANEY, Thomas (2018), « The gravity equation in international trade: An explanation », in Journal of Political Economy, vol. 126, n° 1.

HEAD, Keith, & Thierry MAYER (2014), « Gravity equations: Workhorse, toolkit, and cookbook », in Handbook of International Economics, vol. 4, chapitre 3.

JACKS, David S., Kevin Hjortshøj O’ROURKE & Alan M. TAYLOR (2020), « The gravitational constant? », Oxford, economic and social history working papers, n° 184.

TINBERGEN, Jan (1962), « An analysis of world trade flows », Shaping the World Economy.

Partager cet article
Repost0
29 septembre 2020 2 29 /09 /septembre /2020 16:35
Quels sont les rendements sociaux de l’innovation ?

Depuis les travaux de Robert Solow (1956), les économistes tendent à considérer les avancées technologiques comme le principal moteur de la croissance à long terme. Et leurs gains pour la collectivité ne sont pas qu'économiques : notamment en raison de leur impact sur le niveau de vie, les innovations contribueraient tout particulièrement à l’amélioration de la santé humaine et à l’allongement de l’espérance de vie. 

La littérature suggère toutefois que les rendements privés de l’innovation, c’est-à-dire les gains qu’en tirent les innovateurs, sont susceptibles de différer des rendements collectifs de l’innovation, c’est-à-dire les gains qu’en tire l’ensemble de la collectivité. Le processus d’innovation est en effet marqué par divers effets de débordement (spillovers). Ceux-ci incluent des bénéfices pour les utilisateurs, notamment pour les entreprises qui disposent alors d’équipements et intrants plus performants et moins chers et pour les ménages qui gagnent en pouvoir d’achat et en satisfaction, ne serait-ce que parce qu’ils se voient offrir une plus large gamme de produits ; des bénéfices pour les imitateurs, qui peuvent ainsi commercialiser l’innovation sans avoir eu à entreprendre les dépenses de recherche-développement ; mais aussi des bénéfices indirects pour les innovateurs eux-mêmes, dans la mesure où la découverte de nouvelles idées accroît le stock de savoirs dont disposent les innovateurs, notamment ceux des générations futures, pour trouver à leur tour de nouvelles idées [Romer, 1990].

En raison de ces effets de débordement, les rendements privés de l’innovation sont susceptibles d’être plus faibles que les rendements collectifs de l’innovation, si bien qu’il risque d’y avoir un sous-investissement dans l’innovation : les efforts d’innovation seraient moindres que ce qui serait optimal pour l’ensemble de la collectivité, tout simplement parce que les innovateurs ne prennent en compte que leurs gains privés, et non les rendements sociaux, pour déterminer leur niveau d'investissement.

Mais d’autres forces pourraient au contraire amener les innovateurs à investir excessivement dans l’innovation. Il pourrait notamment y avoir un effet d’éviction (« business-stealing effect ») dans la mesure où l’innovation rend obsolètes certains produits existants et érode ainsi les rentes des précédents innovateurs, captées par les nouveaux innovateurs [Aghion et Howitt, 1992]. Il pourrait aussi y avoir des coûts intertemporels si la découverte de nouvelles idées aujourd’hui accroît le coût de découverte de nouvelles idées à l’avenir, etc.

Les économistes ont ainsi cherché à estimer les rendements sociaux de l’innovation : certains ont réalisé des études de cas focalisées sur des technologies spécifiques ; d’autres, comme Nicholas Bloom et alii (2013), ont réalisé des régressions pour déterminer quels gains de productivité sont associés aux investissements en recherche-développement réalisés au niveau d’une entreprise, d’un secteur ou d’un pays ; d’autres encore ont cherché à déterminer les gains de l'innovation en calibrant les modèles de croissance aux données. Ces diverses approches aboutissent généralement à la conclusion que les rendements sociaux de la recherche-développement sont élevés, mais elles font face à diverses limites méthodologiques. En l’occurrence, les résultats tirés des études de cas de technologies spécifiques peuvent ne pas se généraliser aux autres technologies. Les méthodes basées sur les régressions font quant à elles face à des problèmes d’interprétation des causalités. En outre, une partie des effets de débordement leur échappe : par exemple, elles n’incorporent pas le rôle de la recherche fondamentale et les effets retardés que cette dernière peut avoir la découverte de nouvelles applications commerciales.

Afin de contourner ces problèmes, Benjamin Jones et Larry Summers (2020) ont opté pour une nouvelle approche : ils proposent d'estimer les rendements de l’innovation en « prenant au sérieux » l’approche initiée par Solow, c’est-à-dire en partant du principe que le taux de croissance du PIB par personne est équivalent au taux de croissance de la productivité globale des facteurs. Ils déterminent les rendements moyens des investissements dans l’innovation en liant le coût moyen de ces investissements à la hausse de la production agrégée qu’ils entraînent. En posant y le revenu par tête, x l’investissement dans l’innovation par tête, r le taux d’actualisation et g la hausse de la productivité générée par une année d’investissements dans l’innovation, alors Jones et Summers obtiennent le ratio bénéfices sur coûts p suivant :

p = (g/r) / (x/y)

L’idée sous-jacente est qu’en investissant une part (x/y) du PIB dans l’innovation au cours d’une période donnée, un économie accroît de façon permanente la productivité d’un pourcentage g, dont la valeur actualisée est g/r. Par exemple, aux Etats-Unis, la part de la recherche-développement dans le PIB (x/y) s’élève à environ 2,7 % et la croissance de la productivité (g) est d’environ 1,8 %. Par conséquent, selon les taux d’actualisation standards, un dollar d’investissement en recherche-développement à un instant donné se traduit en moyenne par un bénéfice de 10 dollars pour l’ensemble de l’économie américaine.

Pour réaliser leurs estimations des rendements de l’innovation, Jones et Summers prennent en compte l’éventualité que les gains de la recherche-développement puissent n’apparaître que lentement, que l’approfondissement du capital puisse expliquer une partie des gains de productivité et qu’une partie de la croissance de la productivité puisse se faire sans recherche-développement formelle, par exemple via l’apprentissage par la pratique (learning-by-doing). Même avec des hypothèses qu’ils jugent très conservatrices, Jones et Summers n’obtiennent guère de rendements moyens inférieurs à 4 dollars pour tout dollar dépensé : les bénéfices que tire la collectivité des efforts d’innovation représentent des multiples des coûts d’investissement. Lorsqu’en outre ils prennent en compte les bénéfices en termes de santé, le biais d’inflation qui amène à sous-estimer les gains des améliorations de produits ou les effets de débordement internationaux via lesquels les pays profitent des investissements dans l’innovation entrepris par les économies à la frontière technologique, Jones et Summers dégagent des rendements sociaux supérieurs à 20 dollars pour tout dollar dépensé. Ils en concluent qu’il est tout à fait justifié que les gouvernements promeuvent l’innovation : celle-ci rapporte plusieurs fois ce qu’elle coûte.

 

Références

AGHION, Philippe, & Peter HOWITT (1992), « A model of growth through creative destruction », in Econometrica, vol. 60, n° 2.

BLOOM, Nicholas, Mark SCHANKERMAN, & John VAN REENEN (2013), « Identifying technology spillovers and product market rivalry », in Econometrica, vol. 81, n° 4.

JONES, Benjamin F., & Lawrence H. SUMMERS (2020), « A calculation of the social returns to innovation », NBER, working paper, n° 27863. 

ROMER, Paul (1990), « Endogenous technological change », in Journal of Political Economy, vol. 98, n° 5.

SOLOW, Robert M. (1956), « A contribution to the theory of economic growth », in The Quarterly Journal of Economics, vol. 70, n° 1.

Partager cet article
Repost0

Présentation

  • : D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher