Overblog
Suivre ce blog Administration + Créer mon blog
8 janvier 2017 7 08 /01 /janvier /2017 18:15
L’hystérèse, ou comment la politique budgétaire a retrouvé sa légitimité

Ces dernières décennies, la littérature orthodoxe a eu tendance à distinguer les chocs d’offre des chocs de demande en considérant que seuls les premiers avaient un effet durable sur la production, tandis que les seconds n’auraient qu’un effet transitoire sur celle-ci. Les choses sont en réalité un peu plus complexes : l’offre globale n’est peut-être pas insensible à la conjoncture, donc à la demande globale. Certains ont qualifié d’« effets d’hystérèse » (ou d’« hystérésis ») les mécanismes par lesquels une insuffisance durable de la demande globale conduit non seulement à un enkystement du chômage, mais aussi à rendre permanentes les pertes en production que subit l’économie.

Par exemple, lorsque le chômage augmente lors d’une récession, la durée moyenne passée au chômage tend à augmenter. Or, plus un travailleur passe de temps au chômage, plus ses compétences s’usent et deviennent obsolètes, notamment parce qu’il ne peut, par définition, en acquérir de nouvelles en travaillant : un chômeur ne profite pas de l’apprentissage par la pratique (learning-by-doing). Voyant leurs perspectives d’embauche décliner, les chômeurs de longue durée tendent à se décourager et à sortir de la population active. Ainsi, le maintien du chômage à un niveau élevé tend non seulement à accroître le taux de chômage structurel (le « NAIRU »), mais aussi à dégrader la production potentielle, dans la mesure où l’économie dispose de moins de travailleurs et où les chômeurs, même s’ils finissent par être réembauchés, seront moins productifs que s’ils ne s’étaient pas retrouvés au chômage.

Les études empiriques confirment l’hypothèse selon laquelle les récessions ont des effets permanents sur le niveau de la production. Par exemple, Laurence Ball (2014) a estimé les effets de long terme de la crise financière mondiale de 2008-2009 sur la production potentielle dans 23 pays. Il a constaté que la plupart des pays ont souffert d’effets d’hystérèse, dans la mesure où la production n’est pas revenue à la trajectoire tendancielle qu’elle suivait avant la Grande Récession, mais a suivi après celle-ci une trajectoire tendancielle plus basse. Autrement dit, la population aurait été plus riche si la Grande Récession n’avait pas eu lieu. La Grande Récession de 2008-2008 n’est pas la seule crise économique à avoir eu un effet permanent sur la production. Olivier Blanchard, Eugenio Cerutti et Lawrence Summers (2015) ont analysé les répercussions des diverses récessions qui se sont produites au cours des 50 dernières années dans 23 pays. Ils ont constaté qu’environ les deux tiers des pays avaient souffert d’effets d’hystérèse.

La présence d’effets d’hystérèse amène à reconsidérer le rôle des politiques conjoncturelles et notamment de la politique budgétaire, or beaucoup d’analyses ne les prennent pas en compte, ce qui peut les amener à tirer de mauvaises prescriptions en matière de politique économique. C’est pour cette raison que Larry Summers (2015) a pu critiquer la tendance des modèles d’équilibre général dynamiques stochastiques (DSGE) et plus largement la nouvelle macroéconomie keynésienne à ignorer les effets d’hystérèse. En effet, dans les modèles des nouveaux keynésiens, les politiques conjoncturelles n’influencent pas le niveau moyen de la production au cours du temps : les politiques conjoncturelles contracycliques ne peuvent contribuer qu’à réduire l’ampleur des fluctuations économiques. Du point de vue des nouveaux keynésiens où les chocs que subit l’économie éloignent la production de sa trajectoire tendancielle, les politiques conjoncturelles ne peuvent que ramener la production à sa trajectoire précédente. Or, si des effets d’hystérèse sont présents, ils peuvent non seulement contribuer à ce que les chocs de demande aient un effet permanent sur la production, mais ils sont aussi susceptibles d’accroître la sensibilité de l’activité économique vis-à-vis de la politique budgétaire : lorsque l’économie est en récession, les effets d’hystérèse accroissent l’efficacité d’un plan de relance et aggravent la nocivité d’un plan d’austérité.

Il y a quelques années, Brad DeLong et Larry Summers (2012) avaient suggéré que le multiplicateur budgétaire était supérieur à l’unité dès lors que des effets d’hystérèse sont à l’œuvre dans l’économie : lors d’une récession, un plan de relance est susceptible de s’auto-financer, dans la mesure où le surcroît de recettes publiques que génère l’accélération subséquente de l’activité compense la hausse de la dette publique. S’appuyant sur cette étude, Antonio Fatas et Larry Summers (2016) ont montré que les plans d’austérité adoptés immédiatement suite à la Grande Récession ont tout particulièrement contribué à rendre permanentes les pertes de production qu’elle avait provoquées. Dans une plus récente contribution, Philipp Engler et Juha Tervala (2016) ont analysé les implications de l’hystérèse pour la conduite de la politique budgétaire dans un modèle DSGE. Ils supposent un mécanisme d’apprentissage par la pratique simple où l’insuffisance de la demande globale et le chômage que celle-ci génère sont susceptibles d’affecter de façon permanente le niveau de la productivité. Ils montrent que le multiplicateur budgétaire est bien plus large en présence d’hystérèse. Le principal bénéfice de la relance budgétaire en présence d’hystérèse est de réduire les dommages d’une récession pour le niveau à long terme de la productivité et donc de la production.

Les effets d’hystérèse ne conduisent pas seulement à justifier l’adoption d’un plan de relance lors des seules récessions. Aux Etats-Unis, plusieurs économistes et responsables de la politique économique ont récemment plaidé pour un maintien des politiques expansionnistes malgré le retour de l’économie au plein emploi. Autrement dit, ils plaident pour laisser l’économie américaine en surchauffe, la laisser devenir une « économie à haute pression » (high-pressure economy), du moins temporairement, pour renverser les effets négatifs que la crise a pu avoir sur l’offre [Yellen, 2016 ; Blanchard, 2016]. En effet, si l’on pense que la production potentielle tend à se déprimer lorsque la production reste inférieure à celle-ci (et si le NAIRU tend à s’accroître lorsque le taux de chômage demeure supérieur à celui-ci), alors la réciproque pourrait être vraie : le maintien de la production à son maximum pourrait contribuer à stimuler la production potentielle, tout comme le maintien du chômage en-deçà du NAIRU pourrait contribuer à réduire ce dernier.

Par exemple, lorsque la reprise se confirme et que le chômage commence à décliner, suggérant de meilleures perspectives d’embauche, les personnes qui avaient précédemment quitté la population active par découragement vont repartir à la recherche d’un emploi. Certes, un tel mouvement freine la baisse du chômage, mais la hausse du nombre de personnes en emploi contribue à accélérer la croissance économique, en stimulant à la fois la demande globale et en accroissant les capacités de productions.

 

Références

BALL, Laurence M. (2014), « Long-term damage from the Great Recession in OECD countries », NBER, working paper, n° 20185, mai.

BLANCHARD, Olivier (2016), « What size fiscal deficits for the United States? », in PIIE (blog), 21 novembre. Traduction française, « Quelle devrait être l'ampleur des déficits publics aux Etats-Unis ? », in Annotations (blog).

BLANCHARD, Olivier, Eugenio CERUTTI & Lawrence SUMMERS (2015), « Inflation and activity – Two explorations and their monetary policy implications », FMI, working paper, novembre.

DELONG, J. Bradford, & Lawrence H. SUMMERS (2012), « Fiscal policy in a depressed economy », Brookings Papers on Economic Activity, vol. 44.

ENGLER, Philipp, & Juha TERVALA (2016), « Hysteresis and fiscal policy », DIW, discussion paper, n° 1631, décembre.

FATÁS, Antonio, & Lawrence H. SUMMERS (2015), « The permanent effects of fiscal consolidations », NBER, working paper, n° 22734.

SUMMERS, Lawrence H. (2015), « Advanced economies are so sick we need a new way to think about them », in Financial Times, 3 novembre.

YELLEN, Janet (2016), « Macroeconomic research after the crisis », discours prononcé à la 60ème conférence annuelle de la Banque de réserve fédérale de Boston, 14 octobre. Traduction française, « La recherche en macroéconomie depuis la crise », in Annotations (blog).

Partager cet article
Repost0
1 janvier 2017 7 01 /01 /janvier /2017 23:31
Rattrapage entre pays-membres et optimalité de la politique monétaire unique

Toute une littérature en finance internationale suggère que des pays n’ont intérêt à adopter une monnaie commune (ou, plus simplement, à ancrer leurs monnaies les unes aux autres via un système de changes fixes) que s’ils forment une « zone monétaire optimale ». Ce sera le cas si la zone monétaire que formeront ces pays absorbera facilement les éventuels chocs qui ne toucheront qu’une poignée d’entre eux (les chocs « asymétriques ») ou bien si ces pays ont des cycles d’affaires synchronisés, c’est-à-dire subissent les mêmes chocs (qualifiés alors de « symétriques »). Si c’est le cas, il est alors justifié que les pays adoptent une politique monétaire unique : la banque centrale n’aura pas forcément à réagir aux chocs asymétriques, si bien qu’elle pourra se contenter de contrer les chocs symétriques. Par contre, si la zone monétaire n’est pas optimale, elle risque non seulement de ne pas pouvoir absorber les chocs asymétriques, mais elle risque aussi de les amplifier. Par exemple, la politique monétaire adoptée par la banque centrale de la zone euro peut très bien être excessivement accommodante pour certains pays-membres, mais excessivement restrictive pour d’autres pays-membres, en alimentant les pressions inflationnistes et les bulles spéculatives dans les premiers et en alimentant le chômage et les tensions déflationnistes dans les seconds.

Pour que la zone euro puisse facilement absorber un choc asymétrique, il faudrait par exemple que les facteurs de production (notamment les travailleurs) soient extrêmement mobiles, que le tissu productif de chaque économie soit très diversifié ou encore qu’il soit possible de réaliser de larges transferts budgétaires régionaux ; ce n’est pas le cas. La synchronisation des cycles d’affaires nationaux n’est pas non plus établie. Tamim Bayoumi et Barry Eichengreen (1993) ont suggéré avant même la création de la zone euro que cette dernière comporterait en son centre des pays dont les chocs sont fortement synchronisés et en sa périphérie des pays dont les chocs sont moins synchronisés. Jeffrey Frankel et Andrew Rose (1998) ont toutefois suggéré que la création même de la zone euro contribuerait à synchroniser les cycles d’affaires de ses pays-membres en stimulant les échanges entre eux. Cherchant à actualiser l’étude de Bayoumi et Eichengreen en prolongeant l’échantillon de données jusqu’en 2015, Nauro Campos et Corrado Macchiarelli (2016) ont abouti à des conclusions plus optimistes puisqu’ils estiment que la structure centre-périphérie s’est affaiblie depuis la création de la monnaie unique. Certaines analyses, comme celle de Martin Gächter et Aleksandra Riedl (2014), suggèrent en effet que les cycles d’affaires au sein de la zone euro se sont davantage synchronisés grâce au développement des échanges commerciaux entre les pays-membres. D’autres études doutent toutefois que la monnaie unique ait significativement stimulé les échanges intra-européens ou qu’elle ait permis de synchroniser davantage les cycles d’affaires des pays-membres.

Mark Mink, Jan Jacobs et Jakob de Haan (2016) notent que les pays-membres de la zone euro qui ont connu les plus fortes baisses du taux d’intérêt avant l’introduction de la monnaie unique sont ceux qui ont été les plus durement frappés lors de la crise de la zone euro : leur solde commercial s’est fortement ajusté, tandis que leur production potentielle par tête et la croissance de leur production ont fortement chuté. La convergence des taux d’intérêt n’a donc pas coïncidé avec une convergence aussi ample de leurs fondamentaux macroéconomiques. Pour qu’il y ait rattrapage au sein de la zone euro, les pays-membres devraient connaître une croissance d’autant plus rapide que leur niveau de vie est faible. Selon certains, la monnaie unique aurait dû accélérer le rattrapage, or la BCE (2015) a confirmé que ce dernier a été plus faible au sein de la zone euro que dans le reste de l’Union européenne.

Mink et ses coauteurs montrent que dans une union monétaire, les différences que l’on observe d’un pays-membres à l’autre en termes de production potentielle par tête peuvent se traduire par des différences en termes de taux d’intérêt naturels, si bien que la politique monétaire unique peut effectivement être (excessivement) restrictive pour certaines pays-membres et (excessivement) accommodante pour d’autres. En effet, les différences en termes de production potentielle par tête, de taux de croissance de la production et de soldes commerciaux expliquent une grande partie les différences en termes de taux d’intérêt que l’on a pu observer d’un (futur) pays-membre à l’autre avant leur entrée dans la zone euro. Par conséquent, un unique taux directeur pour chaque pays-membre pris individuellement ne peut être optimal qu’une fois le rattrapage arrivé à son terme. 

Mink et ses coauteurs ont alors cherché à déterminer dans quelle mesure les pays-membres de la zone euro diffèrent entre eux en termes de production potentielle par tête, de taux de croissance de la production et de soldes commerciaux sur la période s’étalant entre le premier trimestre 1999 et le quatrième trimestre 2015. Ils tirent plusieurs constats de leur analyse. Premièrement, les déséquilibres en termes de croissance de la production dans la zone euro semblent relativement modestes, mais les déséquilibres en termes de soldes commerciaux et surtout en termes de production potentielle par tête sont plus importants. Alors que les déséquilibres en termes de soldes commerciaux sont à peu près aussi élevés qu’aux premiers jours de la zone euro, les déséquilibres en termes de production potentielle par tête se sont fortement accentués depuis. Deuxièmement, les pays-membres qui présentent l’un des trois types de déséquilibre tendent également à présenter les deux autres. Pour autant, ce n’est pas parce qu’un déséquilibre se résorbe à un instant donné que les autres se résorbent. Troisièmement, les déséquilibres ont tendance à persister au cours du temps, si bien que la structuration de la zone euro en un centre et en une périphérie est restée la même depuis la création de la monnaie unique. Ce sont la Grèce, l’Irlande, le Portugal et l’Espagne qui accumulent le plus de déséquilibres. Quatrièmement, les déséquilibres sont plus amples dans les pays-membres qui présentent la plus faible production potentielle par tête et la plus petite population. Les déséquilibres et leur ajustement font donc peser un fardeau disproportionné sur les pays les plus pauvres et les plus petits de la zone euro.

 

Références

BCE (2015), « Real convergence in the euro area: Evidence, theory and policy implications », Economic Bulletin, n° 5.

BAYOUMI, Tamim, & Barry EICHENGREEN (1993), « Shocking aspects of European monetary integration », in F. Torres & F. Giavazzi (dir.), Adjustment and Growth in the European Monetary Union, Cambridge University Press.

CAMPOS, Nauro F., & Corrado MACCHIARELLI (2016), « Core and periphery in the European Monetary Union: Bayoumi and Eichengreen 25 years later », Economics Letters, vol. 147.

FRANKEL, Jeffrey A., & Andrew K. ROSE (1998), « The endogenity of the optimum currency area criteria », in The Economic Journal, vol. 108, n° 449.

GÄCHTER, Martin, & Aleksandra RIEDL (2014), « One money, one cycle? The EMU experience », in Journal of Macroeconomics, vol. 42.

MINK, Mark, Jan JACOBS & Jakob de HAAN (2016), « Euro area imbalances », DNB, working paper, n° 540, décembre.

Partager cet article
Repost0
28 décembre 2016 3 28 /12 /décembre /2016 09:28
La fin du travail bon marché pousse-t-elle les investisseurs étrangers à quitter la Chine ?

La stratégie de développement qu’a suivie la Chine pendant plusieurs décennies passait notamment par la promotion des investissements étrangers dans le secteur manufacturier orienté à l’export. La taille du marché intérieur, l’amélioration des infrastructures locales et la présence d’une main-d’œuvre abondante et bon marché ont effectivement incité les entreprises étrangères à multiplier leurs investissements sur le sol chinois. Mais, à mesure que le niveau de vie augmente et que la structure même de l’économie chinoise se transforme, celles-ci n’ont peut-être plus autant de raisons ou, tout du moins, plus les mêmes raisons de s’implanter en Chine.

Par exemple, l’accroissement de la demande de main-d’œuvre chinoise et la hausse du niveau scolaire ont contribué à pousser les salaires chinois à la hausse. Certes, un nombre important de travailleurs chinois quitte chaque année les campagnes à l’intérieur des terres pour trouver un emploi dans les zones côtières en pleine urbanisation, ce qui permet de freiner la hausse des salaires, mais cet exode rurale ne suffit pas pour contenir cette dernière et le « réservoir » rural de main-d’œuvre bon marché n’est pas inépuisable. En outre, les autorités cherchent à réorienter le modèle de croissance chinois. Ce dernier a reposé durant plusieurs décennies sur la demande extérieure, or non seulement cette dernière est sujette à de fréquents aléas, comme l’a notamment démontré l’effondrement des échanges internationaux lors de la crise financière mondiale, mais la hausse même des salaires tend à dégrader la compétitivité des produits chinois sur les marchés internationaux. Au final, la hausse des salaires impose certes une réorientation du modèle de croissance chinois vers la demande domestique, mais elle facilite aussi celle-ci. Dans tous les cas, elle risque d’amener les entreprises à revoir leurs décisions en matière de localisation de leurs investissements directs à l’étranger (IDE).

D’un côté, avec la hausse du pouvoir d’achat des ménages et ainsi  la perspective d’un accroissement de la consommation des ménages chinois, les entreprises qui suivent une logique de marché, c’est-à-dire qui cherchent à minimiser leurs coûts de transport ou à gagner en réactivité, ont intérêt à davantage s’implanter en Chine. En outre, si les salaires chinois augmentent, c’est notamment parce que les travailleurs chinois sont de plus en plus compétents. Les entreprises qui recherchent une main-d’œuvre qualifiée pour réaliser des tâches à plus forte valeur ajoutée ont donc de plus en plus intérêt à s’implanter en Chine. D’un autre côté, les entreprises qui ont installé leurs établissements de production en Chine dans une logique de rationalisation, c’est-à-dire de baisse des coûts, ont moins intérêt à y rester, dans la mesure où les hausses salariales gonflent leurs coûts de production et donc réduisent leur profitabilité. En 2013, les salaires mensuels s’élevaient en moyenne à 600 dollars en Chine, or non seulement ils sont plus faibles dans plusieurs pays avoisinants, mais ils y ont également tendance à augmenter moins rapidement. Selon l’OIT, les salaires chinois sont par exemple trois fois plus élevés que les salaires indonésiens ou vietnamiens. Parallèlement, d’autres facteurs, comme le renforcement de la réglementation environnementale et la hausse des prix des terrains, contribuent également à accroître les coûts pour les entreprises installées en Chine. Enfin, même si le taux de change du yuan reste fortement encadré par les autorités chinoises, ces dernières tendent à le laisser s’apprécier à long terme, notamment pour lui permettre de jouer plus grandement un rôle de devise internationale. Or, une appréciation du yuan réduit la compétitivité des biens produits en Chine.

D’un côté, les entreprises qui auraient pu investir et produire en Chine peuvent finalement préférer le faire dans les pays voisins, comme l’Indonésie ou le Vietnam ; de l’autre, les entreprises qui ont déjà implanté des établissements en Chine risquent de les relocaliser dans les pays voisins. Cela pourrait toutefois être un peu moins probable dans le secteur des hautes technologies ; les coûts du travail ne représentent qu’une faible part des coûts de production des biens intensifs en technologie. A travers une analyse empirique, Julian Donaubauer et Christian Dreger (2016) ont effectivement constaté que la hausse des salaires chinois a effectivement modifié répartition des IDE, non seulement au sein de la Chine, mais aussi dans l’ensemble de l’Asie de l’est. Leurs données suggèrent que les hausses de salaires en Chine ont réduit les chances qu’elle perçoive des IDE, tout en augmentant les chances que ses voisins à faibles salaires attirent des IDE.

 

Référence

DONAUBAUER, Julian, & Christian DREGER (2016), « The end of cheap labour: Are foreign investors leaving China? », Deutsches Institut für Wirtschaftsforschung, discussion paper, n° 1598.

Partager cet article
Repost0
23 décembre 2016 5 23 /12 /décembre /2016 11:51
L’innovation est-elle vraiment destructrice ?

Depuis les travaux pionniers de Joseph Schumpeter au début du vingtième siècle, de nombreuses théories de la croissance ont développé l’idée que cette dernière reposait sur un processus de « destruction créatrice » à travers lequel les entreprises innovent en améliorant les innovations passées, ce qui leur permet d’accroître leurs profits aux dépens de leurs rivales. C’est précisément ce mécanisme qu’ont modélisé Gene Grossman et Elhanan Helpman (1991) ou encore Philippe Aghion et Peter Howitt (1992), qui donnèrent naissance au « paradigme néo-schumpétérien », tout un courant des théories de la croissance endogène dont Philippe Aghion, Ufuk Akcigit et Peter Howitt (2014) ont récemment réalisé une revue de la littérature. D’autres théories de la croissance mettent plutôt l’accent sur les améliorations que les entreprises apportent à leurs propres produits. D’autres modèles encore, comme celui de Paul Romer (1990), soulignent l’importance des nouvelles variétés de produits pour la croissance économique.

Plusieurs études empiriques ont cherché à déterminer laquelle de ces théories explique le mieux la croissance économique. Par exemple, Clayton Christensen (1997) s’est appuyé sur quelques études de cas pour affirmer que l’innovation prend essentiellement la forme d’une destruction créatrice et qu’une telle innovation provient presque systématiquement des nouvelles entreprises. De leur côté, Ufuk Akcigit et William Kerr (2015) ont analysé les citations de brevets pour savoir si celles-ci mentionnent avant tout les brevets déposées par les entreprises à l’origine de ces citations ou bien les brevets des autres entreprises. Malheureusement, ni une poignée d’études de cas, ni l’échantillon que constituent les entreprises dépositaires de brevets ne sont représentatifs de l’ensemble des entreprises présentes dans l’économie. Par exemple, beaucoup d’entreprises innovantes ne brevettent pas leurs innovations, en particulier les entreprises du secteur manufacturier, notamment pour éviter d’avoir à dévoiler des informations cruciales en décrivant le produit breveté.  

Dans une récente analyse, Daniel Garcia-Macia, Chang-Tai Hsieh et Peter Klenow (2016) ont cherché à identifier indirectement les sources de la croissance, en observant la dynamique de création et de destruction d’emplois parmi l’ensemble des entreprises du secteur privé aux Etats-Unis. Les flux de création et de destruction d’emplois sont en effet régulièrement utilisés comme indicateurs indirects du processus de destruction créatrice. En effet, si ce dernier est effectivement à l’œuvre, le développement des nouvelles entreprises innovatrices devrait s’accompagner du déclin et de la faillite des entreprises dont les produits ont été rendus obsolètes par leurs innovations, si bien que de fortes créations d’emplois devraient s’accompagner parallèlement de nombreuses destructions d’emplois. Par exemple, c’est précisément parce que les flux de destruction et création d’emplois sont plus faibles en France qu’aux Etats-Unis que certains jugent la destruction créatrice moins intense dans l’hexagone que dans l’économie américaine. Ou encore, c’est parce qu’ils observent un déclin de la réallocation de l’emploi américain depuis les années soixante-dix que Ryan Decker, John Haltiwanger, Ron Jarmin et Javier Miranda (2014) suggèrent un affaiblissement du processus de production créatrice aux Etats-Unis ces dernières décennies. 

Garcia-Macia et ses coauteurs tirent trois grandes conclusions de leur analyse. Premièrement, l’essentiel de la croissance provient des entreprises en place et non des nouvelles entreprises. Les entreprises ayant moins de cinq ans ne représentent en effet qu’une faible part de l’emploi. Deuxièmement, l’essentiel de la croissance américaine semble davantage provenir des améliorations apportées aux variétés de produits déjà existantes plutôt qu’à la création de nouvelles variétés (aussi bien de la part des entreprises en place depuis longtemps que de la part de nouvelles entreprises). Troisièmement, les améliorations apportées par les entreprises en place à leurs propres produits semblent jouer un rôle plus déterminant que la destruction créatrice. En l’occurrence, la destruction créatrice contribuerait à 25 % de la croissance américaine, tandis que le reste de cette dernière s’expliquerait par les entreprises en place. Quatrièmement, les contributions des entreprises entrantes et de la destruction créatrice ont décliné entre la période 1976-1986 et la période 2003-2013, tandis que se sont accrues les contributions des entreprises en place depuis longtemps, notamment via l’amélioration de leurs propres innovations.

 

Références

AGHION, Philippe, Ufuk AKCIGIT & Peter HOWITT (2014), « What do we learn from Schumpeterian growth theory? », in Handbook of Economic Growth.

AGHION, Philippe, & Peter HOWITT (1992), « A model of growth through creative destruction », inEconometrica, vol. 60, n° 2, mars.

AKCIGIT, Ufuk, & William R. KERR (2015), « Growth through heterogeneous innovations », Banque de Finlande, research discussion paper, n° 28/2013. 

CHRISTENSEN, Clayton (1997), The Innovator’s Dilemma: When New Technologies Cause Great Firms to Fail.

DECKER, Ryan, John HALTIWANGER, Ron JARMIN et Javier MIRANDA (2014), « The role of entrepreneurship in US job creation and economic dynamism », in The Journal of Economic Perspectives, vol. 28, n° 3.

GARCIA-MACIA, Daniel, Chang-Tai HSIEH & Peter J. KLENOW (2016), « How destructive is innovation? », NBER, working paper, n° 22953, décembre.

GROSSMAN, Gene M., & Elhanan HELPMAN (1991), « Quality ladders in the theory of growth », in Review of Economic Studies, vol. 58, n° 1.

ROMER, Paul (1990), « Endogenous technological change », in Journal of Political Economy, vol. 98, n° 5.

Partager cet article
Repost0
20 décembre 2016 2 20 /12 /décembre /2016 17:00
Comment les inégalités de revenu ont évolué depuis un siècle aux Etats-Unis ?

Au cours des dernières décennies, les inégalités ont augmenté dans les pays développés, en particulier les pays anglo-saxons, après avoir eu tendance à décliner pendant un demi-siècle. Thomas Piketty et Emmanuel Saez (2003) ont montré que la part du revenu national détenue par les plus riches aux Etats-Unis avait suivi une évolution en forme de U tout au long du vingtième siècle, les inégalités déclinant jusqu’aux années soixante, avant d’amorcer leur remontée la décennie suivante. Saez (2016) actualise régulièrement cette étude et montre que les inégalités ont poursuivi leur hausse ces dernières années, même si la Grande Récession a renversé momentanément la tendance. Facundo Alvaredo, Anthony Atkinson, Thomas Piketty et Emmanuel Saez (2013), parmi d'autres, ont confirmé que le partage du revenu dans les autres pays développés a connu la même tendance qu'aux Etats-Unis, quoique de façon moins marquée.

Ces divers travaux rencontrent toutefois de grandes difficultés lorsqu'il s'agit de mesurer les inégalités. Alors que les précédentes études capturaient moins de 60 % du revenu national des Etats-Unis, Thomas Piketty, Emmanuel Saez et Gabriel Zucman (2016a, 2016b) ont récemment construit de nouvelles séries de données relatives à la répartition du revenu national américain depuis 1913 en combinant les données fiscales, les données tirées des enquêtes et les données des comptes nationaux. Ils sont ainsi parvenus à capturer 100 % du revenu national enregistré dans les comptes nationaux. Ainsi, ils peuvent observer avec précision la dynamique du revenu sur l’ensemble de sa répartition.

Leurs données indiquent que le revenu moyen par adulte avant impôt s’était accru de 60 % depuis 1980 et atteignait 64.000 dollars (à prix constants) en 2014. Le revenu avant impôt de la classe moyenne, c’est-à-dire des adultes dont le revenu est compris entre la médiane et le 90ème centile, s’est accru de 40 % depuis 1980, plus rapidement que ce que les données fiscales et les données d’enquête le suggèrent, en raison de la hausse des avantages en nature exonérés d’impôts. Par contre, le revenu moyen par adulte avant impôt des 50 % les plus modestes stagne autour de 16.000 dollars depuis 1980. La part du revenu des 50 % les plus modestes est ainsi passée de 20 % à 12 % entre 1980 et 2014 (cf. graphique 1).

GRAPHIQUE 1  Part du revenu national détenue par les 50 % les plus modestes aux Etats-Unis (en %)

Comment les inégalités de revenu ont évolué depuis un siècle aux Etats-Unis ?

source : Piketty et alii (2016)

Les données confirment que le revenu a explosé au sommet de la répartition. En effet, le revenu moyen avant impôt des 1 % les plus rémunérés est passé de 420.000 dollars à environ 1.300.000 dollars entre 1980 et 2014, si bien que leur part du revenu national est passée d’environ 12 % à 20 % au cours de la même période (cf. graphique 2). Depuis 1980, le revenu moyen a augmenté de 121 % pour les 10 % les plus riches, de 205 % pour les 1 % les plus riches et de 636 % pour les 0,1 % les plus riches. En 1980, les 1 % les mieux rémunérés gagnaient en moyenne 27 fois plus que les 50 % des adultes les plus modestes, tandis qu’ils gagnaient 81 fois plus que ces derniers aujourd’hui. Au cours de cette période, c’est l’équivalent de 8 points du revenu national qui ont été transférés des 50 % les plus modestes aux 1 % les plus riches. La part du revenu national détenue par les 1% les plus riches est désormais deux fois plus large que celle des 50 % les plus modestes, alors que ces derniers sont par définition 50 fois plus nombreux.

GRAPHIQUE 2  Part du revenu national détenue par les 1 % les plus riches aux Etats-Unis (en %)

Comment les inégalités de revenu ont évolué depuis un siècle aux Etats-Unis ?

source : Piketty et alii (2016)

L’essor des hauts revenus s’expliquait initialement du côté du revenu du travail : les plus riches s’enrichissaient avant tout parce que leurs salaires augmentaient rapidement. Mais à partir de 2000, cet essor s’explique plutôt du côté du revenu du capital : si les plus riches se sont enrichis plus rapidement que le reste de la population, c’est avant tout grâce à leur détention d’obligations et d’actions. Autrement dit, ces dernières décennies, les travailleurs riches (working rich) se sont mués en rentiers ou bien ces derniers les ont remplacés au sommet de la répartition. En outre, si les plus riches avaient tendance à rajeunir jusqu’à la fin des années quatre-vingt-dix, ils ont par contre eu tendance à vieillir par la suite.

Piketty et ses coauteurs montrent que les inégalités de revenu entre les hommes et les femmes ont fortement diminué au fil des décennies, notamment grâce à la hausse du taux d’activité de ces dernières. Cette réduction des inégalités a contribué à contenir la hausse des inégalités parmi les adultes, mais l’écart de revenu entre les deux sexes demeure encore élevé. Parmi la population des 20-64 ans, les hommes gagnent en moyenne 1,7 fois plus que les femmes aujourd’hui, contre 3,7 au début des années soixante. La part du revenu détenue par les femmes décline fortement à mesure qu’elles progressent le long de la répartition du revenu du travail, ce qui dénote la présence d’un véritable plafond de verre. Les femmes détiennent seulement 16 % de la part du revenu national détenue par les 1 % les plus riches et 11 % de celle détenue par les 0,1 % les plus riches.

C’est environ un tiers des fruits de la croissance économique que le gouvernement fédéral et les gouvernements locaux redistribuent. Pourtant, Piketty et alii montrent que cette redistribution n’a contenu que de façon très limitée la hausse des inégalités. Même après redistribution, la croissance du revenu des 50 % des adultes en âge de travailler les plus modestes est proche de zéro depuis 1980. Le montant global de revenus de transfert a certes augmenté, mais les prestations sociales ciblent avant tout les retraités et les classes moyennes, c’est-à-dire ceux qui gagnent un revenu compris entre la médiane et le 90ème centile. Piketty et ses coauteurs doutent de l’efficacité du système redistributif américain, si bien qu’ils jugent plus efficace pour l’Etat américain de chercher à réduire les inégalités dans la répartition même des revenus primaires, que ce soit en favorisant l’accumulation d’actifs (capital humain et capital financier) parmi les plus modestes ou en augmentant le pouvoir de négociation de ces derniers. Cela peut passer par des politiques de scolarisation, une amélioration du financement de l’éducation, une réforme des institutions du marché du travail, un relèvement du salaire minimum, etc.

 

Références

ALVAREDO, Facundo, Anthony B. ATKINSON, Thomas PIKETTY & Emmanuel SAEZ (2013), « The top 1 percent in international and historical perspective », NBER, working paper, n° 19075, mai.

PIKETTY, Thomas, & Emmanuel SAEZ (2003), « Income inequality in the United States, 1913-1998 », in Quarterly Journal of Economics, vol. 118, n° 1.

PIKETTY, Thomas, Emmanuel SAEZ & Gabriel ZUCMAN (2016a), « Distributional national accounts: Methods and estimates for the United States », NBER, working paper, n° 22945, décembre.

PIKETTY, Thomas, Emmanuel SAEZ & Gabriel ZUCMAN (2016b), « Economic growth in the United States: A tale of two countries », Equitable growth, 6 décembre.

SAEZ, Emmanuel (2016), « Striking it richer: The evolution of top incomes in the United States », juin.

Partager cet article
Repost0
18 décembre 2016 7 18 /12 /décembre /2016 23:39
Quel est l’impact de l’immigration sur l’emploi et les salaires ?

Dans un contexte de lente progression des salaires (notamment aux Etats-Unis) et de chômage élevé (en particulier en France), les populations des pays développés ont pu montrer ces dernières décennies une certaine hostilité vis-à-vis de l’immigration : celle-ci est régulièrement accusée de détruire l’emploi des autochtones ou de pousser leurs salaires à la baisse. La récente vague de réfugiés provoquée par le conflit syrien a accentué ces inquiétudes en Europe. Pourtant, tant les analyses théoriques que les études empiriques sont loin de leur donner raison.

Certes, la théorie néoclassique la plus standard suggère que l’immigration, en accroissant l’offre de travail, est susceptible de réduire les salaires, notamment parce qu’elle accroît la concurrence entre les travailleurs. Si les salaires ne sont pas pleinement flexibles, tout du moins à la baisse, l'ajustement risque de ne pas se faire (seulement) par les prix, mais (aussi) par les quantités : l’accroissement de l’offre de travail est susceptible d’entraîner une hausse du chômage. Ce raisonnement reste toutefois simpliste.

Tout d’abord, les travailleurs immigrés ne sont pas totalement « substituables » avec les travailleurs natifs, si bien que l’une des deux catégories risque d’être plus exposée au chômage que l’autre. Ensuite, dans la mesure où les immigrés n’ont souvent pas le même niveau de qualification que les travailleurs natifs, l’afflux de travailleurs immigrés est susceptible d’avoir de profonds effets redistributifs parmi la population autochtone. En effet, il est susceptible de détériorer les perspectives d’emploi des travailleurs natifs qui présentent des qualifications similaires, avec lesquels ils sont « substituables », et d’améliorer les perspectives d’emploi des travailleurs qui présentent des qualifications différentes, avec lesquels ils sont « complémentaires ». En effet, ces derniers voient leur efficacité augmenter, si bien qu’ils sont davantage demandés (leurs chances de se retrouver au chômage diminuent) et leurs salaires sont poussés à la hausse. Ainsi, l’afflux d’immigrés (peu qualifiés) dans les pays développés est susceptible d’y accroître le chômage des travailleurs peu qualifiés ou de réduire leurs salaires, tout en poussant les salaires des travailleurs qualifiés à la hausse.

L’immigration peut compenser l’un des effets pervers du progrès technique. Les machines sont souvent substituées aux travailleurs les moins qualifiés (ce qui a pu pousser leurs salaires à la baisse) et se révèlent complémentaires avec les travailleurs de qualifications intermédiaires (qui ont alors pu voir leurs salaires être poussés à la hausse). Or, en étudiant les données américaines, Ethan Lewis (2011) a constaté que dans les zones où l’immigration a été la plus forte, les usines ont moins investi dans l’automatisation, ce qui a compensé l’impact de l’immigration sur l’emploi et les salaires des moins qualifiés. En effet, l’immigration pousse le coût relatif du travail (non qualifié) à la baisse, donc le coût relatif du capital à la hausse.

L’immigration peut aussi compenser l’un des effets pervers de la mondialisation. En l’occurrence, l’accroissement de l’offre domestique de travail non qualifié est susceptible de réduire les incitations des entreprises domestiques à délocaliser leurs activités vers les pays à faible coût du travail. Donc elle réduit les chances que les travailleurs (non qualifiés) natifs perdent leur emploi en raison des délocalisations.

Surtout, l’afflux d’immigrés va contribuer à accroître la consommation, si bien qu’il va stimuler les débouchés des entreprises domestiques ; ces dernières vont répondre au surcroît de demande en augmentant leurs capacités de production, c’est-à-dire en embauchant et en investissant davantage. La hausse de l’investissement va elle-même contribuer à accroître les débouchés des entreprises produisant des biens d’investissement, ce qui va également les inciter à embaucher. La hausse de la demande de travail va en outre tendre à pousser les salaires à la hausse. C’est l’ensemble des catégories de travailleurs, autochtones et immigrés, qualifiés et non qualifiés, qui sont alors susceptibles de bénéficier de ces effets. A nouveau, les éventuels effets négatifs que l’immigration est susceptible d’exercer directement sur l’emploi et les salaires des autochtones non qualifiés s’en trouveront compensés par ce biais-là.

Quelques études ont cherché à s’appuyer sur des expériences naturelles qu’ont pu constituer les vagues de réfugiés passées. Jennifer Hunt (1992) a par exemple étudié le rapatriement des centaines de milliers de pieds-noirs en France en 1962, suite à l’indépendance de l’Algérie. Elle a constaté que l’impact de ce rapatriement s’est résorbé en quelques années. David Card (1990) a quant à lui étudié l’« exode de Mariel » de 1980, un épisode au cours duquel plusieurs dizaines de milliers de Cubains migrèrent à Miami. Cette vague de réfugiés a immédiatement augmenté la part des travailleurs non qualifiés parmi les actifs de Miami. Pourtant, Card ne parvient pas à mettre en évidence un impact durable qui soit significatif sur les salaires ou l’emploi des natifs les moins qualifiés de la ville ; le chômage à Miami a par exemple brutalement augmenté, mais il s’est ensuite résorbé en quelques mois. Enfin, Rachel Friedberg (2001) a étudié la vague d’immigration qu’a connue Israël au début des années quatre-vingt-dix suite à l’éclatement du bloc soviétique ; elle ne décèle pas non plus un impact négatif de l’immigration sur les revenus des autochtones. Même si au cours de ces trois épisodes la population active a pu localement s’accroître jusqu'à 10 %, ces diverses analyses suggèrent de faibles effets de l’immigration sur les salaires et sur l’emploi des autochtones. Leurs résultats ont toutefois pu être contestés par d’autres études. Borjas a par exemple remis en cause les conclusions de Card en notant que les natifs ont pu réagir à l’afflux d’immigrés cubains en quittant Miami et en recherchant un emploi ailleurs.

En résumant les études disponibles à l’époque, Rachel Friedberg et Jennifer Hunt (1995) concluaient que l’impact de l’immigration sur les salaires et le chômage des autochtones était faible : une hausse de 10 % du nombre d’immigrés ne réduit les salaires des autochtones que d’environ 1 %. Deux décennies après, il est difficile d’affirmer que la littérature soit parvenue à un quelconque consensus. D’un côté, plusieurs études (notamment celles publiée par Card) suggèrent que l’immigration a un impact peu significatif, voire positif, sur les travailleurs natifs. De l’autre, plusieurs études, en particulier celles de Borjas, estiment que l’immigration peut avoir de profonds coûts sur les autochtones. En étudiant les pays l’OCDE au cours de la période 1990-2000, Frédéric Docquier, Çaglar Ozden et Giovanni Peri (2014) estiment que l’immigration a eu un impact légèrement positif ou aucun impact sur les salaires moyens des autochtones dans chaque pays étudié. Ces effets, allant de 0 % à 4 %, sont généralement positivement corrélés avec le taux d’immigration du pays, c’est-à-dire la taille du flux d’immigrés relativement à la population. En outre, toujours parmi les pays de l’OCDE, l’immigration a eu les effets bénéfiques les plus amples sur les salaires des travailleurs les moins diplômés. En fait, plusieurs études ne suggèrent pas une concurrence entre autochtones et immigrés, mais plutôt entre immigrés eux-mêmes. Gianmarco Ottaviano et Giovanni Peri (2012), parmi d'autres, notent que ce sont ceux qui sont issus des plus récentes vagues d’immigration qui sont les plus affectés par les nouvelles vagues d’immigration ou, tout du moins, qui en tirent le moins de bénéfices.

Plusieurs études se sont focalisées sur l’impact de l’immigration sur le marché du travail français. Par exemple, Javier Ortega et Gregory Verdugo (2011) ont étudié l’impact de l’immigration sur les salaires et l’emploi des autochtones en France entre 1962 et 1999. Une première estimation leur suggère qu’une hausse de l’immigration de 10 % se traduit par une hausse des salaires des autochtones de 3 % ; une seconde estimation, plus fine, leur suggère des gains plus faibles, mais toujours positifs. De son côté, Anthony Edo (2013) constate que l’immigration n’affecte pas les salaires des autochtones, mais qu’elle entraîne tout de même des effets négatifs sur l’emploi. Ce résultat suggère qu’avec la rigidité relativement plus forte des salaires en France que dans les autres pays développés, l’ajustement du marché du travail face à l’immigration se fait davantage via l’emploi. Edo constate que les immigrés sont moins réticents à connaître de plus mauvaises conditions de travail que les autochtones de même productivité, ce qui accroît leurs chances d’être embauchés relativement à ces derniers. Enfin, il note que les autochtones qui sont embauchés sur des contrats temporaires, qui sont marqués par une moindre rigidité salariale que les contrats à durée indéterminée, sont susceptibles de subir des baisses de salaires en conséquence de l’immigration.

 

Références

BORJAS, George (2003), « The labor demand curve is downward sloping: Reexamining the impact of immigration on the labor market », in Quarterly Journal of Economics, vol. 118, n° 4.

CARD, David (1990), « The impact of the Mariel boatlift on the Miami labor market », in Industrial and Labor Relations Review, vol. 43, n° 2.

DOCQUIER, Frédéric , Çaglar OZDEN & Giovanni PERI (2014), « The labour market effects of immigration and emigration in OECD countries », in The Economic Journal, vol. 124, n° 579.

EDO, Anthony (2013), « The impact of immigration on native wages and employment », Centre d'économie de la sorbonne, working paper, n° 2013.64.

FRIEDBERG, Rachel M. (2001), « The impact of mass migration on the Israeli labor market », in Quarterly Journal of Economics, vol. 111.

FRIEDBERG, Rachel M., & Jennifer HUNT (1995), « The impact of immigrants on host countries wages, employment and growth », in Journal of Economic Perspectives, vol. 9.

HUNT, Jennifer (1992), « The impact of the 1962 repatriates from Algeria on the French labor market », in Industrial and Labor Relations Review, vol. 45.

LEWIS, Ethan (2011), « Immigration, skill mix, and capital skill complementarity », in Quarterly Journal of Economics, vol. 126.

ORTEGA, Javier, & Gregory VERDUGO (2011), « Immigration and the occupational choice of natives: A factor proportions approach », Banque de France, document de travail, n° 335.

OTTAVIANO, Gianmarco, & Giovanni PERI (2012), « Rethinking the effects of immigration on wages », in Journal of the European Economic Association, vol. 10, n° 1.

Partager cet article
Repost0
14 décembre 2016 3 14 /12 /décembre /2016 21:45
Comment peut-on expliquer les cycles d’affaires ?

Il existe deux grandes explications orthodoxes des cycles d’affaires. D’un côté, selon les néoclassiques, les cycles d’affaires trouvent avant tout leur origine du côté de l’offre. Lorsque l’économie subit un « choc d’offre positif » (une vague d’innovations améliorant la productivité, un contre-choc pétrolier, une baisse de la fiscalité etc.), l’activité tend à s’en trouver stimulée et l’inflation tend à ralentir. Par exemple, grâce au progrès technique, les entreprises ont accès à des méthodes de production qui leur permettent de produire plus rapidement et à moindres coûts ; la baisse des coûts leur permet de baisser leurs prix, donc d’accroître les ventes pour écouler leur supplément de production. Inversement, si l’économie subit un « choc d’offre négatif » (un choc pétrolier, des intempéries ou un conflit qui détruisent le tissu productif et les récoltes, une hausse de la fiscalité, etc.), l’activité tend à ralentir et l’inflation à s’élever. Par exemple, si les prix du pétrole augmentent, les coûts de production se renchérissent, ce qui réduira les profits ; pour maintenir leur marge, les firmes sont incitées à relever leurs prix de vente, mais ce faisant elles accroissent de nouveau les coûts de production des entreprises qui se fournissent auprès d’elles, donc l’inflation risque de s’accélérer. C’est précisément ce qui s’est passé lors de l’épisode de stagflation des années soixante-dix.

D’un autre côté, selon les keynésiens, les cycles d’affaires trouvent avant tout leur origine du côté de la demande globale. Dans leur optique, les entreprises prennent leurs décisions en matière de production, d’investissement, d’embauche et de fixation des prix en fonction de la demande, notamment de leurs anticipations de demande. Si les entreprises anticipent une forte demande, elles auront tendance à augmenter leur production, à investir pour accroître leurs capacités de production, à embaucher et à relever leurs prix. Réciproquement, si elles anticipent qu’elles vendront peu, elles auront tendance à réduire leur production, à réduire leurs dépenses d’investissement de façon à ne pas avoir trop de capacités de production excédentaires, à réduire les embauches, voire à licencier, mais aussi à baisser leurs prix. Autrement dit, une faible demande est susceptible d’entraîner une récession. 

Si le cycle économique trouve effectivement sa source du côté de la demande, alors plusieurs mécanismes sont susceptibles d’amplifier les cycles économiques. En effet, lorsque l’économie est en surchauffe, plusieurs cette dernière. Par exemple, si les prix augmentent, les agents vont avoir tendance à anticiper une poursuite de la hausse des prix, ce qui les incite à avancer leurs dépenses, notamment leurs achats de biens durables ; or, l’accroissement immédiat de la demande incite les entreprises à répondre à celle-ci en relevant leurs prix, en particulier si elles font face à des goulots d’étranglement, ce qui alimente en retour l’inflation. Lorsque leurs capacités de production sont saturées, les entreprises sont incitées à les accroître, donc à investir, mais l’investissement n’accroît pas immédiatement l’offre ; par contre, elle alimente instantanément la demande globale. Réciproquement, lorsque l’économie est en récession, cette dernière est susceptible de s’aggraver et de se muer en véritable dépression. En effet, face à une faible demande, les entreprises réduisent leurs dépenses (en investissement ou en consommation intermédiaire), licencient, voire réduisent les salaires, mais elles contribuent par là même à réduire davantage la demande globale. Si les firmes réduisent les prix pour tenter de vendre plus, les agents sont susceptibles d’être incités à reporter leurs achats de biens durables, afin de profiter de plus faibles prix à l’avenir, mais cela comprime davantage la demande à court terme.

Ces deux interprétations ne sont pas en soi contradictoires : théoriquement, il n’est pas impossible que l’économie puisse connaître successivement des chocs d’offre et des chocs de demande. Il est toutefois difficile de déterminer quelle est la source exacte des fluctuations de l’activité, en particulier en temps réel [1]. Dans l’une et l’autre de ces interprétations, les variables réelles comme la production, la consommation et l’investissement ont un comportement procyclique, ce qui est confirmé par les données empiriques. Comme le suggérait notamment Larry Summers (1986), les économistes peuvent observer le comportement de l’inflation afin de déterminer si une récession (ou une expansion) résulte d’un choc d’offre ou de demande ; c’est notamment sur cette idée que se sont appuyés Olivier Blanchard et Danny Quah (1989) lorsqu’ils ont proposé une méthode d’identification empirique des chocs. En effet, si la récession résulte d’une insuffisance de la demande globale, l’inflation devrait avoir tendance à ralentir, voire à laisser place à une déflation. Par contre, si elle résulte de problèmes du côté de l’offre, les prix devraient avoir tendance à augmenter. 

Il y a quelques années, Michal Andrle, Jan Brůha et Serhat Solmaz (2013) avaient observé le comportement de l’inflation et de la production dans la zone euro. Ils avaient mis en évidence que les deux variables tendaient à varier dans le même sens. Cette co-variation n’était pas apparente à première vue, mais elle apparaissait clairement à la fréquence des cycles d’affaires. A la fréquence des cycles d’affaires, la production et l’inflation sous-jacente tendent à varier dans le même sens et cette variation est à la fois stable et robuste ; les variations de l’inflation étaient toutefois en retard par rapport aux fluctuations de la production.

Dans une nouvelle contribution, Andrle et alii (2016) ont cherché à déterminer quels sont les principaux facteurs derrière les fluctuations de l’activité économique, mais en élargissant leur échantillon à l’ensemble des pays développés. Ils mettent à nouveau en évidence une tendance robuste et prévisible des variables réelles à varier dans le même sens au cours du cycle d’affaires, aussi bien d’un pays à l’autre qu’au cours du temps. Les cycles d’affaires dans les pays développés semblent trouver leur origine dans une unique source. Dans la mesure où la production réelle et l’inflation tendent à varier dans le même sens, cela plaide à nouveau en faveur d’une explication des cycles d’affaires reliant directement ces derniers à la demande globale. En l’occurrence, cette dernière expliquerait 80 % des variations des agrégats macroéconomiques au cours du cycle d’affaires.

 

[1] Cette question est cruciale pour les autorités publiques. Celles-ci doivent réagir à un choc d’offre négatif en mettant en œuvre des réformes structurelles afin d’accroître le potentiel de production de l’économie ; elles doivent réagir à un choc de demande négatif en stimulant la demande globale. Par contre, si elles mettent en œuvre des réformes structurelles à l’instant même où l’économie souffre d’une insuffisance de la demande globale, elles risquent de déprimer davantage cette dernière, donc d’aggraver la récession. De même, si elles assouplissent leurs politiques conjoncturelles alors même que la récession résulte de problèmes d’offre, elles risquent de ne pas parvenir à stimuler l’activité, mais par contre d’aggraver la récession en alimentant les pressions inflationnistes et dégradant par là davantage la profitabilité des firmes.

 

Références

ANDRLE, Michal, Jan BRŮHA & Serhat SOLMAZ (2013), « Inflation and output comovement in the euro area: Love at second sight? », FMI, working paper, n° 13/192, septembre.

ANDRLE, Michal, Jan BRŮHA & Serhat SOLMAZ (2016), « Output and inflation co-movement: An update on business-cycle stylized facts », FMI, working paper, n° 16/241, décembre.

BLANCHARD, Olivier J., & Danny QUAH (1989), « The dynamic effects of aggregate demand and supply disturbances », in American Economic Review, vol. 79, n° 4.

SUMMERS, Lawrence H. (1986), « Some skeptical observations on real business cycle theory », in Federal Reserve Bank of Minneapolis Quarterly Review, automne.

Partager cet article
Repost0
11 décembre 2016 7 11 /12 /décembre /2016 15:53
Comment le vieillissement démographique affecte-t-il la croissance de la productivité ?

Dans de nombreux pays développés, en particulier en Europe, les taux de fertilité déclinent dans un contexte où l’espérance de vie s’allonge et où l’immigration reste faible, si bien que la population tend à vieillir. Cela se traduit non seulement par une hausse des ratios de dépendance (par exemple, de la part des personnes âgées dans la population totale), mais également par une baisse des taux d’activité (la part des actifs dans la population en âge de travailler) et une hausse de l’âge moyen des personnes en emploi. La part des personnes âgées de plus de 55 ans devrait tout particulièrement s’accroître au cours des proches décennies, en particulier en Espagne, en Italie, au Portugal, en Grèce et en Irlande. Pour autant, même si l’Europe est aujourd’hui la région qui présente le plus grand pourcentage de personnes âgées de 60 ans ou plus, le reste du monde va également connaître un vieillissement rapide : en 2050, les plus de 60 ans représenteront plus du quart de la population dans chaque grande région du monde, à l’exception notable de l’Afrique [Aksoy et alii, 2015].

Si les économistes tendent à s’accorder pour considérer que la croissance démographique et le rajeunissement démographique stimulent la croissance économique (avec l’idée du « dividende démographique »), ils considèrent réciproquement que le vieillissement démographique freine la croissance économique, et ce via plusieurs canaux. Du côté de l’offre, le vieillissement de la population active, voire le déclin du nombre de personnes en âge de travailler, freine directement  la contribution du facteur travail à la croissance économique. Certes, il n’y a pas consensus autour de l’impact même sur l’épargne et (sa corollaire) la demande globale : pour autant, pour les néoclassiques, le vieillissement démographique tend à freiner la croissance économique en déprimant l’épargne agrégée ; pour les keynésiens, il tendrait au contraire à freiner la croissance et à alimenter les tensions déflationnistes en déprimant la demande globale. En poussant le taux d'intérêt naturel à la baisse, il serait l'une des principales causes de la stagnation séculaire  et contribuerait par là même à accroître la fréquence des épisodes de trappes à liquidité. La hausse des pensions de retraite dans un contexte d’affaiblissement des cotisations sociales et des rentrées fiscales tendrait à accroître la dette publique, donc à freiner la croissance économique en alourdissant le fardeau fiscal. 

Le vieillissement démographique est également susceptible d’affecter la croissance économique en modifiant la productivité. A un instant donné, les différentes classes d’âges dans la population active ne présentent pas le même niveau de productivité, si bien qu’une déformation de la composition en termes d’âge de la population active modifie le rythme de croissance de la productivité au niveau agrégé. En effet, la productivité d’un travailleur change tout au long de sa carrière. Plus il passe de temps en emploi, plus il acquiert d’expérience (notamment via l’apprentissage par la pratique). Par contre, plus il vieillit, plus il est lui est difficile d’acquérir de nouvelles compétences, d’apprendre à manier les nouvelles technologies ou à en créer de nouvelles, et plus les savoirs qu’il a déjà acquis se déprécient. Les compétences d’un travailleur pourraient dépendre tout particulièrement des compétences qu’il a initialement acquises, c’est-à-dire avant l’entrée même sur le marché du travail (lors de la scolarité) et lors des premiers temps dans la vie active : or plus le temps passe, plus ces compétences initiales s’usent ou deviennent obsolètes [Dixon, 2003]. Ainsi, la productivité d’un travailleur tendrait d’abord à augmenter, puis à décliner. Bref, il y aurait un âge, ou tout du moins une tranche d’âge, où la productivité atteindrait son maximum. Or, comme dans beaucoup de pays le salaire dépend de l’ancienneté, cela gonfler les coûts de production des entreprises alors même que leur main-d’œuvre perd en efficacité.

Plusieurs études empiriques suggèrent que la productivité et la propension à innover d’un individu atteignent leur maximum entre 40 et 50 ans [Aiyar et alii, 2016]. Par exemple, en analysant un large échantillon de pays développés et en développement entre 1960 et 1990, James Feyrer (2007, 2008) confirme en effet l’existence d’une relation en cloche entre l’âge et le niveau de productivité : la croissance de la productivité s’accélère lorsque la proportion des 40-49 ans parmi les travailleurs augmente, puis elle ralentit lorsque la proportion de travailleurs âgés augmente. A partir de données américaines sur la période 1975- 1995, Feyrer (2008) suggère que l’âge médian des innovateurs est stable autour de 48 ans, tandis que l’âge médian des dirigeants qui adoptent de nouvelles idées est plus proche de 40 ans. De son côté, Benjamin Jones (2010) constate que l’innovation est positivement associée aux cohortes jeunes et d’âge moyen, mais négativement affectée par les cohortes les plus vieilles. Yunus Aksoy, Henrique Basso, Ron Smith et Tobias Grasl (2015) montrent que les travailleurs âgés de plus de 50 ans ont un impact fortement négatif sur le nombre total de demandes de brevets. Par contre, les études portant sur des données plus désagrégées, par exemple celles obtenus au niveau des secteurs ou des entreprises prises individuellement rapportent des résultats plus nuancés. Axel Börsch-Supan et Matthias Weiss (2016) constatent par exemple que la productivité des travailleurs d’un grand constructeur automobile allemand commence à décliner à partir de 60 ans environ. Ces résultats pourraient suggérer que des externalités négatives tendraient à estomper au niveau agrégé certains effets positifs associés aux travailleurs âgés.

Au final, le vieillissement de la population active pourrait ainsi initialement stimuler l’innovation et la croissance de la productivité agrégée (dans la mesure où une part croissante des travailleurs se rapprochent de la tranche d’âge où ils sont les plus efficaces et innovants), avant de les déprimer (dans la mesure où une part croissante des travailleurs dépassent l’âge où leur productivité est maximale).

En analysant les données américaines, Nicole Maestas, Kathleen Mullen et David Powell (2016) montrent qu’un accroissement de 10 % de la part des 60 ans et plus dans la population déprime la croissance du PIB par tête américain de 5,5 %. Ainsi, le vieillissement démographique contribuerait à réduire la croissance annuelle du PIB américain de 1,2 point de pourcentage au cours de cette décennie et de 0,6 au cours de la suivante. Ce ralentissement s’expliquerait pour les deux tiers par la baisse du taux de croissance du PIB par travailleur (c’est-à-dire de la productivité du travail) et pour le tiers restant par le ralentissement de la croissance de la population active. En outre, ils constatent que le déclin de la croissance de la productivité occasionné par le vieillissement de la population active s’observe à chaque tranche d’âges des travailleurs. Autrement dit, une plus forte présence de travailleurs âgés rend les autres travailleurs moins efficaces.

En analysant les données relatives à 28 pays européens, Shekhar Aiyar, Christian Ebeke et Xiaobo Shao (2016) constatent que la croissance du nombre de travailleurs âgés de plus de 55 ans a contribué à réduire la croissance de la productivité totale des facteurs de 0,1 point de pourcentage en moyenne au cours des deux dernières décennies. L’impact n’a bien évidemment pas été le même d’un pays à l’autre : en Lettonie, en Lituanie, en Finlande, aux Pays-Bas et en Allemagne, ce sont environ 0,2 points de pourcentage qui ont été amputés chaque année à la croissance de la productivité totale des facteurs. Entre 2014 et 2035, le vieillissement de la population active devrait réduire la croissance de la productivité totale des facteurs de 0,2 points de pourcentage en moyenne. Cet effet serait encore plus sévère dans les pays comme l’Espagne, l’Italie, le Portugal, la Grèce et l’Irlande où l’on prévoit un vieillissement rapide de la main-d’œuvre dans un contexte de fort endettement public.

 

Références

AIYAR, Shekhar, Christian EBEKE & Xiaobo SHAO (2016), « The impact of workforce aging on European productivity », FMI, working paper, n° 16/238.

AKSOY, Yunus, Henrique S. BASSO, Ron P. SMITH & Tobias GRASL (2015), « Demographic structure and macroeconomic trends », Banco de España, documento de trabajo, n° 1528.

BÖRSCH-SUPAN, Axel, & Matthias WEISS (2016), « Productivity and age: Evidence from work teams at the assembly line », in The Journal of the Economics of Ageing, vol.7.

DIXON, Silvia (2003), « Implications of population ageing for the labour market », in Labour Market Trends.

FEYRER, James (2007), « Demographics and productivity », in The Review of Economics and Statistics, vol. 89, n° 1.

FEYRER, James (2008), « Aggregate evidence on the link between age structure and productivity », in Population and Development Review.

JONES, Benjamin (2010), « Age and great invention », in The Review of Economics and Statistics, vol. 92, n° 1.

MAESTAS, Nicole, Kathleen J. MULLEN & David POWELL (2016), « The effect of population aging on economic growth, the labor force and productivity », NBER, working paper, n° 22452.

Partager cet article
Repost0
7 décembre 2016 3 07 /12 /décembre /2016 16:29
Pourquoi les entreprises américaines sous-investissent-elles ?

Germán Gutiérrez et Thomas Philippon (2016) ont analysé le comportement de l’investissement privé en capital fixe aux Etats-Unis au cours des trente dernières décennies. Les données empiriques suggèrent que, depuis le début des années deux mille, l’investissement privé a été plus faible qu’attendu.

Suite à une hausse séculaire, la dépréciation est restée stable depuis 2000 ; par conséquent, la récente baisse de l’investissement net ne résulte pas d’une modification du taux de dépréciation, mais bien de l’investissement brut. Gutiérrez et Philippon se tournent alors vers deux grandes catégories d’explications. La première regroupe les théories qui prédisent un faible investissement en raison d’un faible Q. Elles mettent par exemple l’accent sur une possible hausse de l’aversion face au risque ou sur les révisions à la baisse de la croissance attendue. La seconde catégorie d’explications regroupe les théories qui prédisent un faible investissement malgré un Q élevé. Elles mettent par exemple l’accent sur les contraintes de crédit et la concurrence oligopolistique. Or les données suggèrent que l’investissement est faible relativement au ratio Q de Tobin : les entreprises non financières sont marquées par une forte profitabilité, mais elles n’investissent pourtant pas. Cela amène les auteurs à rejeter la première catégorie d’explications pour privilégier la seconde.

Les deux auteurs ont alors utilisé des données obtenues au niveau des secteurs et des entreprises prises individuellement pour tester huit hypothèses ; en l’occurrence, ils ont cherché à déterminer si le sous-investissement relativement au Q s’explique par des frictions financières, par une erreur de mesure, par une baisse de la concurrence ou encore par une mauvaise gouvernance des entreprises.

En effet, des frictions sur les marchés financiers pourraient contraindre les décisions d’investissement et forcer les entreprises à s’appuyer sur les fonds internes pour les financer ; certaines entreprises (par exemple les plus grandes) pourraient avoir un accès plus facile au crédit bancaire, grâce à leur réputation par exemple ; une éventuelle rareté des actifs sûrs est susceptible d’affecter les coûts en capital des entreprises. La hausse des actifs incorporels pourrait conduire à des erreurs de mesure, dans la mesure où l’investissement dans ces difficiles est difficile à mesurer, si bien que le capital total est peut-être sous-estimé et le Q surévalué ; la mondialisation pourrait conduire à sous-estimer le volume des investissements physiques qui sont entreprises aux Etats-Unis. La réglementation est susceptible d’introduire ou de renforcer les barrières à l’entrée ou à la sortie des marchés ; une hausse de l’incertitude entourant la future réglementation est susceptible de freiner les décisions d’investissement. Sur les marchés concentrés ou vieillissants qui sont caractérisés par des barrières à l’entrée ou à la sortie, les entreprises en place sont susceptibles d’être peu incitées à investir. Les récents changements dans la gouvernance des entreprises, notamment l’essor des stock-options dans la rémunération des dirigeants, ont pu également freiner l’investissement de plusieurs façons : les dirigeants peuvent être incités à accroître la part de la valeur ajoutée consacrée au profit et à accroître excessivement la part du profit versée aux actionnaires sous forme de dividendes, mais pour cela ils risquent de réduire les autres dépenses, notamment dans l’investissement ; les entreprises peuvent également utiliser leurs liquidités, non pas pour investir, mais pour racheter leurs propres actions afin de faire grimper leurs cours et de nouveau accroître la valeur actionnariale ; les actionnaires pourraient en l’occurrence faire preuve d’un court-termisme excessif en exigeant une hausse de la rentabilité à court terme, ce qui amène les entreprises à réduire les investissements qui ne sont rentables qu’à long terme.

L’analyse des données amène Gutiérrez et Philippon à rejeter l’idée que le sous-investissement puisse s’expliquer par des contraintes financières ou par une rareté des actifs sûrs. Les preuves empiriques suggérant un rôle pour la réglementation dans la faiblesse de l’investissement sont peu robustes. En revanche, le déclin de la concurrence et les changements dans la  gouvernance des entreprises pourraient expliquer ensemble 80 % du sous-investissement total relativement au ratio Q. En effet, les secteurs les plus concentrés tendent à moins investir, et ce indépendamment des conditions en vigueur sur le marché. Les changements dans la gouvernance des entreprises semblent effectivement avoir encouragé le court-termisme et incité par là même les entreprises à dépenser un montant disproportionné de leurs liquidités pour racheter leurs propres actions au lieu de les utiliser pour investir. L’essor des actifs incorporels pourrait expliquer le reste du sous-investissement ; pour autant, il ne réduit pas le pouvoir explicatif de la concurrence et de la gouvernance.

Ces résultats rejoignent ceux obtenus par Dong Lee, Han Shin et René Stulz (2016). Ces derniers ont constaté que les secteurs qui recevaient le plus de fonds étaient ceux qui présentaient le Q de Tobin le plus élevé, du moins jusqu’au milieu des années quatre-vingt-dix ; la relation n’est plus vérifiée après. Dans la mesure où les secteurs qui présentent un taux de financement plus élevé connaissent une croissance plus importante, il existe une corrélation négative non seulement entre le taux de financement d’un secteur et le ratio Q de ce même secteur, mais aussi entre les dépenses en capital et le Q de Tobin depuis le milieu des années quatre-vingt-dix. Les capitaux n’affluent plus à destination des secteurs présentant les plus grandes opportunités de croissance parce que, depuis le milieu des années quatre-vingt-dix, les entreprises présentes dans les secteurs caractérisés par les Q de Tobin les plus élevés rachètent de plus en plus leurs actions au lieu d’en profiter pour lever des fonds sur les marchés financiers.

 

Référence

GUTIÉRREZ, Germán, & Thomas PHILIPPON (2016), « Investment-less growth: An empirical investigation », NBER, working paper, n° 22897, décembre.

LEE, Dong, Han SHIN & René M. STULZ (2016), « Why does capital no longer flow more to the industries with the best growth opportunities », NBER, working paper, n° 22924, décembre.

Partager cet article
Repost0
4 décembre 2016 7 04 /12 /décembre /2016 21:09
Quel lien entre croissance démographique et émissions de gaz à effet de serre ? 

Depuis Malthus, beaucoup accusent régulièrement la croissance démographique d’être à l’origine des dégâts environnementaux et désormais des émissions de gaz à effet de serre. Or, cette relation est loin d’être évidente. Les modes de vie changent continuellement, notamment sous l’impulsion de dynamiques aussi diverses que la hausse du niveau de vie, le progrès technique et l’urbanisation, et ils peuvent devenir plus ou moins polluants, si bien qu’une population peut aussi bien davantage polluer tout en restant constante que continuer à croître en polluant moins. Si Paul Erlich et John Holdren (1971) ont par exemple affirmé que la croissance démographique constituait le principal facteur contribuant à l’accroissement des dégâts environnementaux, Barry Commoner (1972) a minimisé le rôle qu’elle pouvait jouer et mis plutôt l’accent sur l’impact des changements technologiques. Afin de mieux isoler l’importance respective des différents facteurs susceptibles de contribuer aux dégâts environnementaux, Barry Commoner a proposé l’équation IPAT, qui se note ainsi :

I = P x A x T

Cette identité comptable indique que l’impact d’une population sur l’environnement (I) dépend de la taille de la population (P), du niveau de production ou de consommation par tête (« affluence » en anglais, A) et d’un effet technologie (T) correspondant à la quantité de pollution émise par unité produite ou consommée. Elle rappelle que les nuisances environnementales tendent à augmenter si la population augmente, si la consommation ou la production moyenne par individu augmente ou encore si chaque unité produite ou consommée tend à être de plus en plus polluante. Réciproquement, elles peuvent rester constantes, voire décliner, si la propension à polluer de chaque unité produite et consommée diminue suffisamment pour compenser la croissance démographique et l’augmentation de la production et de la consommation par tête.

Les plus optimistes (notamment les néoclassiques) mettent précisément l’accent sur le progrès technique pour affirmer que la croissance démographique et la croissance économique peuvent tout à fait se poursuivre tout en permettant une baisse des émissions polluantes. Autrement dit, il pourrait exister une « courbe de Kuznets environnementale » et le progrès technique constituerait non seulement le principal moteur de la croissance économique à long terme, mais également le remède à l’un de ses plus grands « maux ». Les plus pessimistes (notamment les décroissants) estiment par contre que le progrès technique ne parviendra pas à contenir l’épuisement des ressources naturelles et le réchauffement climatique en raison de l’effet rebond qu’il entraîne : en réduisant la propension à polluer de chaque unité produite ou consommée, dont leur coût d’usage ou de production, les avancées technologiques sont susceptibles d’inciter les agents à davantage consommer et produire, ce qui tend au contraire à accroître la pollution.

Depuis sa création, l’équation IPAT est devenue l’un des cadres privilégiés des études démo-écologique, notamment pour déterminer le rôle exact des divers facteurs susceptibles de contribuer aux émissions de gaz à effet de serre. En s’appuyant sur elle, Thomas Dietz et Eugene Rosa (1997) constatent que l’élasticité des émissions de dioxyde de carbone (CO2) vis-à-vis de la croissance démographique est proche de l’unité. Autrement dit, une hausse de la population de 1 % se traduit par une hausse d’environ 1 % des émissions de CO2. Appliquant également le cadre IPAT pour étudier les données relatives à 93 pays entre 1975 et 1996, Anqing Shi (2003) constate que l’élasticité du dioxyde de carbone vis-à-vis de la croissance démographique est comprise entre 1,41 et 1,65 en fonction le modèle utilisé. En outre, elle semble bien plus élevée dans les pays en développement que dans les pays développés. Toutefois, ces diverses études ne prennent pas en compte le fait que cette élasticité puisse varier avec le niveau de la population et se concentrent sur un unique gaz à effet de serre. Matthew Cole et Eric Neumayer ont élargi la focale en étudiant également le dioxyde de souffre (SO2) et en tenant compte du fait que l’élasticité des émissions de polluants vis-à-vis de la croissance démographique puisse varier avec la taille même de la population. En ce qui concerne les émissions de CO2, ils constatent que les accroissements démographiques s’accompagnent de hausses proportionnelles des émissions, tandis qu’une hausse du taux d’urbanisation et une baisse de la taille des ménages accroissent les émissions. Pour les émissions de SO2, Cole et Neumayer constatent une relation en forme de U, avec l’élasticité des émissions vis-à-vis de la croissance démographique augmentant à des niveaux élevés de population.

Gregory Casey et Oded Galor (2016) ont récemment utilisé une équation tirée de l’équation IPAT pour estimer l’effet de la moindre fertilité sur les émissions de carbone. Ils observent comment les modifications de comportements en matière de fertilité affectent les émissions de carbone via trois canaux : la taille de la population, la structure en âges de la population et la production économique. Ils constatent que l’élasticité des émissions vis-à-vis de la population est presque sept fois plus élevée que l’élasticité des émissions vis-à-vis du revenu par tête. Les résultats de la régression impliquent que la croissance de la population peut ralentir de 1 % et le niveau de vie s’accroître de 7 % sans que la pollution n’augmente. Ces résultats ont de profondes implications, à la fois pour la politique économique et la politique environnementale. Les autorités publiques font (ou croient faire) face à un arbitrage en matière de politiques climatiques : la réglementation environnementale, les écotaxes ou les marchés des quotas d’émission peuvent certes réduire les émissions de carbone, mais en freinant la croissance économique, du moins à court terme (1). Les constats auxquels aboutissent Casey et Galor suggèrent qu’une baisse de la fertilité peut simultanément accroître le revenu par tête et réduire les émissions de carbone, c’est-à-dire contribuer à freiner le réchauffement climatique sans qu’il y ait de coûts économiques, ce qui permet de contourner l’arbitrage auquel les politiques climatiques font face.

 

(1) L’arbitrage ne tient pas forcément à plus long terme. Certes, les mesures contribuant à protéger l’environnement ont certes un coût économique (par exemple, la taxation environnementale réduit la compétitivité des entreprises et le pouvoir d’achat des ménages), mais le réchauffement climatique lui-même freine la croissance. Or, de nombreuses études suggèrent que le coût des mesures nécessaires pour freiner le réchauffement climatique est certainement inférieur au coût de ce dernier : il est moins coûteux d’agir que de ne pas agir.

 

Références

CASEY, Gregory, & Oded GALOR (2016), « Population growth and carbon emissions », CEPR, discussion paper, n° 11659, novembre.

COLE, Matthew A., & Eric NEUMAYER (2004), « Examining the impact of demographic factors on air pollution », in Population and Environment, vol. 26, n° 1.

COMMONER, Barry (1972), « The environmental cost of economic growth », in Population, Resources and the Environment.

DIETZ, Thomas, & Eugene A. ROSA (1997), « Effects of population and affluence on CO2 emissions », in Proceedings of the National Academy of Sciences, vol. 94, n° 1.

EHRLICH, Paul R., & John P. HOLDREN (1971), « Impact of population growth », in Science, vol. 171.

SHI, Anqing (2003), « The impact of population pressure on global carbon dioxide emissions, 1975–1996: evidence from pooled cross-country data », in Ecological Economics, vol. 44, n° 1.

Partager cet article
Repost0
25 novembre 2016 5 25 /11 /novembre /2016 22:12
Et si l’accord de Paris accélérait le changement climatique ?

Selon les estimations du Global Carbon Project, les émissions mondiales de dioxyde de carbone, l’un des principaux gaz à effet de serre que génère l’activité humaine, ont atteint 36,3 milliards de tonnes [Le Hir, 2016]. Elles ont donc stagné par rapport à l’année précédente et devraient rester peu ou prou au même niveau en 2016. Ce ralentissement s’expliquerait notamment par la moindre émission de polluants par la Chine, mais celle-ci a été contrebalancée par une forte hausse des émissions polluantes par l’Inde. Au final, rien n’assure que cette stabilisation se poursuive, ni même qu’elle soit suivie par une baisse. Or, selon le Global Carbon Project, il faudrait que les émissions diminuent de 0,9 % chaque année d’ici 2030 pour éviter que la température moyenne dans le monde ne s’élève de 2 °C d’ici 2100 par rapport à la moyenne observée avant l’ère industrielle. Si, par contre, les émissions retrouvaient la trajectoire ascendante qu’ils suivaient précédemment, la hausse moyenne des températures mondiales s’établira entre 3,2 et 5,4 °C d'ici 2100.

Et si l’accord de Paris accélérait le changement climatique ?

source : The Economist (2016)

L’Accord de Paris qui a été obtenu en décembre dernier dans le cadre de la COP21 vise précisément à limiter la hausse des températures à 2°C. Il appelle à la mise en œuvre de mesures modérées d’ici 2025, puis à l’adoption de mesures plus strictes par la suite. En fait, chaque Etat signataire ne s’est engagé à la mise en œuvre d’aucune mesure précise, ni à respecter un quelconque délai précis. Autrement dit, l’Accord de Paris n’impose pas une réduction immédiate des émissions de gaz à effets de serre. Or pour Laurence Kotlikoff, Andrey Polbin et Andrey Zubarev (2016), l’Accord de Paris est susceptible par là même, non pas de freiner graduellement les émissions de CO2, mais au contraire de les accélérer rapidement. En effet, il signale aux producteurs d’énergies sales que les réserves de pétrole, de gaz naturel et de charbon vont devenir des actifs « bloqués », inutilisables. Autrement dit, il leur signale soit de ne jamais les utiliser, soit de les utiliser immédiatement. Rien n’assure qu’ils choisiront la première option.

C’est ce que Hans-Werner Sinn (2008) a appelé le « paradoxe vert » (green paradox) en appliquant la règle d’Hotelling relative à l’extraction des ressources non renouvelables pour étudier l’efficacité des politiques climatiques d’atténuation. Ces dernières visent à réduire les émissions de polluants en déprimant la demande d’énergies fossiles pour freiner leur production. Or Sinn montre qu’avec la mise en œuvre de telles mesures, les propriétaires des stocks de combustibles fossiles vont s’attendre à ce que ces actifs se déprécient plus rapidement que prévu, ce qui les incitera à avancer leurs projets d’extraction. L’accélération de l’extraction des ressources naturelles entraîne alors une accélération des émissions de carbone et ainsi du réchauffement climatique. Les politiques d’atténuation risquent ainsi de se révéler contre-productives. Une telle idée n’est pas nouvelle. Quelques années auparavant, Peter Sinclair (1992) montrait déjà à travers sa modélisation comment l’introduction d’une taxe environnementale pouvait aggraver et non ralentir le réchauffement climatique.

Kotlikoff et ses coauteurs suggèrent justement que l’Accord de Paris risque d’inciter les producteurs d’énergies sales à accélérer leur extraction et leur combustion. Ils le montrent à travers un modèle à générations imbriquées où ils traitent les dommages climatiques comme une externalité négative que génèrent les générations courantes et que subissent les générations futures. En outre, ils considèrent l’offre mondiale d’énergies sales comme fixe, ce qui signifie qu’elle sera pour l’essentiel utilisée. La seule question qui demeure est quand. Si elle est utilisée rapidement, les dommages climatiques seront massifs et irréversibles. Si elle est utilisée lentement, les dommages seront moindres. Or leur modèle suggère qu’un retard dans la mise en œuvre de la réduction des émissions de carbone va accélérer dans l’immédiat la production de carbone, ce qui conduira en définitive à une hausse permanente des températures bien supérieure à la limite que se sont imposés de respecter les pays signataires de l’Accord de Paris. Dans ce cas, le changement climatique sera plus ample que si aucune action n’avait été entreprise et c’est chaque génération qui verra son bien-être décliner. A l’inverse, la mise en œuvre immédiate de mesures climatiques va inciter dès à présent les producteurs à réduire leur consommation d’énergies sales et ainsi davantage limiter le réchauffement climatique, ce qui accroîtra en définitive le bien-être de chaque génération.

 

Références

KOTLIKOFF, Laurence J., Andrey POLBIN & Andrey ZUBAREV (2016), « Will the Paris accord accelerate climate change? », NBER, working paper, n° 22731, octobre.

LE HIR, Pierre (2016), « Les émissions mondiales de CO2 se stabilisent, mais le climat continue de s’emballer », in Le Monde, 14 juillet.

SINCLAIR, Peter (1992), « High does nothing and rising and worse: carbon taxes should be kept declining to cut harmful emissions », in Manchester School of Economic and Social Studies.

SINN, Hans-Werner (2008), « Public policies against global warming: a supply side approach », in International Tax and Public Finance, vol. 15, n° 4.

Partager cet article
Repost0
19 novembre 2016 6 19 /11 /novembre /2016 15:03
Quelque chose entre le trilemme et le dilemme…

Le choix du régime de change et l’attitude vis-à-vis des flux de capitaux sont deux questions majeures en finance internationale. En s’appuyant sur les modèles à la Mundell-Fleming, la littérature théorique a souvent suggéré l’existence d’un trilemme (ou « triangle des incompatibilité » ou encore « impossible trinité ») : un pays ne peut se caractériser simultanément par une libre mobilité des capitaux, une fixité du taux de change et une autonomie monétaire, c’est-à-dire une liberté de la banque centrale dans la fixation de ses taux d’intérêt : il perd cette autonomie monétaire s’il désire à la fois libérer les mouvements de capitaux et adopter un taux de change fixe ; il doit restreindre les mouvements de capitaux s’il désire à la fois garder une politique monétaire indépendante et ancrer son taux de change sur les autres devises ; il doit laisser sa monnaie flotter s’il désire garder l’autonomie de sa politique monétaire et laisser les capitaux se mouvoir librement. Alors qu’en pratique les pays ont pu présenter au cours de l’histoire une certaine « crainte du flottement » (fear of floating), le trilemme suggère qu’un pays aurait intérêt à laisser sa monnaie flotter lorsque son compte de capital est libéralisé. C’est une idée qu’a notamment défendue Maurice Obstfeld (2015), l’actuel économiste en chef du FMI : les données empiriques lui suggèrent que les pays laissant flotter leur devise jouissent d’une politique monétaire autonome.

Hélène Rey (2013) a pourtant remis en cause ce trilemme en constatant que, même s’ils laissent leur taux de change flotter, les pays qui ont libéralisé leur compte de capital ne gardent pas pour autant l’autonomie de leur politique monétaire. En effet, les mouvements de capitaux pourraient être soumis à un véritable cycle financier mondial. Ce cycle serait intimement lié aux variations de l’indice VIX (un indicateur de volatilité financière que beaucoup perçoivent comme un indicateur de l’aversion au risque), qui trouveraient quant à elles leur origine dans les changements de la politique monétaire américaine. Lorsque la Fed assouplit sa politique monétaire, l’appétit pour le risque tendrait à augmenter (comme le suggère le déclin de l’indice VIX), ce qui stimulerait l’endettement des investisseurs financiers et favoriserait l’afflux de capitaux dans les pays émergents : c’est la phase ascendante du cycle. Inversement, lorsque la Fed resserre sa politique monétaire, l’aversion pour le risque augmenterait (comme le suggère la hausse de l’indice VIX), ce qui freinerait les prises de risques et l’endettement de la part des investisseurs financiers, mais aussi déprimerait les mouvements de capitaux à destination des pays émergents : c’est la phase descendante du risque. Rey constate que même les banques centrales des pays qui laissent flotter leur taux de change sont contraintes de suivre les décisions de la Fed, dès lors que les capitaux se meuvent librement. Au final, il semble que chaque pays fait face, non pas à un trilemme, mais à un simple dillemme, en ne pouvant en définitive choisir qu’entre un « irréconciliable duo » : soit il perd l’autonomie de sa politique monétaire en libéralisant son compte de capital, soit il adopte un contrôle des capitaux pour garder une politique monétaire autonome.

Or, la Réserve fédérale a amorcé il y a peu le resserrement de sa politique monétaire, tout d’abord en réduisant ses achats d’actifs, puis en relevant (en décembre dernier) ses taux directeurs pour la première fois depuis la crise financière mondiale : le retour de l’économie américaine au plein emploi présage une possible surchauffe de l’activité, tandis que le maintien des taux à un faible niveau risque d’alimenter de nouvelles bulles spéculatives susceptibles de conduire à une nouvelle crise financière. Mais plusieurs pays à travers le monde sont loin de connaître une surchauffe et souffrent toujours d’une insuffisance de la demande globale. La question qui se pose alors est si la banque centrale de ces pays devra tout de même resserrer sa politique monétaire. Si c’est un dilemme et non un trilemme auquel les autres pays sont confrontés, alors leur banque centrale pourrait avoir à resserrer hâtivement sa politique monétaire.

Carlos Caceres, Yan Carrière-Swallow, Ishak Demir et Bertrand Gruss (2016) ont étudié l’impact des taux d’intérêt américains sur les taux des autres pays. Ils constatent que les taux d’intérêt de court terme (et les prix d’actifs) des Etats-Unis tendent à varier dans le même sens que les taux d’intérêt de court terme (et les prix d’actifs) du reste du monde, si bien que l’on peut s’attendre effectivement à ce que l’ensemble des taux d’intérêt domestiques s’élève tout autour du monde à mesure que la politique monétaire américaine se resserrera. Mais ils remarquent que cette corrélation s’explique en partie par la synchronisation des cycles d’affaires : c’est parce que l’ensemble des pays tendent simultanément à connaître une surchauffe que la Fed et les autres banques centrales tendent à resserrer simultanément leur politique monétaire. Cela dit, Caceres et ses coauteurs constatent une forte hétérogénéité d’un pays à l’autre et ils mettent en évidence l’absence d’autonomie monétaire dans certains cas. Pour autant, leur analyse suggère que la flexibilité du taux de change joue un rôle déterminant pour assurer l’autonomie de la politique monétaire des petites économies ouvertes vis-à-vis de la politique monétaire américaine lorsqu’ils ont libéralisé leur compte de capital. Ce résultat leur suggère que les pays laissant le plus amplement flotter leur taux de change sont les plus à même de faire face aux pressions exercées par le resserrement de la politique monétaire américaine.

Plus récemment, Xuehui Han et Shang-Jin Wei (2016) ont également étudié comment les changements de la politique monétaire dans les pays développés (le centre) affectent les pays émergents (la périphérie). Ils se distinguent des précédentes études en partant de l’idée d’une possible asymétrie des réactions des économies périphériques aux variations des taux d’intérêt d’un pays central. En l’occurrence, ils se demandent si les pays périphériques pourraient ne pas être autant incités à suivre la politique du pays du centre selon que ce dernier resserre ou assouplit sa politique monétaire. En effet, sans contrôles des capitaux, un régime de change flexible offre une certaine autonomie à la politique monétaire lorsque le pays du centre resserre sa politique monétaire, mais que ce n’est pas le cas lorsque le pays du centre réduit son taux d’intérêt. En d’autres termes, si certains craignent de laisser flotter leur monnaie, c’est avant tout parce qu’ils craignent que leur taux de change s’apprécie : lorsque le pays du centre assouplit sa politique monétaire, la banque centrale d’un pays périphérique assouplit également la sienne, même si l’évolution de l’activité domestique et du chômage domestique plaiderait au contraire pour un resserrement monétaire. Ainsi, un taux de change flexible n’offre qu’une protection asymétrique ou incomplète face aux changements de politique monétaire dans le reste du monde. Les contrôles de capitaux contribuent à isoler les pays de la périphérie des chocs de politique monétaire générés par le pays du centre lorsque ce dernier réduit son taux d’intérêt, et ce qu’importe que leur taux de change soit fixe ou flottant. Bref, chaque pays ferait face à quelque chose entre le dilemme et le trilemme.

 

Références

CACERES, Carlos, Yan CARRIÈRE-SWALLOW, Ishak DEMIR & Bertrand GRUSS (2016), « U.S. monetary policy normalization and global interest rates », FMI, working paper, n° 16/195, septembre.

HAN, Xuehui, & Shang-Jin WEI (2016), « International transmissions of monetary shocks: Between a trilemma and a dilemma », NBER, working paper, n° 22812, novembre.

OBSTFELD, Maurice (2015), « Trilemma and tradeoffs: Living with financial globalization », BRI, working paper, n° 480.

REY, Hélène (2013), « Dilemma not trilemma: The global financial cycle and monetary policy independence », document de travail présenté à la conférence de Jackson Hole, 24 août.

Partager cet article
Repost0
13 novembre 2016 7 13 /11 /novembre /2016 22:00
Faut-il taxer les contrats à durée déterminée ?

Dans de nombreux pays européens marqués par une forte protection de l’emploi, comme l’Espagne, la France, l’Italie et le Portugal, la majorité des emplois occupés correspondent à des contrats à durée indéterminée ; par contre, la majorité des embauches se font avec des contrats à durée déterminée. Les contrats à durée indéterminée n’ont pas de date d’échéance, mais leur rupture est très coûteuse pour les employeurs : elle implique de complexes procédures administratives et d’importantes indemnités de licenciement. Lorsque les employeurs s’attendent à ce que la durée de l’emploi soit courte, ils peuvent utiliser des contrats temporaires qui stipulent la date d’échéance de l’emploi ; l’employeur a alors le devoir de rémunérer son salarié jusqu’à la date d’échéance, mais il n’a pas à supporter de coûts supplémentaires lors de cette dernière.

Bien sûr, les autorités imposent une forte réglementation des contrats à durée limitée (notamment la limitation de leur nombre de renouvellements) et une forte protection des contrats à durée illimitée (notamment en accroissant les coûts de licenciement qui leur sont associés) dans l’optique de favoriser ces derniers. Mais toute une littérature suggère que la protection de l’emploi nuit en définitive à ce dernier en désincitant les employeurs à embaucher : les titulaires de contrats à durée indéterminée gagneraient en termes de sécurité de l’emploi, mais cela se ferait au détriment des autres actifs, qui enchaîneraient alors plus fréquemment les emplois précaires et les périodes de chômage. Au niveau agrégé, la plus grande protection de l’emploi pourrait se traduire par un plus faible volume d’emplois.

Pour inciter les employeurs à embaucher sur de longues périodes, même avec des contrats à durée déterminée, les gouvernements ont pu avoir tendance à taxer les contrats temporaires. Ce sont les contrats temporaires de faible durée qui sont tout particulièrement taxés en Espagne, en France et au Portugal, tandis que ce sont tous les contrats temporaires qui sont taxés en Italie. La France a par exemple introduit en 2013 une taxe correspondant à 3 % du salaire brut pour les contrats temporaires durant moins d’un mois et à 1,5 % du salaire brut pour les contrats temporaires durant entre un et trois mois ; mais si l’emploi temporaire est transformé en contrat à durée indéterminée, la taxe est remboursée à l’entreprise. L’année dernière, le gouvernement avait précisément projeté d’accroître la taxation des emplois à durée déterminée pour mieux faire passer la loi El Khomri.

Pierre Cahuc, Olivier Charlot, Franck Malherbet, Hélène Benghalem et Emeline Limon (2016) ont analysé les conséquences de la taxation des emplois temporaires que les gouvernements de plusieurs pays européens ont récemment mis en œuvre en appliquant un modèle aux données françaises. Leur analyse suggère que la taxation des contrats temporaires n’est pas une mesure appropriée pour inciter les entreprises à créer davantage d’emplois stables dans les pays d’Europe continentale qui sont caractérisés par une forte protection des emplois permanents. Certes, la taxation des contrats de courte durée peut inciter les entreprises à substituer des contrats à plus longue durée à des contrats de plus faibles durée, ainsi qu’à substituer des contrats permanents à des contrats provisoires si cela leur permet d’éviter de payer la taxe. La réduction de l’instabilité de l’emploi est amplifiée si la taxe est remboursée lorsque les contrats à durée déterminée sont transformés en contrats à durée indéterminée ou encore si la taxe sur les contrats temporaires de courte durée est augmentée tout en étant compensée par une réduction de la taxe sur les contrats temporaires de longue durée et sur les contrats permanents.

Toutefois, l’analyse de Cahuc et alii suggère que la taxation des contrats à durée déterminée réduit la durée moyenne des emplois et aggrave le chômage. L’analyse aboutit également à ce résultat lorsque la taxation est ciblée sur les contrats temporaires de court terme tout en étant compensée par une moindre taxation des contrats à durée indéterminée et des emplois temporaires de longue durée. Ils en concluent qu’il faut donc mettre en œuvre d’autres politiques pour contrer la forte segmentation des marchés du travail européens entre les emplois stables et les emplois instables. Pour accroître l’emploi et le bien-être des chômeurs, Cahuc et ses coauteurs rejoignent les conclusions obtenues par des auteurs comme Olivier Blanchard et Jean Tirole (2008) en estimant qu’il vaut mieux réduire les coûts de licenciement des contrats à durée indéterminée plutôt que de taxer les contrats temporaires pour réduire l’instabilité de l’emploi.

 

Références

BLANCHARD, Olivier J., & Jean TIROLE (2008), « The joint design of unemployment insurance and employment protection: A first pass », in Journal of the European Economic Association, vol. 6, n° 1.

CAHUC, Pierre, Olivier CHARLOT, Franck MALHERBET, Hélène BENGHALEM & Emeline LIMON (2016), « Taxation of temporary jobs: Good intentions with bad outcomes? », IZA, discussion paper, n° 10352, novembre.

Partager cet article
Repost0
11 novembre 2016 5 11 /11 /novembre /2016 17:59
La crise mondiale a-t-elle durablement bouleversé la conduite de la politique monétaire ?

La sévérité de la crise financière mondiale et la lenteur de la subséquente reprise ont poussé les banques centrales à fortement assouplir leur politique monétaire, tout d’abord en rapprochant leurs taux directeurs au plus proche de zéro, puis en adoptant des mesures moins « conventionnelles, comme les achats d’actifs à grande échelle dans le cadre de programmes d’assouplissement quantitatif (quantitative easing), en améliorant leur communication pour mieux guider les anticipations des agents à travers la pratique du forward guidance ou encore en poussant leurs taux directeurs en territoire négatif. C’est ainsi que peut-être « la nécessité s’est révélée être la mère de l’innovation ».

Mais, à mesure que le temps passe et que les effets de la crise mondiale s’atténuent ou que, tout du moins, le souvenir de la crise s’éloigne, il n’est pas impossible que les banques centrales se contentent de la boîte à outils dont elles disposaient avant la crise financière, c’est-à-dire essentiellement la variation des taux directeurs. Certes, certaines d’entre elles sont toujours aux prises avec une activité domestique particulière atone, mais d’autres ont commencé à resserrer leur politique monétaire, notamment pour éviter une surchauffe de leur économie et la formation d’une nouvelle bulle spéculative. Aujourd’hui, même si des banques centrales comme la BCE et la Banque du Japon continuent à adopter de nouvelles mesures pour davantage assouplir leur politique monétaire, la Réserve fédérale a quant à elle réduit ses achats d’actifs et a déjà commencé à relever son taux directeur, en raison du retour de l’économie américaine au « plein emploi ».

Ainsi, Alan Blinder, Michael Ehrmann, Jakob de Haan et David-Jan Jansen (2016) se sont demandé si ces récents changements observés dans la mise en œuvre de la politique monétaire sont susceptibles ou non d’être permanents. Ils s’appuient en l’occurrence sur deux sondages qu’ils ont menés entre février et mai 2016, l’un réalisé auprès des gouverneurs de nombreuses banques centrales à travers le monde et un second réalisé auprès des spécialistes de la politique monétaire parmi les universitaires. Ils constatent que les banques centrales dans les pays les plus touchés par la crise ont été celles qui ont été les plus enclines à recourir à de nouvelles mesures de politique monétaire, d’avoir discuté de leurs mandats et d’avoir davantage communiqué sur leurs actions et objectifs. Autrement dit, la nécessité a effectivement été « la mère des innovations ». Mais il semble que les idées ont plus largement changé. Par exemple, les banques centrales dans les pays les moins touchés par la crise ont indiqué avoir mis en œuvre des mesures de politique macroprudentielle. En outre, la relation entre les banques centrales et leurs gouvernements peuvent avoir bien changé, les banques centrales franchissant plus souvent la ligne de démarcation.

Certes, le monde des banquiers centraux n’a pas beaucoup changé, surtout si l’on fait abstraction de la Fed, de la Banque d’Angleterre, de la BCE et de la Banque du Japon : 70 % des gouverneurs de banque centrale qui ont répondu à l’annonce n’ont pas considéré l’éventualité d’adopter des taux nuls, voire des taux négatifs, ni même un programme d’assouplissement quantitatif. Mais la crise mondiale a amené beaucoup de gouverneurs et d’universitaires à reconsidérer ce que devait être le mandat des banques centrales. Beaucoup considèrent notamment que les autorités monétaires doivent ajouter la stabilité financière parmi leurs objectifs. Les mandats de certaines banques centrales ont d’ailleurs déjà été modifiés pour intégrer un objectif de stabilité financière. Pour autant, la plupart ne considèrent pas l’éventualité d’abandonner l’objectif de ciblage d’inflation.

Globalement, Blinder et ses coauteurs s’attendent à ce que les banques centrales aient à l’avenir de plus larges mandats, qu’elles utilisent plus largement des outils macroprudentiels et qu’elles communiquent plus activement qu’elles ne le faisaient avant la crise. Bien qu’il n’y ait pas encore de consensus sur les bénéfices ou sur les coûts respectifs des mesures non conventionnelles, Blinder et alii s’attendent à ce que la plupart d’entre elles demeurent dans les boîtes à outils des banques centrales, dans la mesure où les gouverneurs qui ont acquis de l’expérience avec un outil particulier sont les plus susceptibles d’avoir une bonne opinion de celui-ci. En outre, même si beaucoup pensent que les banques centrales doivent adopter des mesures macroprudentielles, il n’y a aucun consensus sur celles qui doivent être adoptées.

Enfin, Blinder et ses coauteurs notent de réelles différences entre ce que pensent les universitaires et ce que pensent les banquiers centraux sur la conduite de la politique monétaire. Par exemple, les premiers sont davantage favorables à ce que la plupart des mesures non conventionnelles qui ont été adoptées depuis la crise mondiale demeurent dans la boîte à outils des banques centrales, tandis que les seconds jugent souvent qu’il est trop tôt pour juger. En outre, même si les gouverneurs des banques centrales et les universitaires sont d’accord à l’idée que les banques centrales communiquent davantage depuis la crise et qu’elles continueront ainsi à le faire, les universitaires montrent une préférence pour le forward guidance qualitatif, basé sur les données, tandis que les banquiers centraux préfèrent généralement la forme qualitative du forward guidance. Enfin, si les gouverneurs des banques centrales ne jugent pas avoir reçu beaucoup de critiques pour avoir agi sur le plan politique ou avoir franchi la ligne durant la crise, la majorité des universitaires estiment au contraire que les autorités monétaires ont fait l’objet de nombreuses critiques pour avoir agi ainsi, beaucoup s'inquiétant notamment de leur indépendance.

 

Référence

BLINDER, Alan, Michael EHRMANN, Jakob de HAAN & David-Jan JANSEN (2016), « Necessity as the mother of invention: Monetary policy after the crisis », NBER, working paper, n° 22735, octobre.

Partager cet article
Repost0
6 novembre 2016 7 06 /11 /novembre /2016 22:11
Comment ont évolué les inégalités régionales dans les pays développés ?

Les inégalités de revenu sont particulièrement fortes entre les régions. Par exemple, l’Ile-de-France a beau représenter 2,2 % du territoire français, elle concentre pourtant 18,8 % de la population française et produit 31 % du PIB français [Diez et alii, 2015]. En 2010, le niveau de vie d’un Francilien était 1,66 fois plus élevé que le niveau de vie moyen en France et même 2,21 fois plus élevé que celui d’un habitant du Limousin, la région la plus pauvre de France. Ces inégalités régionales étaient déjà très importantes un siècle et demi auparavant. En effet, en 1860, l’Ile-de-France était déjà la région la plus riche de France. Le niveau de vie de ses habitants représentait alors le double du niveau de vie moyen français et était 3,13 fois plus élevé que celui des habitants de la région la plus pauvre alors, en l’occurrence la Bretagne [Combes et alii, 2011].

Plusieurs études ont suggéré que les inégalités de revenu régionales ont suivi une forme en cloche, en croissant lors du décollage de la croissance, au début de l’industrialisation et de l’intégration des marchés, puis en déclinant par la suite. Autrement dit, les inégalités régionales suivraient une sorte de courbe de Kuznets. En l’occurrence, lors des premières étapes de l’industrialisation, quand s’amorce la croissance, les activités industrielles à forte valeur ajoutée tendraient à se concentrer dans un ensemble limité de lieux, laissant le reste du territoire héberger les activités les moins productives comme les activités agricoles. Avec la baisse des coûts de transport, il est de moins en moins nécessaire pour les entreprises de localiser leurs établissements à proximité des gisements de ressources naturelles et des fournisseurs, tandis que les avantages d’une concentration deviennent de plus en plus manifestes. Les inégalités spatiales ont alors tendance à s’auto-renforcer : par le jeu des économies d’échelle et des externalités d’agglomération, un lieu tend à attirer d’autant plus les activités productives et les travailleurs les plus qualifiés qu’il en concentre déjà beaucoup. La concentration n’est toutefois pas sans coûts : par exemple, le prix des terrains et de l’immobilier augmentent, les phénomènes de congestion (comme les bouchons sur la route) se multiplient, le temps de trajet des travailleurs entre leur domicile et leur travail augmentent, etc. Ainsi, les avantages de la concentration déclinent au cours du temps et, à partir d'un certain moment, les activités productives finissent par se disperser à nouveau.

Jeffrey Williamson (1965) constate précisément au niveau empirique que les inégalités régionales de revenu par tête ont connu une telle évolution en forme de cloche aux Etats-Unis, en atteignant leur pic au début du vingtième siècle. Un tel phénomène a également été observé dans les pays européens, notamment en France. Par exemple, selon Pierre-Philippe Combes, Miren Lafourcade, Jacques-François Thisse et Jean-Claude Toutain (2011), la répartition spatiale des activités industrielles et tertiaires a connu une évolution en forme de cloche en France depuis le milieu du dix-neuvième siècle : la concentration spatiale s’est accrue entre 1860 et 1930, puis les activités se sont plus également réparties entre les départements de 1930 à 2000. Alfonso Diez, Joan Ramón Rosés et Teresa Sanchis (2015) estiment que les inégalités entre les régions françaises ont eu tendance à augmenter entre 1860 et 1896, c’est-à-dire lors des premières étapes de l’industrialisation, puis à refluer entre 1896 et 1982.

Toutefois, ce processus semble s'être de nouveau inversé ces dernières décennies, comment le suggèrent notamment Felix Arnold et Hansjörg Blöchliger (2016). Ces derniers ont étudié comment les écarts en termes de PIB par tête entre 281 régions des pays de l’OCDE ont évolué entre 1995 et 2013. Ils constatent qu’en 2013, le PIB par tête des pays les plus riches (en l’occurrence du Luxembourg) était quatre fois plus élevé que celui du pays développé le plus pauvre (en l’occurrence le Chili). Le PIB par habitant de la région la plus riche (en l’occurrence le Luxembourg) était dix fois plus élevé que celui de la région la plus pauvre (en l’occurrence, l’Araucanie, au Chili). Entre 1995 et 2013, le PIB par tête s’est accru dans tous les pays, sauf en Grèce. La hausse du niveau de vie est la plus élevée dans les pays les moins développés, ce qui indique qu’un phénomène de rattrapage a été à l’œuvre.

Mais lorsqu’ils comparent l’ensemble des régions de leur échantillon les unes avec les autres, Arnold et Blöchliger constatent que les inégalités de PIB des régions, mesurées par un coefficient de Gini, ont diminué entre 1995 et 2013. Mais, au cours de cette même période, les inégalités entre les régions au sein de chaque pays, mesurées également par un coefficient de Gini, ont eu tendance à augmenter. Autrement dit, les inégalités entre les pays développés se sont réduites, mais les inégalités au sein de chaque pays développé ont eu tendance à augmenter. Et ce malgré le fait que l’ensemble des PIB régionaux aient eu tendance à augmenter : les régions les plus avancées ont eu tendance à s’enrichir plus rapidement que les régions les plus pauvres. Les plus fortes hausses des inégalités régionales ont été observées dans les pays qui appartenaient au bloc soviétique, en l’occurrence la Pologne, la République tchèque et la Hongrie.

Ces résultats sont notamment cohérents avec ceux obtenus par Sanchis et alii dans le cas français. Ces derniers notent que les dernières décennies du vingtième siècle ont été marquées par une nouvelle hausse des inégalités régionales en France ; ces dernières sont même revenues au niveau qu’elles atteignaient lors des années trente.

De son côté, The Economist (2016) note que les inégalités de revenu se sont accrues entre les régions les plus riches et les régions les plus pauvres dans chaque pays de la zone euro depuis la crise financière. Par exemple, le niveau de vie de la Calabre, la région la plus pauvre d’Italie, représente 40 % de celui de la province de Bolzano, la région la plus riche d’Italie, contre 45 % en 2007. Les autres régions pauvres du reste de la zone euro ont vu leur revenu chuter, tant en termes relatifs qu’en termes absolus. L’Allemagne constitue toutefois une exception, puisque le PIB par tête de l’ex-RDA (à l’exclusion de Berlin) s’élève à 67 % de celui de l’ex-RFA. Toutefois, l’essentiel du rattrapage en Allemagne s’est opéré au début des années quatre-vingt-dix, immédiatement suite à la réunification ; il ne s'est poursuivi par la suite que lentement. The Economist met l’accent sur deux possibles facteurs susceptibles d'expliquer la divergence entre les niveaux de vie régionaux : la désindustrialisation et l’austérité budgétaire. Les emplois de la fonction publique et les revenus de transfert ont en effet décliné, et ce peut-être tout particulièrement dans les régions les pauvres, c’est-à-dire celles qui en avaient le plus besoin. En analysant 13 pays européens sur la période s’écoulant entre 1980 et 2008, Luca Agnello, Giorgio Fazio et Ricardo Sousa (2016) ont constaté que les inégalités régionales ont eu tendance à se détériorer suite aux épisodes de consolidations budgétaires, en particulier lorsque ces derniers ont été amples et se sont appuyés sur une réduction des dépenses publiques plutôt que sur des hausses d’impôts. Autrement dit, le creusement des inégalités régionales est susceptible de se poursuivre dans la zone euro, dans la mesure où les autorités continuent sur la réduction des déficits publics.

 

Références

AGNELLO, Luca, Giorgio FAZIO & Ricardo M. SOUSA (2016), « National fiscal consolidations and regional inequality in Europe », in Cambridge Journal of Regions, Economy and Society, vol. 9, n° 1.

ARNOLD, Felix, & Hansjörg BLÖCHLIGER (2016), « Regional GDP in OECD countries: How has inequality developed over time? », OCDE, economics department working paper, n° 1329.

COMBES, Pierre-Philippe, Miren LAFOURCADE, Jacques-François THISSE & Jean-Claude TOUTAIN (2011), « The rise and fall of spatial inequalities in France: A long-run perspective », in Explorations in Economic History, vol. 48, n° 2.

DIEZ, Alfonso, Joan RAMÓN ROSÉS & M. Teresa SANCHIS (2015), « Regional inequality in France 1860‐2010: Structural change dynamics », document de travail.

The Economist (2016), « The gap between poor and rich regions in Europe is widening », 29 octobre.

WILLIAMSON, Jeffrey G. (1965), « Regional inequality and the process of national development », in Economic Development and Cultural Change, vol. 13, n° 4.

Partager cet article
Repost0
1 novembre 2016 2 01 /11 /novembre /2016 15:11
Qui sont les 1 % les plus riches au monde ?

Ces dernières décennies, l’essor des pays émergents, en particulier de la Chine et de l’Inde, a bouleversé l’économie mondiale et notamment la répartition mondiale des revenus. Des millions de personnes sont sorties de l’extrême pauvreté et les inégalités mondiales de revenu ont décliné (cf. graphique 1), marquant l’émergence de ce que certains considèrent comme une véritable classe moyenne mondiale.

GRAPHIQUE 1  Indicateurs d’inégalités mondiales

Qui sont les 1 % les plus riches au monde ?

source : Anand et Segal (2016)

Les inégalités de revenu et de patrimoine restent toutefois fortement marquées. Plusieurs études, notamment celles réalisées par Thomas Piketty, se sont penchées sur la part du revenu national et la part du patrimoine national détenues par les plus aisés au sein de chaque pays : elles suggèrent notamment que les 1 % les plus riches (le centile supérieur) dans les pays développés détiennent une part croissante du revenu national et du patrimoine national depuis les années soixante-dix [Alvaredo et alii, 2013]. Par contre, le sommet de la répartition mondiale des revenus reste encore peu exploré. Les économistes du Crédit Suisse notent toutefois que les 1 % des plus riches au monde possédaient 49 % de la richesse mondiale en 2000 ; cette part a ensuite atteint un minimum à 44 % en 2009, avant de s’accroître à nouveau et d’atteindre 50 % en 2015. De son côté, Oxfam estime qu’en 2015, 62 individus cumulaient ensemble autant de richesse que la moitié de l’humanité, c’est-à-dire 3,6 milliards de personnes. Les récents bouleversements de l’économie mondiale sont susceptibles de profondément modifier la répartition des catégories les plus riches au monde. Par exemple, la liste des milliardaires tenue par Forbes n’incluait aucun Chinois en 1996 ; elle en incluait 2 en 2005, 64 en 2010. En 2016, parmi les 1.810 milliardaires que cette liste recense, 251 étaient chinois. Autrement dit, 14 % des milliardaires étaient chinois.

GRAPHIQUE 2  Part du revenu mondial détenue par les 10 % les plus riches

Qui sont les 1 % les plus riches au monde ?

source : Anand et Segal (2016)

Sudhir Anand et Paul Segal (2016) ont récemment cherché à étudier en détails la composition des 1 % les plus riches au monde et son évolution entre 1988 et 2012 en utilisant les données d’enquêtes réalisées auprès des ménages et les données sur les hauts revenus tirées des données  fiscales. Ils constatent qu’un ménage devait avoir en 2012 un revenu par tête supérieur à 50.000 dollars PPA pour appartenir au centile supérieur de la répartition mondial. C’était le cas d’environ 64,2 millions de personnes, soit l’équivalent de la population française. Pour de nombreux pays développés, ce sont les 5 à 8 % des plus riches nationaux qui appartiennent au 1 % des plus riches mondiaux. Outre les membres de l’élite nationale, il s’agit de chefs entreprises ou de « super-cadres », pour reprendre l’expression de Thomas Piketty (2016). Parmi les pays en développement, c’est le Brésil qui possède la part de la population nationale appartenant aux 1 % des plus riches mondiaux la plus importante : les 1,7 % des Brésiliens les plus riches appartiennent au 1 % les plus riches au monde. Dans la plupart des autres pays en développement, cette part est bien inférieure à 1 %. Très souvent, dans les pays en développement, il s’agit de cadres supérieurs travaillant dans des grandes entreprises. Pour appartenir au 0,1 % des individus les plus riches au monde, un individu devait gagner en 2012 un revenu supérieur à 177.000 dollars PPA. Aux Etats-Unis, c’est le cas des 1 % les plus riches ; au Japon, en Allemagne, en France et aux Royaume-Uni, c’est le cas de 0,3 à 0,5 % des plus riches. Au niveau mondial, cette catégorie regroupe environ 6,4 millions de personnes. Leurs revenus moyens sont environ 67 fois plus élevés que le revenu moyen en parités de pouvoir d’achat.

GRAPHIQUE 3 Part du revenu mondial détenue par les 1 % les plus riches

Qui sont les 1 % les plus riches au monde ?

source : Anand et Segal (2016)

En outre, Anand et Segal constatent que la part des habitants des pays en développement par les 1 % les plus riches a diminué jusqu’à 2002, puis augmente significativement à partir de 2005. Autrement dit, la part des habitants des pays développés parmi les 1 % plus riches au monde a augmenté, puis décliné. En effet, elle s’élève à 79 % en 2012, alors qu’elle était comprise entre 86 %-90 % entre 1988 et 2005. Ainsi, la majorité des 1 % les plus riches au monde est toujours issue des pays développés. Même si les Chinois sont surreprésentés parmi les milliardaires, ils demeurent encore relativement peu présents par les 1 % et les 0,1 % les plus riches au monde. Malgré la forte croissance économique dont il a également jouit, l’autre grand pays émergent qu’est l’Inde n’a pas non plus vu la part de ses habitants présents parmi les 1 % les plus riches au monde s’accroître énormément.

Le point tournant dans l’évolution dans la répartition du centile supérieur mondial se situe donc aux alentours de 2005 et il coïncide ainsi avec le retournement dans l’évolution des inégalités mondiales. C’est bien la convergence des pays en développement vis-à-vis des pays développés qui a contribué à la fois à la réduction des inégalités mondiales et à la présence croissante des pays en développement parmi le centile supérieur de la répartition mondiale. Ces deux dernières tendances ont été renforcées par la crise financière mondiale qui a durablement freiné la croissance dans les pays développés. Elles sont susceptibles de se poursuivre aussi longtemps que la croissance est plus forte dans les pays en développement que dans les pays avancés. 

 

Références

ALVAREDO, Facundo, Anthony B. ATKINSON, Thomas PIKETTY & Emmanuel SAEZ (2013), « The top 1 percent in international and historical perspective », NBER, working paper, n° 19075.

ANAND, Sudhir, & Paul SEGAL (2016), « Who are the global top 1%? », Université d'Oxford, department of economics discussion paper.

PIKETTY, Thomas (2013), Le Capital au XXIe siècle.

Partager cet article
Repost0
26 octobre 2016 3 26 /10 /octobre /2016 22:15
Que mesurent vraiment les statistiques d'IDE ?

Les économistes et les responsables politiques considèrent les investissements directs à l’étranger (IDE) comme des flux de capitaux favorables à la croissance à long terme des économies qui les reçoivent. En effet, ils permettent à ces derniers d’accroître leurs capacités de production en utilisant l’épargne étrangère. Ainsi, les IDE contribuent à ce que les pays en développement évitent de basculer ou de rester piégés dans une trappe à sous-développement en raison de leur faible épargne domestique. D’autre part, les flux IDE sont a priori relativement stables, dans la mesure où leurs initiateurs suivent une stratégie de long terme et observent l’évolution des fondamentaux à moyen terme pour prendre leurs décisions. Par contre, les autres flux de capitaux, notamment les flux de portefeuille, sont souvent considérés comme plus volatiles et ils peuvent être déstabilisateurs. Par exemple, ils semblent avoir joué un rôle déterminant dans les épisodes de crises de change que les pays émergents ont pu connaître par le passé. Ainsi, lorsqu’il est question de contrôles des capitaux, ce sont précisément des flux de capitaux comme les flux de portefeuille que ces mesures cherchent avant tout à restreindre, tandis que les économistes et les responsables politiques tendent à en exempter les IDE.

Olivier Blanchard et Julien Acalin (2016) se sont penchés sur les flux d’IDE tels qu’ils sont mesurés dans les balances de paiements en utilisant les données trimestrielles relatives aux entrées et sorties d’IDE dans 25 pays émergents entre le premier trimestre 1990 et le quatrième trimestre 2015. Ils ont tiré de leur analyse plusieurs constats qui remettent en question l’image que la littérature et les déclarations publiques donnent habituellement aux IDE.

Par exemple, on s’attendrait à ce qu’il n’y ait aucune corrélation entre, d’une part, les IDE entrants et, d’autre part, les IDE sortants ou alors qu’il y ait une corrélation négative entre eux. En effet, si un pays apparaît comme attractif aux yeux des investisseurs étrangers, il serait étonnant que les investisseurs domestiques trouvent plus rentable d’investir à l’étranger. Ainsi, on s’attendrait à ce que les IDE entrants soient d’autant plus élevés que les IDE sortants soient faibles (et réciproquement). Or, Blanchard et Acalin mettent en évidence une corrélation positive assez élevée entre les IDE sortants et les IDE entrants. Ils en concluent alors qu’une grande partie de ce que l’on mesure dans plusieurs pays comment étant des IDE entrants sont en fait que des flux de capitaux qui transitent en leur sein, très certainement pour profiter d’une fiscalité plus favorable, et qu’ils ont en fait un tout autre pays pour destination finale. Ce problème est reconnu depuis longtemps, aussi bien par les statisticiens travaillant sur les IDE que par les autorités publiques elles-mêmes, mais Blanchard et Acalin mettent en évidence une corrélation bien plus large qu’attendu.

A la différence des autres flux de capitaux, notamment des flux de portefeuille, on pourrait s’attendre à ce que les flux d’IDE soient peu sensibles au taux d’intérêt de la Fed, du moins à court terme. Certes, si la Fed assouplit sa politique monétaire, les flux de portefeuille et surtout les flux d’endettement devraient davantage s’orienter vers les pays émergents, afin d’y profiter de plus hauts rendements, mais aussi les flux d’IDE ne devraient a priori pas réagir à l’assouplissement de la politique monétaire américaine. Or, Blanchard et Acalin constatent que les entrées d’IDE dans les pays émergents tendent à augmenter suite à une baisse du taux directeur de la Fed et même à augmenter plus rapidement que les flux d’endettement. En outre, on pourrait s’attendre à ce que les sorties d’IDE en provenance des pays émergents ne réagissent pas à une baisse du taux directeur de la Fed ou, alors, qu’elles baissent suite à celle-ci. Or, Blanchard et Acalin constatent que les IDE sortants des pays émergents tendent au contraire à s’accroître lorsque la Fed assouplit sa politique monétaire. Ces deux constats amènent ainsi les auteurs à considérer qu’une grande partie des flux de capitaux enregistrés comme flux d’IDE s’apparentent en fait davantage à des flux d’endettement, dans la mesure où ils répondent davantage aux changements de court terme de la politique monétaire américaine plutôt qu’aux fondamentaux de moyen terme des pays qui les génèrent et des pays qui les reçoivent.

 

Référence

BLANCHARD, Olivier, Blanchard & Julien ACALIN (2016), « What does measured FDI actually measure? », PIIE, policy brief, n° 16-17, octobre.

Partager cet article
Repost0
22 octobre 2016 6 22 /10 /octobre /2016 19:30
Comment la politique budgétaire interagit avec l’endettement privé

La Grande Récession a pu se caractériser par un surplomb de dette privée : considérant leur endettement comme excessifs, les agents (en l’occurrence les ménages) ont cherché à tout prix à se désendetter, or ce désendettement a fortement déprimé la demande globale et par là l’activité économique. Ces dernières années, divers travaux ont ainsi cherché à préciser comment l’endettement privé pouvait jouer un rôle de propagation et d’amplification des chocs macroéconomiques. Dans leurs divers travaux focalisés sur les Etats-Unis, Atif Mian et Amir Sufi (2011, 2012) ont montré que les comtés américains qui ont connu la plus forte hausse du crédit immobilier et des prix des logements avant la crise financière sont précisément les comtés qui ont connu la plus forte chute de l’activité lors de la récession subséquente. Leurs analyses suggèrent en l’occurrence que la détérioration de la situation financière des ménages explique l’essentiel de la chute de la demande privée et de la hausse du chômage. Utilisant une large base de données relatives à 17 pays avancés depuis 1870, Òscar Jordà, Moritz Schularick et Alan Taylor (2013) ont montré que ce n’est pas l’excès d’endettement public, mais bien l’excès d’endettement privé, qui constitue le meilleur indicateur avancé de crise financière. Jordà et ses coauteurs (2014) ont également constaté que les expansions du crédit sont suivies par de plus fortes récessions et de plus lentes reprises lorsqu’elles sont essentiellement alimentées par le crédit immobilier.

Plusieurs analyses théoriques ont alors cherché ces dernières années à déterminer quelle serait l’opportunité d’utiliser la politique budgétaire en période de surplomb de dette privée. Elles suggèrent que l’activité économique serait particulièrement sensible aux évolutions de la politique budgétaire en période de surplomb de dette privée. C’est notamment le cas de Gauti Eggertsson et Paul Krugman (2012), qui démontrent que la taille du multiplicateur budgétaire tend à s’accroître lors des épisodes de surplomb de dette privée. En effet, l’équivalence ricardienne ne peut tenir, du fait que certains agents sont contraints en termes d’endettement : puisqu’ils sont forcés de rembourser leur dette, leurs dépenses ne dépendent plus de leur niveau anticipé de revenu, mais de leur revenu courant. Non seulement une hausse temporaire des dépenses publiques ne conduit pas à une éviction des dépenses privées, mais elle peut même se traduire par une hausse des dépenses de la part des agents qui sont contraints en termes de liquidité. L’accroissement de la dette publique apparaît alors comme une solution à un problème provoqué par un excès d’endettement du secteur privé.

En observant les Etats-Unis, Marco Bernardini et Gert Peersman (2015) ont constaté que le multiplicateur des dépenses publiques est considérablement plus élevé au cours des périodes de surplomb de dette privée. En l’occurrence, un accroissement des dépenses publiques tendrait à réduire le ratio dette publique sur PIB, tandis qu’une contraction des dépenses publiques tend à accroître le ratio dette publique sur PIB. Autrement dit, un plan de relance pourrait s’autofinancer, tandis qu’un plan d’austérité serait contre-productif. Ainsi, Bernardini et Peersman confirment que le multiplicateur budgétaire a pu être sensiblement élevé durant la Grande Récession, tout du moins aux Etats-Unis.

Mathias Klein (2016) s’est quant à lui basé sur une base de données relatives à 12 pays développés pour étudier si et comment l’endettement privé est susceptible de modifier l’impact des consolidations budgétaires sur l’activité économique. Il constate que les réponses de l’activité économique aux consolidations budgétaires diffèrent significativement selon le niveau d’endettement du secteur privé. En l’occurrence, la consommation privée et le PIB chutent fortement suite à une consolidation budgétaire dans les pays caractérisés par une dette privée élevée. Une consolidation budgétaire représentant 1 % du PIB se traduit par une chute de 2 % du PIB et par une chute de plus de 4 % de la consommation privée dans les cinq années qui suivent sa mise en œuvre lorsqu’elle est synchrone à un surplomb de dette privée. Par contre, la consommation privée et le PIB ne diminuent que marginalement dans les pays caractérisés par un faible niveau de dette privée. Dans ce cas, une consolidation budgétaire équivalente à 1 % du PIB est associée à une baisse du PIB de 0,7 % et à une baisse de 1,1 % de la consommation.

En outre, Klein constate que les importations et le taux d’emploi chutent fortement suite à une consolidation budgétaire lorsque celle-ci est mise en œuvre dans un contexte d’endettement privé élevé, mais que ces deux variables ne réagissent pas dans un environnement de faible endettement privé. Les autorités monétaires réagissent aux consolidations budgétaires en réduisant le taux d’intérêt réel de la même amplitude que le niveau de la dette privée soit faible ou élevé. Le risque de défaut souverain et le ratio dette publique sur PIB augmentent significativement après les consolidations mises en œuvre dans un contexte de dette privée élevée ; autrement dit, les plans d’austérité, qui sont souvent adoptés en vue de réduire le ratio dette publique sur PIB et de ramener l’endettement public sur une trajectoire plus soutenable, sont contre-productifs avec un secteur privé fortement endetté.

Klein prend en compte la position de l’économie dans le cycle pour affiner ses résultats. Il constate que lorsque le niveau de dette privée est élevé, les consolidations budgétaires se traduisent par une chute de l’activité, aussi bien lors des récessions que lors des périodes d’expansions. Lorsque le niveau de dette privée est faible, les plans d’austérité n’ont pas d’effet significatif sur l’économie. Autrement dit, l’essentiel des coûts de l’austérité pourrait être déterminée par le niveau de dette privée, plutôt que par la position dans le cycle économique.

Plusieurs constats amènent Klein à souligner l’importance de la valeur nette des ménages pour expliquer la plus grande nocivité des plans d’austérité en présence d’un fort endettement privé. D’une part, lorsqu’il différencie entre la dette des ménages et la dette des entreprises, l’auteur constate que l’essentiel des résultats s’explique par l’endettement des ménages. Alors que le PIB réagit à peine lorsque la consolidation budgétaire est mise en œuvre en présence d’un fort endettement des entreprises, il réagit par contre fortement lorsqu’elle est mise en œuvre en présence d’un fort endettement des ménages. D’autre part, Klein montre que les prix de l’immobilier tendent à significativement chuter lorsque les consolidations budgétaire sont mises en œuvre en période de surplomb de dette privée. Ainsi, la détérioration de la situation financière des ménages pourrait constituer un possible canal via lequel un fort endettement privé rend les plans d’austérité particulièrement nocifs et les plans de relance fortement efficaces.

Ainsi, les résultats de Klein suggèrent que les niveaux élevés de dette privée dans les pays périphériques de la zone euro ont pu contribuer à fortement amplifier les répercussions des plans d’austérité sur l’activité domestique. Alors que les gouvernements ont cherché à ramener leur dette publique sur une trajectoire plus soutenable, leurs mesures de consolidation budgétaire ont pu au contraire accroître l’endettement public et compliquer le désendettement du secteur privé. 

 

Références

ANDRÉS, Javier, José E. BOSCÁ & Javier FERRI (2015), « Household debt and fiscal multipliers », in Economica, vol. 82.

BERNARDINI, Marco, & Gert PEERSMAN (2015), « Private debt overhang and the government spending multiplier: Evidence for the United States », CESifo, working paper, n° 5284.

EGGERTSSON, Gauti B., & Paul KRUGMAN (2012), « Debt, deleveraging, and the liquidity trap: A Fisher-Minsky-Koo approach », in The Quarterly Journal of Economics, vol. 127, n° 3.

JORDÀ, Òscar, Moritz H.P. SCHULARICK & Alan M. TAYLOR (2013), « Sovereigns versus banks: Credit, crises, and consequences », NBER working paper, n° 19506, octobre.

JORDÀ, Òscar, Moritz SCHULARICK & Alan M. TAYLOR (2014), « The Great Mortgaging: Housing finance, crises, and business cycles », NBER, working paper, n° 20501, septembre.

KLEIN, Mathias (2016), « Austerity and private debt », DIW, discussion paper, n° 1611, octobre.

MIAN, Atif R. & Amir SUFI (2011), « House prices, home equity-based borrowing, and the US household leverage crisis », in American Economic Review, vol. 101, n° 5.

MIAN, Atif R. & Amir SUFI (2012), « What explains high unemployment? The aggregate demand channel », NBER, working paper, n° 17830.

Partager cet article
Repost0
19 octobre 2016 3 19 /10 /octobre /2016 17:19
Pourquoi la reprise américaine a-t-elle été si lente ?

Entre le premier trimestre 2010 et le deuxième trimestre 2016, le PIB américain a augmenté en moyenne de 2,01 % par an. Au cours des précédentes reprises, il augmentait de 3,75 %, soit à un rythme près de deux fois plus rapide. Cet écart de croissance annuelle de 1,74 points de pourcentage, qui semble a priori modeste, se traduit en fait par une énorme perte en termes de création de richesse : si le PIB américain avait augmenté lors de l’actuelle reprise au même rythme qu’au cours des précédentes, il serait 13,2 % plus élevé qu’il ne l’est effectivement.

James Stock et Mark Watson (2016) ont cherché à expliquer cette mauvaise performance. En l’occurrence, ils se sont tout particulièrement penchés sur quatre ensembles de possibles candidats. Selon premier ensemble d’explications, c’est la croissance tendancielle qui a ralenti, en raison de changements structurels à l’œuvre ; si cette explication est juste, la croissance aurait ralenti même s’il n’y avait pas eu de crise financière. Des facteurs démographiques auraient notamment été à l’œuvre : si l’arrivée des femmes dans la population active a pu stimuler la croissance avant les années quatre-vingt-dix, les départs à la retraite des générations du baby-boom ont pu au contraire freiner la croissance économique depuis. En outre, le temps de travail a eu tendance à décliner, tandis que la croissance de la productivité a ralenti.

Selon un deuxième ensemble d’explication, la faiblesse de la reprise américaine pourrait résulter des problèmes chroniques associés à une insuffisance de la demande globale et aux erreurs de politique économique. Par exemple, les Etats-Unis ont pu se retrouver piégés dans la stagnation séculaire, l’accroissement des inégalités de revenu a pu déprimer la consommation ou, encore, des effets d’hystérèse ont pu affaiblir la croissance potentielle et aggraver le chômage structurel.

Selon un troisième ensemble d’explications, la faiblesse actuelle de la croissance américaine trouverait son origine dans des facteurs exceptionnels et transitoires, notamment le ralentissement du commerce mondial associé à la faible croissance européenne et au ralentissement de la croissance chinoise, le poids du désendettement des ménages américains sur l’investissement résidentiel, le resserrement de la politique budgétaire américaine, les difficultés de la Fed à davantage assouplir sa politique monétaire en raison de la borne inférieure zéro (zero lower bound), etc.

Enfin selon un quatrième ensemble d’explications, la faiblesse de la croissance du PIB et de la productivité aux Etats-Unis serait illusoire. Les difficultés dans la mesure des prix et production réels dans plusieurs secteurs de l’économie, en particulier le secteur des technologies d’information et de communication, amèneraient à sous-estimer le PIB et la productivité.

Afin d’identifier les facteurs susceptibles d’expliquer le mieux la relative faiblesse de la croissance américaine, Stock et Watson ont comparé l’évolution de plusieurs agrégats macroéconomiques lors de l’actuelle reprise par rapport à leur évolution lors des précédentes reprises. Ensuite, ils ont comparé l’évolution de ces mêmes variables lors de l’actuelle reprise par rapport à ce que nous pouvions prévoir fin 2009, malgré la sévérité de la crise, en utilisant les estimations révisées et définitives allant jusqu’à cette date.

Stock et Watson tirent plusieurs constats de leur analyse. Premièrement, parmi la perte des 1,74 de points de croissance, 0,91 points de pourcentage sont dus à la baisse du taux de croissance moyen à long terme du PIB. L’essentiel de ce ralentissement s’explique par la dynamique démographique. Deuxièmement, la croissance du PIB a été en moyenne 0,52 points de pourcentage inférieure à ce que l’on pouvait prévoir fin 2009, malgré la sévérité de la Grande Dépression. Troisièmement, la croissance de plusieurs mesures de l’activité économique, notamment de l’emploi, de la consommation et de l’investissement domestique privé brut, colle aux prévisions. Quatrièmement, d’autres indicateurs clés ont connu une reprise plus lente que par le passé. En l’occurrence, le taux de chômage de long terme et le taux d’activité ont été plus faibles que prévu. En outre, les niveaux des dépenses publiques et de l’emploi public ont été bien inférieurs aux prévisions, aussi bien au niveau fédéral qu’au niveau local. Cinquièmement, une partie du ralentissement de la croissance moyenne de la productivité que l’on a pu observer entre 2010 et 2016, en l’occurrence 0,23 points de pourcentage, s’explique par des facteurs conjoncturels.

Il apparaît que la consommation des services a certes été plus faible que prévu, mais la croissance de la consommation totale n’a que très faiblement contribué à la part non anticipée de la croissance du PIB ; la contribution de l’investissement à celle-ci a été encore plus faible. En fait, la croissance de l’investissement immobilier a été encore plus forte que ce que l’on pouvait prévoir fin 2009. Ainsi, Stock et Watson doutent que la relative faiblesse de la croissance américaine s’explique par une demande globale inhabituellement faible. Le fait que le chômage se soit résorbé plus rapidement que ce que l’on pouvait prévoir en 2009 tend à confirmer une telle idée. Par contre, la politique budgétaire a effectivement été plus restrictive lors de l’actuelle reprise que par le passé. En l’occurrence, environ la moitié de la faiblesse de la croissance s’explique par une croissance anémique des dépenses publiques. La croissance relativement faible des exportations suggère que la faiblesse du commerce mondial a effectivement freiné la croissance américaine. Enfin, Stock et Watson confirment qu’il peut effectivement y avoir des problèmes de mesure, et ce pas seulement dans le secteur des technologies d’information et de communication.

 

Référence

STOCK, James H., & Mark W. WATSON (2016), « Why has GDP growth been so slow to recover? », document de travail, octobre.

Partager cet article
Repost0
16 octobre 2016 7 16 /10 /octobre /2016 10:20

 

Avec la Grande Récession de 2008, les pays développés ont connu une forte hausse du chômage, avec un rythme de destructions d’emplois plus rapide que le rythme de créations d’emplois. Même en temps de croissance soutenue, le tissu productif est soumis en permanence à la destruction créatrice, certaines entreprises déclinant et disparaissant, tandis que d’autres émergent et se développent. Une création nette d’emplois peut ainsi dissimuler de nombreuses destructions d’emplois, compensées par des créations brutes d’emplois plus nombreuses. Si les médias se focalisent tout particulièrement sur les licenciements collectifs provoqués par les plans de restructuration et les faillites de grands établissements, ceux-ci ne doivent pas nous faire oublier que les destructions d’emploi qu’ils occasionnent ne sont qu’une partie de l’ensemble des destructions d’emploi, ni même que de nombreux emplois sont parallèlement créés.

Pour le salarié, le licenciement est un choc financier, psychologique et social. Pour l’économie, le chômage représente un coût d’opportunité : il s’agit des richesses que les chômeurs auraient pu produire s’ils étaient embauchés. Les administrations publiques perdent en recettes fiscales et en cotisations sociales, alors même qu’elles doivent accroître leurs dépenses pour indemniser les chômeurs. L’indemnisation permet toutefois d’atténuer l’impact du chômage tant sur les chômeurs eux-mêmes que sur l’activité. En outre, même si le chômage ne résulte pas d’une insuffisance de la demande globale, il est d’autant plus difficile pour les autorités de le réduire qu’il se maintient durablement à un niveau élevé. En effet, les travailleurs perdent d’autant plus en compétences, en motivation et en réseau social qu’ils sont longtemps au chômage, ce qui réduit la probabilité qu’ils soient réembauchés et accroît la probabilité qu’ils finissent par sortir de la population active par découragement. Le chômage de longue durée constitue en lui-même un mauvais signal aux yeux des potentiels employeurs. Ainsi, un chômage purement keynésien devient de plus en plus « structurel » à mesure qu’il persiste. Or ces effets d’hystérèse peut alors avoir des répercussions durables sur la production potentielle et la croissance à long terme : par exemple, une fois réembauchés, les chômeurs sont moins performants que s’ils étaient restés en emploi, non seulement parce qu’ils ont vu leurs compétences s’effriter durant leur période de chômage, mais aussi parce qu’ils n’ont pas pu acquérir de nouvelles compétences en continuant de travailler. Le chômage est également susceptible d’alimenter la pauvreté, la criminalité, le pessimisme, la défiance et les tensions sociales, ce qui n’est pas sans également peser sur la croissance. Ainsi, en licenciant, une entreprise émet une véritable externalité négative : le coût d’un licenciement pour l’entreprise est bien inférieur au coût de ce licenciement pour l’ensemble de la collectivité.

A partir des années quatre-vingt, plusieurs études focalisées sur les Etats-Unis ont cherché à déterminer les répercussions des licenciements pour motif économique sur la carrière et les revenus des personnes qui les subissent. Cette littérature suggère que les travailleurs perdant leur emploi pour des motifs indépendants de leur performance,  subissent par la suite une perte de revenu comprise entre 10 % et 25 % par rapport aux travailleurs restant en emploi. Cette perte de revenu ne s’explique pas par la seule période de chômage ; elle résulte essentiellement d’une baisse permanente du salaire de ces mêmes travailleurs, une fois qu’ils sont réembauchés.

Les travaux portant sur les autres pays développés sont apparus plus tardivement et demeurent encore bien rares. Dans une étude pionnière dans le cas français, David Margolis (2000) s’est appuyé sur des données relatives aux années quatre-vingt pour analyser l’impact que les licenciements associés aux fermetures d’entreprise peuvent avoir sur les revenus des salariés licenciés. Il constate que les hommes licenciés qui parviennent à retrouver un emploi gagnent un salaire inférieur de 28 % à celui que gagnent les hommes qui n’ont pas connu d’interruption de carrière, tandis que les femmes licenciées accusent une perte de 47 %. Margolis (2002) note que les licenciés pour motif économique retrouvent plus rapidement un emploi que ceux qui se sont séparés de leur employeur pour d’autres motifs. Par contre, parmi eux, ceux qui avaient la plus grande ancienneté dans leur entreprise ont plus de difficultés à retrouver un emploi que les autres ; les femmes mettent plus de temps avant de retrouver un emploi que les hommes. Enfin, qu’importe la raison de la séparation entre l’employeur et le salarié, ce dernier retrouve d’autant plus rapidement un emploi que son niveau de formation est élevé. Poursuivant les travaux de Margolis, mais avec des données plus récentes, Jean-François Royer (2011) a analysé l’impact des brusques fermetures d’entreprise sur la trajectoire professionnelle des salariés en s’appuyant sur les données relatives à la France métropolitaine entre 1995 et 1999. Il constate que les personnes qui perdent leur emploi suite à un tel événement ont 6 % de chances en plus de quitter la vie active au cours des deux années suivantes que les autres travailleurs. Ceux qui parviennent à retrouver un emploi suite à la fermeture de leur entreprise gagnent un salaire moindre que les salariés toujours en poste ; d’après ses estimations, l’écart est d’environ 5 % sept ans après.

Ces diverses études se sont appuyées sur les épisodes de fermetures d’entreprises, mais Vahé Nafilyan (2016) juge une telle méthode inadéquate pour saisir les répercussions exactes d’un licenciement pour motif économique. Par exemple, elle conduit à une surestimation du nombre de licenciés pour motif économique, dans la mesure où certains salariés peuvent quitter l’entreprise pour des raisons autres que la situation économique.

Nafilyan a alors examiné la trajectoire professionnelle des personnes licenciées pour motif économique, mais en se basant sur les résultats de l’enquête Emploi en continu de l’INSEE entre 2003 et 2011. D’après son analyse, les salariés qui sont licenciés pour motif économique traversent une longue période de non-emploi, et, s’ils sont réembauchés, l’emploi qu’ils retrouvent est généralement d’une moindre qualité que celui qu’ils ont perdu. En effet, ceux qui sont réembauchés voient leur salaire chuter de 15 % à 20 %. La moitié de cette perte est due à une réduction du nombre d’heures travaillées, tandis que l’autre s’explique par une baisse du taux de salaire horaire. Certains sont ainsi moins rémunérés parce qu’ils acceptent un temps partiel (éventuellement subi). Quant à la chute du salaire horaire, elle ne peut s’expliquer par la seule déqualification professionnelle, dans la mesure où ce n’est seulement qu’une minorité des licenciés économiques qui sont réembauchés dans une profession requérant moins de qualifications que la profession qu’ils occupaient avant leur licenciement. Si les salariés reclassés gagnent un plus faible salaire horaire, c’est en raison du manque d’expérience dont ils font preuve dans leur nouvelle profession, mais aussi en raison de la perte des rentes qu’ils percevaient dans leur précédente entreprise du fait de leur ancienneté ou encore de la perte du capital humain spécifique à leur précédente entreprise qu’ils avaient acquis en travaillant dans celle-ci. En outre, lorsqu’ils retrouvent effectivement un emploi, ils ont une plus forte chance de travailler à temps partiel, d’avoir moins de vacances rémunérées et d’avoir moins de responsabilités que les autres salariés, si bien qu’ils ont moins de chances de progresser vers les échelons hiérarchiques supérieurs. En outre, ils font face à une plus forte insécurité de l’emploi. En effet, deux ans après avoir été licenciés pour motif économique, ils ont sept fois plus de chances de perdre leur emploi que des travailleurs qui sont restés en emploi ; deux ans après leur licenciement, seulement 30 % des travailleurs qui étaient en CDI avant leur licenciement sont réembauchés avec un CDI.

 

Références

LEFRANC, Arnaud (2003), « Labor market dynamics and wage losses of displaced workers in France and the United States », William Davidson Institute, working paper, n° 614.

MARGOLIS, David N. (2000), « Worker displacement in France », document de travail.

MARGOLIS, David N. (2002), « Licenciements collectifs et délais de reprise d’emploi », in Économie et Statistique, n° 351.

NAFILYAN, Vahé (2016), « Lost and found?: The cost of job loss in France », OCDE, social, employment and migration working paper, n° 194.

ROYER, Jean-François (2011), « Évaluation des effets des brusques fermetures d’établissements sur les trajectoires salariales », in Économie et statistique, n° 446.

Partager cet article
Repost0
13 octobre 2016 4 13 /10 /octobre /2016 18:23
Quel lien entre prix de l’immobilier et croissance économique ?

Avec l’éclatement de la bulle immobilière alimentée par le crédit aux Etats-Unis, puis la récession mondiale qui l’a suivi, l’impact des variations l’immobilier sur l’économie a fait l’objet d'une attention plus soutenue dans la recherche économique.

La relation exacte entre la variation des prix des logements et la croissance économique reste toutefois ambigu au niveau théorique. L’appréciation des prix de l’immobilier est susceptible d’alimenter la croissance économique. D’une part, elle stimule la consommation des ménages via les effets de richesse : puisque la valeur de leur patrimoine augmente, les ménages « se sentent » plus riches et sont incités à consommer davantage. Un boom du secteur de la construction bénéficie lui-même directement au reste de l’économie via ses créations d’emplois et ses dépenses d’investissement et de consommation intermédiaire.

Toutefois, l’appréciation des prix de l’immobilier peut devenir excessive et l’expansion du crédit qui l’alimente insoutenable ; autrement dit, les marchés immobiliers peuvent connaître la formation d’une véritable bulle spéculative. Or, lorsque la bulle immobilière éclate et que les prix des logements s’effondrent, l’économie est alors susceptible de connaître une crise financière et une récession, ce qui freine puissamment la croissance à court terme. En effet, comme les ménages voient alors la valeur de leur patrimoine s’effriter, ils réduisent leurs dépenses de consommation ; l’effet de richesse devient négatif. Comme en outre les ménages se sont souvent endettés pour acquérir leur maison, la baisse des prix des logements rend l’endettement de plusieurs d’entre eux insoutenable. Les ménages endettés sont ainsi d’autant plus incités à réduire leur consommation que le poids de leur endettement augmente. La baisse des prix des logements (qui peuvent servir de collatéraux lors des prêts) et la hausse des défauts de paiement mettent les banques en difficultés, ce qui incite celles-ci à réduire leurs prêts et à relever leurs taux d’intérêt. La contraction subséquente du crédit alimente alors la baisse des prix de l’immobilier en freinant les achats de logement. Surtout, elle contribue à aggraver la récession et à la généraliser à l’ensemble de l’économie, d’une part, en forçant les entreprises à moins investir et à licencier et, d’autre part, en détériorant davantage la situation financière des ménages et en forçant ces derniers à davantage réduire leur consommation. 

La hausse des prix immobiliers n’est pas seulement susceptible d’être nuisible à la croissance économique lorsqu’elle est suivie par leur effondrement. En l’occurrence, même si la hausse des prix se poursuit, elle est susceptible de freiner la croissance à long terme en entraînant une mauvaise allocation des ressources au détriment des autres secteurs de l’économie. Autrement dit, les répercussions à long terme d’une hausse des prix de l’immobilier s’apparentent aux symptômes de la « maladie hollandaise » que semblent connaître certains pays lorsqu’ils découvrent et exploitent de larges gisements de ressources naturelles. Indraneel Chakraborty, Itay Goldstein et Andrew MacKinlay (2016) ont précisément montré qu’une hausse des prix de l’immobilier est susceptible d’entraîner des effets d’éviction sur l’investissement production en détournant des ressources (qu’elles soient matérielles, financières ou humaines) vers des usages peu productifs. En étudiant la période entre 1988 et 2006, ils constatent notamment qu’avec l’appréciation des prix des logements, les banques présentes dans les secteurs où l’activité immobilière est la plus dynamique tendent certes à accroître les prêts immobiliers, mais aussi à réduire les prêts commerciaux. Les entreprises qui empruntent auprès de ces banques investissent significativement moins que les autres. Les entreprises qui empruntent auprès de ces banques se caractérisent par un plus faible investissement que les autres entreprises.

Joshua Aizenman, Yothin Jinjarak et Huanhuan Zheng (2016) ont cherché à préciser la relation entre les prix de l’immobilier et la croissance économique en analysant un échantillon de données relatives à 19 pays au cours de la période s’écoulant entre le premier trimestre 1975 et le troisième trimestre 2013. Ils constatent que la hausse des prix de l’immobilier sont positivement associées à la croissance économique. Par contre, la relation entre la baisse des prix de l’immobilier et la croissance est fortement non linéaire et elle dépend des caractéristiques des pays. En l’absence de crise bancaire concomitante, les amples baisses des prix de l’immobilier sont positivement associées à la croissance économique. Autrement dit, une baisse des prix de l’immobilier est avant tout susceptible de freiner la croissance que lorsqu’elle s’accompagne d’une crise bancaire. En outre, Aizenman et ses coauteurs mettent en évidence que le lien entre la baisse des prix immobiliers et la croissance économique est davantage prononcé dans les pays se caractérisant par une protection sociale réduite, la présence d’un système de droit civil, de la provision d’une assurance hypothécaire et l’existence d’un droit de faillite personnel.

 

Références

AIZENMAN, Joshua, Yothin JINJARAK, & Huanhuan ZHENG (2016), « House valuations and economic growth: Some international evidence », NBER, working paper, n° 22699.  

CHAKRABORTY, Indraneel, Itay GOLDSTEIN & Andrew MACKINLAY (2016), « Housing price booms and crowding-out effects in bank lending », document de travail.

Partager cet article
Repost0
8 octobre 2016 6 08 /10 /octobre /2016 13:46

Au cours des deux dernières décennies, les plus pauvres ont connu une forte progression de leur niveau de vie, si bien qu’une large population a pu sortir de la pauvreté. En 1990, deux milliards de personnes étaient dans une situation de pauvreté extrême, c’est-à-dire vivaient avec moins de 1,90 dollars par jour (en parités de pouvoir d’achat de 2011) ; elles représentaient alors 37 % de la population mondiale. Entre 1990 et 2013, le nombre de personne vivant en situation de pauvreté extrême a diminué de 60 %, tandis que la proportion de la population mondiale vivant dans une telle situation est passée sur la période de 37 % à 11 %. En 2013, il restait toutefois 770 millions de personnes situés dans une situation de pauvreté extrême, soit à peu près l’équivalent de la population combinée de l’Union européenne et des Etats-Unis.

Plusieurs études suggèrent que la croissance économique joue un rôle crucial dans la réduction de la pauvreté. Selon les prévisions que fournissent Francisco Ferreira et ses coauteurs (2015) en se basant sur les estimations de la croissance du PIB entre 2005 et 2015, la part de la population mondiale se trouvant en situation de pauvreté mondiale devrait atteindre 4,2 % en 2030, soit un niveau proche de l’objectif de 3 % que la Banque mondiale s’est fixée pour cette année-là. Toutefois la croissance mondiale a ralenti ces dernières années et rien n’assure que les pays en développement connaissent pendant les 14 prochaines années une aussi forte croissance que celle qu’ils ont pu connaître au cours des années deux mille, ce qui suggère que la réduction de la pauvreté mondiale pourrait être plus lente que prévu. C’est pour cette raison que de nombreuses institutions, notamment la Banque mondiale, appellent à une croissance plus inclusive, c’est-à-dire dont les fruits seraient moins inégalement répartis dans la population.

Les informations à propos des pauvres dans le monde en développement restent toutefois très fragiles, notamment en raison du manque de données d’enquêtes des ménages harmonisées au niveau international ou encore du fait que les pays n’adoptent pas le même seuil de revenu pour définir la pauvreté. Andrés Castañeda, et ses coauteurs (2016) ont récemment cherché à dresser le profil démographique de la pauvreté extrême et modérée en se basant sur les enquêtes réalisées auprès des ménages dans 89 pays en développement. En 2013, dans l’ensemble de ces pays, 1,5 milliard de personnes vivaient dans une situation de pauvreté modérée, c’est-à-dire avec plus de 1,90 dollars, mais moins de 3,10 dollars par jour, ce qui représente 23 % de leur population totale.

Au terme de leur analyse, Castañeda et ses coauteurs constatent que la pauvreté est avant tout jeune et rurale, bien plus que le suggéraient les précédentes études. En effet, 80 % des pauvres extrêmes et 76 % des pauvres modérés vivent dans des espaces ruraux. Les auteurs ne rejettent pas l’idée que ces parts soient quelques peu surestimées, ne serait-ce que du fait que le coût de la vie est moindre en milieu rural que dans les villes, mais une analyse plus approfondie des données de l’Asie du Sud les amène à suggérer que ce biais est très modeste. En outre, leur étude suggère que plus de 45 % des pauvres extrêmes sont des jeunes de moins de 15 ans et près de 60 % des pauvres extrêmes vivent dans des ménages avec trois enfants ou plus. Ensuite, Castañeda et ses coauteurs confirment que la scolarité et la pauvreté sont fortement et négativement corrélées l’une avec l’autre. Toutefois, l’école primaire ne suffit pas pour sortir de la pauvreté. En effet, 40 % des pauvres extrêmes et 50 % des pauvres modérés ont achevé leur école primaire. Enfin, même s’ils partagent des similitudes, notamment en termes d’âge ou de structure familiale, les pauvres extrêmes se distinguent des pauvres modestes à plusieurs niveaux : par exemple, relativement aux pauvres extrêmes, les pauvres modérés ont significativement plus de chances d’achever l’école primaire et sont moins susceptibles de travailler dans l’agriculture.

 

Références

CASTAÑEDA, Andrés, Dung DOAN, David NEWHOUSE, Minh Cong NGUYEN, Hiroki UEMATSU et João Pedro AZEVEDO (2016), « Who are the poor in the developing world? », Banque mondiale, policy research working paper, n° 7844, octobre.

FERREIRA, Francisco H. G., Shaohua CHEN, Andrew L. DABALEN, Yuri M. DIKHANOV, Nada HAMADEH, Dean Mitchell JOLLIFFE, Ambar NARAYAN, Espen Beer PRYDZ, Ana L.REVENGA, Prem SANGRAULA, Umar SERAJUDDIN et Nobuo YOSHIDA (2015), « A global count of the extreme poor in 2012 - Data issues, methodology and initial results », Banque mondiale, policy research working paper, n° 7432.

Partager cet article
Repost0
30 septembre 2016 5 30 /09 /septembre /2016 22:16

Après avoir été relativement ignorées par les économistes pendant plusieurs décennies, les inégalités de revenu se sont retrouvées inscrites au centre des analyses économiques et des débats politiques après la récente crise financière mondiale. Pour les néoclassiques, une hausse des inégalités est nécessaire, tout du moins initialement, pour amorcer la croissance économique : une minorité doit initialement s’enrichir pour épargner et ainsi financer l’accumulation du capital. C’est notamment pour cette raison que Kuznets considérait que les premiers temps de l’industrialisation et de la croissance économique s’accompagnaient nécessairement d’un creusement des inégalités. De leur côté, les keynésiens estiment au contraire qu'un accroissement des inégalités freine la croissance en déprimant la demande globale. En l’occurrence, le creusement des inégalités que connaissent les pays développés ces dernières décennies pourrait contribuer à la stagnation séculaire à laquelle ils semblent désormais confrontés [Summers, 2015]. La crise financière elle-même résulterait de la détérioration dans le partage du revenu : aux Etats-Unis, la stagnation des revenus aurait incité (ou contraint) les ménages des classes moyennes et populaires à s’endetter, alimentant ainsi une bulle spéculative et une expansion insoutenable du crédit [Kumhof et Rancière, 2010]. Enfin, certains relient la détérioration de certains comptes courants à l’accroissement des inégalités [Rancière et alii, 2012].

Ces diverses thèses font jouer un rôle décisif à l’épargne. Pourtant, au niveau théorique, le signe de la relation entre inégalités de revenu et épargne agrégée est ambigu. Partant de l’hypothèse que les plus riches présentent une plus faible propension à consommer que les plus pauvres, les keynésiens en déduisent qu’un creusement des inégalités doit avoir pour conséquence d’accroître l’épargne agrégée. C’est précisément le mécanisme que les actuels partisans de la théorie de la stagnation séculaire mettent en avant lorsqu’ils suggèrent que l’accroissement des inégalités contribue à la faiblesse structurelle de la demande globale. D’un autre côté, l’hypothèse du revenu relatif de James Duensenberry (1949) suggère qu’un accroissement des inégalités est susceptible de réduire l’épargne agrégée en incitant les classes moyennes et populaires à accroître leurs dépenses de consommation par émulation. D’autres suggèrent qu’un creusement des inégalités réduit l’épargne agrégée en alimentant la pression politique pour un surcroît de taxation (des plus riches) et de redistribution (des plus riches vers les plus pauvres).

Les études empiriques ne s’accordent ni sur le signe, ni même sur l’existence d’une éventuelle relation entre épargne et inégalités au niveau agrégé. Klaus Schmidt-Hebbel et Luis Serven (2000) ont observé un échantillon de 19 pays développés et de 33 pays en développement ; leur analyse ne leur permet pas de confirmer l’idée que les inégalités de revenu aient un effet systématique sur l’épargne agrégée. En analysant un sous-échantillon de pays de l’OCDE et de pays asiatiques, Hongyi Li et Heng-Fu Zou (2004) concluent que les inégalités de revenu et le taux d’épargne peuvent être positivement et significativement reliés. Andrew Leigh et Alberto Posso (2009) ont observé 11 pays développés sur la période s’étalant entre 1921 et 2002 pour déceler une éventuelle relation entre taux d’épargne et inégalités de revenu, en mesurant ces dernières en prenant la part du revenu national qui rémunère les 10 % des ménages les plus riches et celle qui rémunère les 1 % des ménages les plus riches. Ils ne constatent pas de relation entre les parts des hauts revenus et le niveau courant des taux d’épargne. Ils interprètent leurs résultats comme suggérant que les inégalités au sommet de la distribution des revenus ne constituent pas un facteur explicatif significatif taux d’épargne nationaux.

Peter Bofinger et Philipp Scheuermeyery (2016) ont étudié un échantillon de 29 pays riches. Ils mettent en évidence une relation concave et non monotone entre les inégalités de revenu et le taux d’épargne des ménages au niveau agrégé. Ils ont constaté que, si la relation entre inégalités et épargne agrégée est positive à de faibles niveaux d’inégalités, elle devient par contre négative à des niveaux d’inégalités plus élevés. Autrement dit, à un faible niveau d’inégalités, un surcroît d’inégalités se traduit par une hausse de l’épargne agrégée ; à un niveau élevé d’inégalités, un creusement des inégalités se traduit par une baisse de l’épargne agrégée. Ils constatent également un impact non monotone des inégalités sur l’épargne privée, l’épargne nationale et le solde de compte courant. Bofinger et Scheuermeyery cherchent ensuite à déterminer à partir de quel niveau d’inégalités l’impact marginal des inégalités sur l’épargne devient, non plus positif, mais négatif. Après avoir utilisé différentes approches empiriques, ils localisent le point tournant autour d’un coefficient de Gini net entre 28 et 30.

Bofinger et Scheuermeyery notent toutefois que la relation négative observée à des niveaux élevés d’inégalités semble avoir disparu depuis la crise financière mondiale, ce qui les amène à se pencher sur le rôle joué par le secteur financier. Ils constatent alors que la relation entre inégalités et épargne dépend des conditions financières. Un creusement des inégalités entraîne une hausse de l’épargne lorsque le ratio crédit sur PIB, mais une baisse de l’épargne lorsque le ratio crédit sur PIB atteint des niveaux élevés ou lorsque les marchés sont très libéralisés. Un fort niveau d’inégalités pourrait ainsi s’accompagner d’un accroissement de la consommation en incitant les ménages les plus pauvres à recourir au crédit pour soutenir leurs dépenses de consommation. Mais une fois qu’une telle dynamique se solde par une crise financière, les ménages endettés perdent l’accès au crédit et leur taux d’épargne se relève, si bien que la relation entre inégalités et épargne agrégée redevient positive.

 

Références

BOFINGER, Peter, & Philipp SCHEUERMEYERY (2016), « Income distribution and aggregate saving: A non-monotonic relationship », CEPR, discussion paper, n° 11435.

DUESENBERRY, James S. (1949), Income, saving, and the theory of consumer behavior.

KUMHOF, Michael, Claire LEBARZ, Romain RANCIÈRE, Alexander W. RICHTER & Nathaniel A. THROCKMORTON (2012), « Income inequality and current account imbalances », FMI, working paper, n° 12/08.

KUMHOF, Michael, & Romain RANCIÈRE (2010), « Inequality, leverage and crises », FMI, working paper, n° 10/268.

LEIGH, Andrew, & Alberto POSSO (2009), « Top incomes and national savings », in Review of Income and Wealth, vol. 55, n° 1.

LI, Hongyi, & Heng-Fu ZOU (2004), « Savings and income distribution », in Annals of Economics and Finance, vol. 5, n° 2.

SCHMIDT-HEBBEL, Klaus, & Luis SERVEN (2000), « Does income inequality raise aggregate saving? », in Journal of Development Economics, vol. 61, n° 2.

SUMMERS, Laurence H. (2015), « Demand side secular stagnation », in American Economic Review, vol. 105, n° 5.

Partager cet article
Repost0
27 septembre 2016 2 27 /09 /septembre /2016 22:02

Les analystes cherchent à déterminer l’écart de production (output gap), c’est-à-dire l’écart entre le niveau de la production courante et le niveau de la production potentielle, pour déterminer quelles mesures les autorités doivent adopter. Lorsque la production est en-deçà de son niveau potentiel, ce qui est le cas lorsque la demande globale est insuffisante, l’économie risque de basculer en récession, de voir le chômage augmenter et de connaître des tensions déflationnistes. Les autorités publiques doivent alors assouplir leurs politiques conjoncturelles pour stimuler la demande globale, et ce d’autant plus rapidement qu’une production durablement déprimée tend à réduire la production potentielle de l’économie via les effets d’hystérèse. Par contre, lorsque la production tend à dépasser son niveau potentiel, l’économie fait face à des pressions inflationnistes et la croissance finit par être contrainte par des goulots d’étranglement. Les autorités peuvent alors resserrer leurs politiques conjoncturelles pour freiner la demande globale et éliminer les pressions inflationnistes. Toutefois, le mieux dans une telle situation reste peut-être de mettre en œuvre des politiques d’offre, afin d’accroître les capacités de production, mais les effets d’une réforme structurelle sont plus lents à se révéler que ceux d’une politique conjoncturelle.

En pratique, il est toutefois difficile de déterminer quelle orientation (expansionniste ou restrictive) donner aux politiques conjoncturelles, en particulier en temps réel (1). Si dans la plupart des pays développés, un consensus a rapidement émergé lors de la récession en faveur de l’adoption d’un plan de relance budgétaire en vu de stimuler une demande globale manifestement déprimée et sortir les économies de la récession, l’orientation de la politique budgétaire a fait l’objet de plus profonds débats une fois la reprise mondiale amorcée au milieu de l’année 2009. Pour certains, après la stimulation de la demande globale, il était devenu nécessaire de stimuler l’offre via des réformes structurelles, et ce d’autant plus que la crise financière a pu déprimer la production potentielle, donc réduire bien plus amplement les output gaps que ne le suggéraient les estimations. En outre, la dette publique avait fortement augmenté suite à la Grande Récession, alimentant l’inquiétude quant à la soutenabilité de la dette publique. Fin 2009, la Grèce, puis d’autres pays-membres de la zone euro (les pays « périphériques »), ont commencé à connaître des tensions sur leurs marchés obligataires. L’ensemble des gouvernements, aussi bien dans la zone euro que dans ont alors resserré leur politique budgétaire en 2010 pour réfréner les tensions sur les marchés de la dette et éviter une contagion. Cette généralisation de l’austérité budgétaire semblait d’autant plus opportune que plusieurs études suggéraient alors qu’un niveau élevé de dette publique nuisait fortement à la croissance. Pour d’autres, le resserrement de la politique budgétaire de 2010 a été hâtif et contreproductif, en particulier dans la zone euro : la demande globale restait excessivement insuffisante et la production en-deçà de son niveau potentiel, si bien que les plans d’austérité budgétaire ont non seulement accru les coûts de la Grande Récession (que ce soit en termes de pertes de revenu ou en termes de chômage), mais également contribué à davantage accroître les ratios dette publique sur PIB. En d’autres termes, les politiques budgétaires auraient dû rester accommodantes, tant que le chômage restait à un niveau élevé et l’inflation à un faible niveau. 

Les estimations de l’écart de production de la zone euro sont toujours très différentes d’une étude à l’autre, mais beaucoup d’entre elles sont comprises entre -3 % et -2 %. Dans une récente étude publiée par la BCE, Marek Jarociński et Michele Lenza (2016) ont remis en question ce consensus. Puisque l’inflation tend à s’accélérer lorsque la production est supérieure à son potentiel et au contraire à décélérer lorsque la production est inférieure à son potentiel, les deux économistes ont observé les dynamiques de l’inflation de la zone euro pour déterminer le niveau de leur production potentiel et en déduire l’écart de production. Ayant en tête une relation de type courbe de Phillips reliant l’écart de production à l’inflation, ils utilisent un modèle factoriel dynamique bayésien de l’inflation sous-jacente et d’un ensemble d’indicateurs d’activité réelle. Ils étudient alors plusieurs scénarii en considérant différentes hypothèses.

Les différents scénarii que Jarociński et Lenza considèrent présentent la même datation des pics et des creux : l’écart de production s’est fortement élargi à partir de 2008, avant de commencer à se refermer dès l’année suivant, avant de s’élargir à nouveau et plus fortement en 2011. Par contre, les divers scénarii donnent des estimations différentes pour le niveau de l’écart de production (cf. graphique). En 2014-2015, l’écart de production était de -2 % selon les estimations les plus optimistes et de -6 % selon les estimations les plus pessimistes. Selon certains modèles, la croissance tendancielle n’a pas beaucoup changé au cours du temps et la récente lenteur de la croissance de la zone euro reflète la persistance d’un large écart de production. D’autres versions du modèle suggèrent au contraire que la croissance tendancielle a fortement décéléré dans la zone euro et que l’écart de production était proche de zéro en 2014.

GRAPHIQUE Estimations de l’écart de production de la zone euro (en % du PIB potentiel)

A combien s’élève l’écart de production de la zone euro ?

Afin de discriminer entre les différents scénarii, Jarociński et Lenza les ont classés selon la précision de leurs prévisions hors échantillon et en temps réel de l’inflation sous-jacente. Le modèle qui apparaît alors comme le plus précis dans la prévision de l’inflation au cours de la dernière décennie suggère que l’écart de production dans la zone euro s’est maintenu en moyenne à environ -6 % en 2014 et en 2015. Jarociński et Lenza en concluent qu’après la crise de la dette souveraine l’écart de production a été bien plus large que ne l’ont suggéré les estimations officielles. Autrement dit, la consolidation budgétaire amorcée en 2010 apparaît effectivement précipitée : les politiques conjoncturelles de la zone euro auraient dû rester accommodantes pour refermer l’écart de production et ainsi accélérer le reflux du chômage et dénouer les pressions déflationnistes. 

 

(1) D’une part, la production potentielle n'est pas directement observable, mais doit nécessairement faire l’objet d’estimations. Et surtout, les études ne s’appuient pas forcément sur la même définition de la production potentielle. Pour certains, il s’agit du niveau maximal que peut atteindre la production sans générer de pressions inflationnistes ; pour d’autres, il s’agit du niveau qu’atteindrait la production si les prix étaient pleinement flexibles, etc.

 

Référence

JAROCIŃSKI, Marek, & Michele LENZA (2016), « An inflation-predicting measure of the output gap in the euro area », BCE, working paper, n° 1966, septembre.

Partager cet article
Repost0
25 septembre 2016 7 25 /09 /septembre /2016 20:45

Lorsque le taux de change s’apprécie, le prix des biens importés tend à décliner, ce qui pousse le prix des biens domestiques à la baisse, ne serait-ce que parce que beaucoup de biens importés servent d’intrants dans la production domestique : l’économie bénéficie d’une désinflation importée. Symétriquement, lorsque le taux de change se déprécie, le prix des biens importés tend à s’accroître, ce qui pousse les prix des biens domestiques à la hausse : l’économie subit une inflation importée. De ce fait, le taux de change joue un rôle déterminant dans l’orientation de la politique monétaire, même lorsque la banque centrale n’a pas à défendre de parité fixe. Guillermo Calvo et Carmen Reinhart (2002) soulignent que la perspective d’une forte et rapide transmission des variations du taux de change aux prix domestiques est l’une des raisons pour lesquelles les banques centrales révèlent une véritable « peur du flottement » (fear of floating) et interviennent sur le marché des changes pour éviter les variations excessives du taux de change. C’est en particulier le cas pour les pays en développement, où la transmission semble plus ample que dans les pays développés.

La littérature a souligné la présence de non-linéarités et asymétries dans le mécanisme de transmission des variations du taux de change à l’inflation. Les diverses théories microéconomiques qui ont cherché à expliquer la viscosité des prix à de faibles niveaux d’inflation contribuent à expliquer pourquoi les variations du taux de change ne se transmettent que faiblement lorsqu’elles sont faibles. Par exemple, selon la théorie des coûts de catalogue (ou coûts de menu), lorsque l’inflation est forte, les variations des taux de change se transmettent plus rapidement et plus amplement car les entreprises ont de toute façon à modifier fréquemment leurs prix. Par contre, lorsque l’inflation est faible, les coûts associés aux modifications des prix nominaux désincitent les entreprises à modifier leurs prix, ce qui affaiblit l’incidence des taux de change. En outre, plusieurs canaux sont susceptibles de générer des non-linéarités dans l’incidence des taux de change [Caselli et Roitman, 2016]. Par exemple, les prix à l’exportation sont rigides à la baisse, si bien qu’il est plus facile pour les exportateurs d’accroître leur taux de marge que de le réduire. Par conséquent, lorsque le taux de change se déprécie, les exportateurs accroissent leurs prix à l’exportation plus qu’ils ne les diminuent lorsqu’il y a une appréciation. Cela suggère aussi que les dépréciations ont un plus ample effet sur les prix à l’importation que les appréciations. Une autre source d’asymétries et de non-linéarités est la rigidité à la hausse des quantités exportées. Les entreprises exportatrices qui font face à une dépréciation et qui n’exploitent que partiellement leurs capacités de production peuvent avoir des difficultés à accroître leurs ventes en accroissant leurs capacités de production. Par conséquent, elles peuvent réagir en accroissant leur taux de marge au lieu de construire une nouvelle usine, ce qui va se traduire par une plus faible transmission du côté de l’importateur.

Matthieu Bussière (2013) a confirmé la présence de non-linéarités et asymétries, tout du moins dans les économies du G7, même s’il observe une forte hétérogénéité d’un pays à l’autre dans l’amplitude de la transmission. Jeffrey Frankel, David Parsley et Shang-Jin Wei (2012) ont constaté qu’il y a un effet de seuil pour les larges dévaluations : les dépréciations supérieures à 25 % ont un effet de transmissions disproportionnellement plus élevé. Ils constatent également la présence d’asymétries ils ne peuvent rejeter l’hypothèse selon laquelle les appréciations ne sont pas transmises du tout, ce qui suggère une rigidité des prix à la baisse.

Barthélémy Bonadio, Andreas Fischer et Philip Sauré (2016) ont analysé la transmission d’une variation ample et non anticipée d’un taux de change, en l’occurrence celui du franc suisse. Le 15 janvier 2015, la Banque nationale suisse a en effet mis un terme au plancher qu’il imposait au taux de change vis-à-vis de l’euro à la parité de un euro pour 1,2 franc suisse. Le franc suisse s’est alors immédiatement apprécié de 11 % vis-à-vis de l’euro. Bonadio et alii constatent que pour les biens facturés en euros la transmission est immédiate et complète. Pour les biens facturés en francs suisses, la transmission est partielle et très rapide : elle commence au deuxième jour ouvrable après l’appréciation et atteint la transmission de moyen terme après huit jours ouvrables en moyenne. Ils interprètent ce dernier résultat comme la preuve que les rigidités nominales sont rapidement défaites lorsqu’un large choc touche de façon non anticipée le taux de change. 

Selin Özyurt (2016) a étudié le degré et la vitesse avec lesquels s’opère la transmission des variations du taux de change aux prix des biens importés au sein de la zone euro, que ce soit au niveau agrégée de celle-ci ou bien au niveau des cinq plus grandes économies-membres. Elle constate que la transmission est seulement partielle, probablement en raison de lents ajustements des prix nominaux et du comportement de fixation des prix des entreprises. En regardant les plus grands pays de la zone euro, Özyurt observe une forte hétérogénéité d’un pays à l’autre, aussi bien dans l’ampleur que dans la vitesse de la transmission des variations du change sur les prix. Le degré d’incidence du taux de change est le plus faible en Allemagne et le plus élevé en Italie. 

De nombreuses études ont suggéré qu’il y a eu ces dernières décennies un déclin dans l’ampleur par laquelle les entreprises transmettent les variations du taux de change aux prix domestiques. C’est notamment le cas de Yelena Takhtamanovra (2010). Les données empiriques qu’elle a étudiées suggèrent que les années quatre-vingt-dix ont été marquées une rupture structurelle dans la relation entre le taux de change réel et l’inflation des prix à la consommation pour un ensemble de 14 pays de l’OCDE. Elle suggère que le récent déclin de la transmission des variations du taux de change réel s’explique en partie par la faiblesse de l’inflation que l’on a pu observer durant les années quatre-vingt-dix. Il pourrait s’expliquer par la plus grande efficacité des banques centrales dans la lutte contre l’inflation, par l’ouverture des économies au commerce international et par l’intensification subséquente de la concurrence internationale. En outre, la présence de rigidités (comme les coûts de catalogue) contribue à ce qu’une faible inflation tend à s’auto-renforcer.

Özyurt constate également que le degré de transmission a décliné au cours des deux dernières décennies dans les pays de la zone euro. En outre, les périodes de forte chute de l’incidence des taux de change coïncident avec l’accroissement de la part des pays émergents, notamment de la Chine, dans les échanges internationaux, ce qui tend à confirmer l’idée que l’intensification de la concurrence internationale a davantage désincité les entreprises à modifier leurs prix. Özyurt L’économie italienne se singularise également par le fait qu’elle ne semble pas connaître de déclin dans l’incidence du taux de change au cours du temps.

Martina Jašová, Richhild Moessner et Előd Takáts (2016) ont cherché à déterminer si (et pourquoi) la transmission des variations du taux de change à l’inflation des prix à la consommation a pu changer depuis la crise financière mondiale, aussi bien dans les pays développés que dans les pays émergents. Pour cela, ils ont observé les données relatives à 22 pays émergents et 11 pays développés sur la période s’étalant entre le premier trimestre 1994 et le dernier trimestre 2015. Ils constatent que la transmission est restée relativement faible et stable dans les pays développés, tandis qu’elle a décliné dans les pays émergents depuis la crise financière, sans pour autant atteindre les faibles niveaux observés dans les pays développés. L’analyse des données tend en outre à confirmer que la baisse de la transmission dans les pays émergents est reliée au ralentissement de l’inflation.

Jašová et ses coauteurs notent qu’une réduction de l’incidence des taux de change a plusieurs implications pour la conduite de la politique monétaire. Non seulement la stabilisation de l’inflation a un faible niveau a pu contribuer à réduire la transmission des variations des taux de change aux prix domestiques, mais en retour, il est aussi possible que la plus faible incidence des taux de change ait contribué à stabiliser l’inflation à de faibles niveaux. Les faibles niveaux de transmission des taux de change aux prix impliquent que les banques centrales ont moins à craindre du flottement de leur taux de change, du moins lorsqu’il s’agit du contrôle de l’inflation. D’un autre côté, le déclin de la transmission dans les pays émergents implique que leurs banques centrales peuvent moins compter sur le canal du taux de change pour influencer l’inflation.

 

Références

BONADIO, Barthélémy, Andreas M. FISCHER & Philip SAURÉ (2016), « The speed of exchange rate pass-through », Federal Reserve Bank of Dallas, working paper, n° 282, septembre.

BUSSIÈRE, Matthieu (2013), « Exchange rate pass-through to trade prices: The role of nonlinearities and asymmetries », in Oxford Bulletin of Economics and Statistics, vol. 75, n° 5.

CALVO, Guillermo A., & Carmen M. REINHART (2002), « Fear of floating », in Quarterly Journal of Economics, vol. 117, n° 2.

CASELLI, Francesca G., & Agustin ROITMAN (2016), « Non-linear exchange rate pass-through in emerging markets », FMI, working paper, n° 16/1.

FRANKEL, Jeffrey A., David C. PARSLEY & Shang-Jin WEI (2012), « Slow pass-through around the world: a new import for developing countries? », in Open Economies Review, vol. 23, n° 2.

JAŠOVÁ, Martina, Richhild MOESSNER & Előd TAKÁTS (2016), « Exchange rate pass-through: What has changed since the crisis? », BRI, working paper, n° 583, septembre.

ÖZYURT, Selin (2016), « Has the exchange rate pass through recently declined in the euro area? », BCE, working paper, n° 1955, septembre.

TAKHTAMANOVA, Yelena (2010), « Understanding changes in the exchange rate pass-through », in Journal of Macroeconomics, vol. 32, n° 4.

 

Partager cet article
Repost0

Présentation

  • : D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher