Suivre ce blog
Administration Créer mon blog
30 mars 2015 1 30 /03 /mars /2015 21:44

Beaucoup considèrent la déflation comme le symptôme d’une insuffisance de la demande globale : les entreprises baissent leurs prix, car elles ont du mal à écouler leurs stocks. Dans ce cas, la déflation indiquerait une baisse simultanée et cumulative des prix, de la production et des revenus. Pourtant, elle peut aussi provenir d’un accroissement de l’offre globale, par exemple sous l’effet du progrès technique, de l’intensification de la concurrence ou de l’abondance d’intrants moins chers (notamment du pétrole). Dans ce cas, la déflation pourrait au contraire signaler une hausse des revenus et de la production.

Claudio Borio, Magdalena Erdem, Andrew Filardo et Boris Hofmann (2015) considèrent en outre que les répercussions de la déflation sont ambigües, ne serait-ce qu'au regard de la théorie. Si elle résulte d’une insuffisance de la demande globale, la déflation peut contribuer à aggraver celle-ci. Les ménages et les entreprises pourraient en effet avoir tendance à repousser leurs achats de biens durables s’ils anticipent une poursuite de la baisse des prix. En outre, la déflation accroît la valeur réelle de la dette, ce qui dégrade la situation financière des emprunteurs et conduit ces derniers à restreindre leurs dépenses et de nouveau à baisser leurs prix en vue de se désendetter ; ce processus de déflation par la dette (debt-deflation) identifié par Irving Fisher (1933) conduirait non seulement à amplifier la contraction de la demande, mais fragiliserait également l’ensemble du système bancaire. Si les taux d’intérêt nominaux butent sur leur borne inférieure zéro (zero lower bound), la banque centrale pourra difficilement encourager les dépenses, si bien que sa politique monétaire se révélera excessivement restrictive.

D’un autre côté, Borio et ses coauteurs estiment que la déflation peut contribuer, du moins théoriquement, à accroître la production. En effet, elle permet aux entreprises d’avoir accès à des intrants moins chers. En outre, elle incite les ménages à davantage consommer en accroissant leur pouvoir d’achat et en générant des effets de richesse avec l’accroissement de leur patrimoine réel. Enfin, lorsqu’une seule économie est en déflation, la baisse des prix domestiques stimule la demande extérieure en rendant les produits domestiques plus compétitifs sur les marchés internationaux. Par contre, les effets de la déflation des prix des actifs sont moins ambigus : Elle érode le patrimoine et la valeur des collatéraux, si bien qu’elle érode la situation financière des agents et les incite à réduire leurs dépenses en raison des effets de richesse négatifs.

Borio et ses coauteurs testent le lien historique entre la croissance de la production et la déflation dans un échantillon couvrant 140 années pour 38 économies. Ils confirment le fait que les déflations survenaient régulièrement avant la Seconde Guerre mondiale. Seuls quatre épisodes de déflation persistante ont eu lieu après celle-ci, en l’occurrence au Japon (par deux fois), en Chine et à Hong-Kong. Par contre, il y a eu plusieurs épisodes momentanés de déflation durant l’après-guerre. Les déflations étaient bien plus intenses avant la Seconde Guerre mondiale qu’après celle-ci, que ce soit en termes de variation des prix qu’en termes de durée.

Les déflations ont pu aussi bien coïncider avec des périodes de croissance positive qu’avec des périodes de croissance négative. En moyenne, la croissance n’a été qu’à peine plus élevée durant les phases d’inflation que durant les phases de déflation. L’analyse empirique suggère que le lien entre croissance et déflation est faible et qu’il s’explique essentiellement par l’épisode de la Grande Dépression : au cours des années trente, il y a en effet eu une corrélation entre la déflation et la croissance. Après la Seconde Guerre mondiale, le taux de croissance du PIB a été de 3,2% durant les périodes de déflation contre 2,7 % le reste du temps. Par contre, Borio et ses coauteurs constatent un lien bien plus significatif entre la croissance de la production et la déflation des prix d’actifs, en particulier lors des épisodes de baisse des prix de la propriété durant l’après-guerre. Borio et ses coauteurs prennent alors en compte l’endettement public et privé. Ils échouent à mettre en évidence la présence de mécanismes de déflation par la dette, puisque leur analyse ne démontre pas que les dommages associés à la baisse des prix des biens et services soient plus élevés lorsque le secteur privé est fortement endetté. Par contre, la baisse des prix de la propriété semble nuire davantage à l’activité lorsqu’elle s’opère dans un contexte de fort endettement privé.

La récente expérience japonaise tendrait à confirmer les résultats de Borio et de ses coauteurs. L’économie insulaire a en effet connu à partir de la fin des années quatre-vingt-dix l’épisode déflationniste le plus persistant de l’après-guerre. Entre 1998 et 2010, les prix ont connu une chute totale de 4 %. Cette déflation persistante fait suite à l’éclatement de bulles boursière et immobilière au début des années quatre-vingt-dix, qui faisait lui-même suite à une forte expansion des prix d’actifs et du crédit à la fin des années quatre-vingt. Puisque le Japon n’a jamais renoué avec le rythme de croissance qu’il atteignait avant qu’éclatent les bulles, beaucoup ont parlé de « deux décennies perdues ». Borio et ses coauteurs rejettent cette idée en prenant en compte les évolutions démographiques du Japon. Si effectivement la croissance annuelle du PIB réel par tête a fortement ralenti durant les années quatre-vingt-dix, elle a par contre accéléré durant les années deux mille. Entre 1991 et 2000, le PIB réel par tête a augmenté de 6 % au Japon, contre 26 % aux Etats-Unis. Entre 2000 et 2013, il a augmenté de 10 % au Japon, contre 12 % aux Etats-Unis. Sur la même période, le PIB réel par habitant en âge de travailler a même augmenté de plus de 20 % au Japon, contre environ 11 % aux Etats-Unis.

Au final, ces résultats amènent Borio et ses coauteurs à mettre en doute l’idée généralement acceptée que la déflation, même lorsqu’elle persiste, soit forcément nocive à l’activité économique et à la stabilité financière.

 

Références

Banque des Règlements Internationaux (2014), « Les coûts de la déflation : que disent les données historiques ? », 84ième rapport annuel, 29 juin, pages 108-109.

BORIO, Claudio, Magdalena ERDEM, Andrew FILARDO & Boris HOFMANN (2015), « The costs of deflations: a historical perspective », Banque des Règlements Internationaux, BIS Quarterly Review, mars.

FISHER, Irving (1933), « The debt deflation theory of great depressions », in Econometrica, vol. 1, n° 4. Traduction française, « La théorie des grandes dépressions par la dette et la déflation », in Revue française d’économie, vol. 3, n°3, 1988.

Partager cet article

27 mars 2015 5 27 /03 /mars /2015 22:28

La récente crise financière mondiale fut avant tout une crise du crédit, mais à une échelle international. Il n’y avait pas eu un tel événement depuis les années trente. Beaucoup ne pensaient pas qu’un tel événement pouvait se répéter, du moins pas dans les pays avancés. D’autres l’envisageaient, mais ils considéraient qu’il ne pouvait avoir de coûts significatifs sur l’activité économique ou tout du moins que les autorités publiques (et en premier lieu les banques centrales) seraient à même de les contrecarrer. La Grande Récession a renouvelé l’intérêt des économistes pour l’étude des conséquences macroéconomiques du système financier et en particulier de ses dysfonctionnements. Les études empiriques se sont multipliées ces dernières années et elles ont permis de mettre à jour de nouveaux faits stylisés. Ce sont ces derniers qu’a récemment compilés Alan Taylor (2015).

GRAPHIQUE 1  Part des pays connaissant un début de crise financière chaque année depuis 1800 (en %)

Quels liens entre crédit, instabilité financière et macroéconomie ?

Les crises financières ont été définies par Bordo et alii (2001) comme « des épisodes de volatilité sur les marchés financiers marqués par des problèmes significatifs d’illiquidité et d’insolvabilité parmi les participants aux marchés financiers et/ou par l’intervention des autorités publiques pour contenir leurs conséquences ». En s’appuyant sur cette définition, Taylor cherche à déterminer la fréquence des crises financières, selon qu’elles soient survenues parmi les pays avancés ou bien parmi les pays en développement. Ces derniers n’ont officiellement pas connu de crises financières avant les années 1860 ; cela peut notamment s’expliquer par leur sous-développement financier. Les pays avancés ont par contre connu des crises financières presque continûment depuis 1800. Par contre, la période s’étalant entre les années quarante et les années soixante-dix, qui fut en l’occurrence une ère de répression financière et de contrôles des capitaux, fut marquée par une relative stabilité financière : il n’y eut que trois crises dans les pays émergents et aucune dans les pays avancés. Ainsi, Taylor conclut que les crises financières sont des événements rares, mais pas des cygnes noirs. La durée d’un cycle financier est plus longue que les cycles d’affaires : si une récession survient tous les 5 à 10 ans, une crise financière est moins fréquente, survenant en moyenne tous les 15 à 20 ans. Une analyse robuste des crises financières exige donc une base de données aussi étendues que possibles dans le temps comme dans l’espace. Ensuite, la fréquence des crises financières a été relativement similaire parmi pays en développement les et parmi les pays avancés. En d’autres termes, ces dernières sont loin d’être immunisés contre l’instabilité financière, contrairement à ce que beaucoup ont pu croire.

GRAPHIQUE 2  Variation du PIB réel par tête par rapport à son niveau maximal d’avant-crise (%)

Quels liens entre crédit, instabilité financière et macroéconomie ?

Taylor cherche ensuite à déterminer les coûts associés aux crises financières tout au long de l’histoire (cf. graphique 2). Il compare les répercussions des récessions associées aux crises financières avec les récessions « normales ». Pour cela, il observe 223 récessions survenues dans 17 pays avancés depuis 1870 ; le quart d’entre elles ont été associées à des crises financières. Les récessions normales sont en moyenne peu sévères : elles sont associées à une décroissance du niveau de vie au cours de la première année, avec une perte s’élevant approximativement à 2 % du PIB réel par tête, puis la croissance revient, à un rythme de 1,5 % par an au cours des quatre années suivantes. Ainsi, cinq ans après la récession d’un cycle d’affaires normal, le PIB est en moyenne supérieur de 4 % au niveau qu’il atteignait au pic d’activité. Par contre, lors des crises financières, le PIB décroît durant les deux premières années, avec une perte s’élevant à 3 % du PIB réel par tête, puis la croissance revient, mais à un rythme de 1 % au cours des quatre années suivantes. Ainsi, cinq ans après une récession financière, le PIB retrouve simplement son niveau d’avant-crise. Que ce soit avant la Seconde Guerre mondiale ou après celle-ci, les récessions financières sont plus sévères et plus longues que les récessions normales. Taylor suggère toutefois que les coûts des crises financières ont peut-être eu tendance à s’élever au cours du temps.

Il n’y a certes pas d’indicateur avancé d’instabilité financière qui soit parfait, mais l’expansion du crédit a toujours été un puissant signal avant-coureur d’une crise financière. L’observation de plus d’un siècle des données relatives à 17 pays avancés permet de mettre à jour une forte corrélation empirique entre une l’expansion du crédit bancaire et la probabilité d’une crise financière. Toutes les expansions du crédit ne se soldent pas une crise financière, mais les crises financières sont souvent précédées d’un boom du crédit. De plus, le crédit n’expliquerait pas seulement la fréquence des crises ; il contribuerait également à façonner la récession et la reprise subséquence. Plus le boom du crédit a été important, plus la récession est sévère et plus la reprise est longue. Le surendettement hérité de l’expansion du crédit expliquerait ainsi pourquoi les récessions associées au retournement du cycle financier sont plus graves que les récessions associées au retournement des cycles d’affaires.

Aux travers des multiples travaux auxquels il participa, Taylor a mis à jour plusieurs faits stylisés à propos de l’endettement privé en observant les données couvrant 17 pays depuis 1870 [Schularick et Taylor, 2012 ; Jordà et alii, 2013a]. De 1870 jusqu’à aujourd’hui, les pays avancés ont connu des niveaux d’endettement privé toujours plus élevés, à en juger par la hausse régulière du ratio crédit bancaire sur PIB. La période entre 1930 et 1950 apparaît toutefois comme une exception, dans la mesure où elle se caractérisa par un désendettement, avec la Grande Dépression et la Seconde Guerre mondiale. Le ratio crédit bancaire sur PIB n’a retrouvé son niveau de 1939 qu’en 1970. Depuis cette date, le ratio a atteint des niveaux sans précédents. En l’occurrence, à la veille de la crise financière mondiale de 2008, le crédit bancaire représentait en moyenne 100 % du PIB. Comme il se maintient à des niveaux élevés, les économies sont donc toujours exposées au risque d’instabilité financière.

 

Références

BORDO, Michael, Barry EICHENGREEN, Daniela KLINGEBIEL & Maria Soledad MARTINEZ-PERIA (2001), « Is the crisis problem growing more severe? », in Economic Policy, vol. 16, n° 32.

JORDA, Oscar, Moritz H.P. SCHULARICK & Alan M. TAYLOR, (2011), « Financial crises, credit booms and external imbalances: 140 Years of Lessons », in IMF Economic Review, vol. 59, n° 2.

JORDÀ, Òscar, Moritz H.P. SCHULARICK & Alan M. TAYLOR (2013a), « When credit bites back », in Journal of Money, Credit and Banking, vol. 45, n° 2.

JORDÀ, Òscar, Moritz H.P. SCHULARICK & Alan M. TAYLOR (2013b), « Sovereigns versus banks: Credit, crises, and consequences », NBER working paper, n° 19506, octobre.

JORDÀ, Òscar, Moritz H.P. SCHULARICK & Alan M. TAYLOR (2014a), « The Great Mortgaging: Housing finance, crises, and business cycles », NBER, working paper, n° 20501, septembre.

JORDÀ, Òscar, Moritz H.P. SCHULARICK & Alan M. TAYLOR (2014b), « Betting the house », NBER, working paper, n° 20771, décembre.

SCHULARICK, Moritz H.P., & Alan M TAYLOR (2012), « Credit booms gone bust: monetary policy, leverage cycles, and financial crises: 1870–2008 », in American Economic Review, vol. 102, n° 2, avril.

TAYLOR, Alan M. (2015), « Credit, financial stability, and the macroeconomy », NBER, working paper, n° 21039, mars.

Partager cet article

publié par Martin Anota - dans Instabilité financière
commenter cet article
25 mars 2015 3 25 /03 /mars /2015 21:16

La mondialisation impose de puissantes contraintes aux systèmes économiques, financiers, sociaux et politiques. Michael Bordo et Harold James passent ainsi en revue quatre « trilemmes » identifiés par la littérature en finance internationale.

Le plus connu est le triangle des incompatibilités formalisé par Robert Mundell (1963). Selon lui, il ne peut y avoir simultanément liberté des mouvements des capitaux, fixité du taux de change et autonomie de la politique monétaire. Finalement, ce trilemme suggère que les pays doivent choisir entre deux alternatives : soit ils optent pour un approfondissement de la coopération international contraignant davantage les choix domestiques, soit ils adoptent des contrôles de capitaux pour sauvegarder l’autonomie de leur politique domestique. Tommaso Padoa-Schioppa (1982) a reformulé cette proposition en prenant en compte la politique commerciale et en parlant cette-fois-ci de « quatuor incohérent » à propos de la politique économique : il ne peut y avoir simultanément libre-échange, mobilité des capitaux, fixité des taux de change et indépendance de la politique monétaire. Hélène Rey (2013) a récemment montré que, dans un monde globalisé où les capitaux sont mobiles, la politique monétaire est contrainte, même si le taux de change est flottant. Elle identifie « un duo irréconciliable » en suggérant que les politiques monétaires ne peuvent retrouver leur indépendance qu’à la seule condition où le compte courant est administré, notamment via les mesures de politique macroprudentielle.

La plus grande fréquence des crises financières depuis les années quatre-vingt ont amené les économistes à identifier d’autres incohérences. La libéralisation financière affaiblit les contraintes de financement, ce qui accroît le risque que le crédit connaisse une expansion excessive et que des déséquilibres financiers s’accumulent et finissent par se corriger violemment. Tant que les capitaux afflux, les agents sont convaincus de la résilience du système financier domestique, ce qui les incite à prendre davantage de risques. Ainsi, au cours de l’histoire, l’irruption de capitaux dans les pays émergents caractérisés par un système bancaire fragile a régulièrement déclenché des crises financières internationales et certaines d’entre elles ont été suivies par des crises budgétaires avec le renflouement du secteur bancaire par l’Etat. En l’occurrence, comme le montre l’expérience de l’étalon-or, la crise asiatique ou plus récemment encore la crise de la zone euro, les afflux de capitaux se révèlent particulièrement perturbateurs lorsqu’ils surviennent dans un régime de taux de change fixe ou dans une union monétaire. Certains ont alors suggéré que l’adoption d’un régime de change flexible contribue à contenir les excès, puisqu’un afflux de capitaux devrait en principe entraîner une appréciation du taux de change qui ne peut que réduire l’attractivité des placements domestiques. Face aux afflux de capitaux, les pays doivent adapter leurs institutions, mais très souvent, ils échouent à le faire, si bien que les mouvements de capitaux alimentent finalement les comportements de chasse au rendement, la corruption et surtout l’instabilité financière. Ainsi, selon le deuxième trilemme, il est difficile de concilier l’ouverture du compte de capital, la fixité du taux de change et la stabilité financière.

Bordo et James prennent ensuite en compte la dimension politique. Ils rappellent que la mobilité des capitaux réduit la capacité des Etats démocratiques à opérer une redistribution des revenus et à taxer les hauts revenus. En outre, les Etats peuvent initialement apprécier les bénéfices associés aux entrées de capitaux, mais les Etats démocratiques peuvent toutefois désirer également décider de manière indépendante leur politique monétaire. Ils doivent alors arbitrer entre l’autonomie de leur politique monétaire et la capacité à attirer les capitaux. Chacune de ces deux options se caractérise par des problèmes d’incohérence temporelle : si la politique monétaire est d’autant plus efficace qu’elle n’est pas anticipée, les afflux de capitaux ne sont bénéfiques à l’économie que si les agents anticipent leur poursuite. Tant que les afflux se poursuivent, le système politique semble stable et l’opposition au gouvernement en place s’effrite. Par contre, lorsque l’économie subit une crise financière et économique suite à une fuite des capitaux, le système politique devient instable, les électeurs reportant le blâme sur les gouvernants en place et se tournant alors plus facilement vers des partis d’extrême-gauche ou d’extrême-droite. Pour Dani Rodrik (2000, 2007), nous ne pouvons poursuivre simultanément la démocratie, la souveraineté  nationale et la mondialisation. De leur côté, Bordo et James avancent un troisième trilemme : il y a une incompatibilité entre les flux de capitaux, l’indépendance de la politique monétaire et la démocratie.

Bordo et James s’interrogent alors sur les interactions entre la démocratie, les mouvements de capitaux et l’ordre international. Les démocraties acceptent l’ordre international lorsqu’il leur permet d’attirer des capitaux. Ce sont surtout les formes d’engagement politiques (comme les traités et alliances entre pays) et non pas monétaires (comme l’appartenance à l’étalon-or ou à une union monétaire) qui convainquent les créanciers de prêter. Les alliances signalent aux investisseurs que les gouvernements des pays créanciers contraindront les banques à continuer de prêter, ce qui réduit le risque d’un arrêt soudain dans les flux de capitaux. Lorsque les capitaux refluent, les incitations à respecter des engagements internationaux disparaissent également. Bordo et James formulent ainsi un quatrième trilemme : nous ne pouvons concilier simultanément les flux de capitaux, la démocratie et un ordre politique international stable.

 

Références

BORDO, Michael, & Harold JAMES (2015), « Capital flows and domestic and international order: Trilemmas from macroeconomics to political economy and international relations », NBER, working paper, mars.

MUNDELL, Robert A. (1963), « Capital mobility and stabilization policy under fixed and flexible exchange rates », in Canadian Journal of Economic and Political Science, vol. 29, n° 4.

PADOA-SCHIOPPA, Tommaso (1982), « Capital mobility: Why is the treaty not implemented? ».

REY, Helene (2013), « Dilemma not trilemma: The global financial cycle and monetary policy independence », document de travail présenté à la conference de Jackson Hole, août.

RODRIK, Dani (2000), « How far will international economic integration go? », in Journal of Economic Perspectives, vol. 14, n° 1.

RODRIK, Dani (2007), « The inescapable trilemma of the world economy ».

Partager cet article

23 mars 2015 1 23 /03 /mars /2015 22:23

De nombreuses études suggèrent que les mesures budgétaires et monétaires associées au New Deal de Roosevelt ont contribué à la reprise américaine en stimulant la demande globale. L’impact sur l’offre est toutefois plus controversé. D’un côté, parmi les nouveaux keynésiens, Gauti Eggertsson (2012) a affirmé que la sortie de la déflation joua un rôle important dans la sortie de la dépression. En facilitant la collusion entre les travailleurs et les entreprises, le New Deal entraîna une hausse des prix et des salaires et mit ainsi un terme à la déflation. A l’opposé, des économistes comme Christopher Erceg, Michael Bordo et Charles Evans (2000) ou encore Harold Cole et Lee Ohanian (2004) affirment que ces mesures eurent des effets récessifs en accroissant les salaires réels et en restreignant la production.

Jérémie Cohen-Setton, Joshua Hausman et Johannes Wieland (2015) ont voulu éclairer ce débat en se penchant sur l’expérience française au milieu des années trente. En 1936, le gouvernement du Front populaire abandonna politiques déflationnistes que lui imposait l’étalon-or, il procéda à une dévaluation et il adopta plusieurs politiques d’offre ayant pour effet de stimuler l’inflation. En l'occurrence, avec les accords de Matignon de juin 1936, les salaires privés furent relevés de 7 à 15 %, les travailleurs bénéficièrent de deux semaines de congés payés et la durée hebdomadaire du travail fut ramenée à 40 %, à nouveau sans réduction de salaire. L’élection du Front populaire en mai 1936 conduisit à une forte révision à la hausse des anticipations d’inflation. Les prix de gros avaient chuté de 5 % en 1935, mais ils augmentèrent de 16 % en 1936, de 38 % en 1937 et de 14 % en 1938. La forte accélération de l’inflation, dans un contexte où les taux d’intérêt nominaux ne varièrent que faiblement, entraîna une chute des taux d’intérêt réels de près de 40 points de pourcentage. Selon les modèles des nouveaux keynésiens, cette baisse des taux d’intérêt réels aurait dû conduire à une hausse soutenue de la production. Pourtant, contrairement aux prédictions de ces modèles et à l’expérience des autres pays, la production française stagna : entre mai 1936 et novembre 1938, la production industrielle (corrigée des variations saisonnières) chuta de pratiquement 10 %.

Les données temporelles et transversales suggèrent que les politiques d’offre, en particulier les 40 heures, contribuèrent effectivement à la stagnation française. Comparé aux autres pays durant les années trente, la France fut quasiment la seule à connaître à la fois une forte accélération de l’inflation et une stagnation de la production. Les variations des prix et de la production au sein de l’économie française coïncidèrent véritablement avec les actions entreprises par le gouvernement. Les prix commencèrent à augmenter lorsque le gouvernement du Front populaire fut élu en mai 1936 et ils grimpèrent encore plus rapidement lorsque la France abandonna l’étalon-or en septembre 1936. La production chuta tout d’abord suite à la prise de pouvoir du gouvernement du Front populaire, puis elle se releva peu après que la France ait dévalué. Lorsque la réduction de la durée hebdomadaire du travail fut pleinement entrée en vigueur, la production chuta à nouveau.

Cohen-Setton et ses coauteurs proposent alors un modèle de déséquilibres qui soit cohérent, d’une part, avec les effets expansionnistes associés à la baisse des salaires réels et, d’autre part, avec les effets récessifs associés à la hausse des salaires réels. Ils supposent que les salaires ne peuvent chuter en-deçà d’un certain seul. Lorsque la productivité du travail chute en-deçà de ce seuil, les entreprises considèrent qu’il n’est plus rentable d’embaucher de nouveaux travailleurs et d’accroître la production. Il y aurait donc un niveau maximal de production. Aussi longtemps que l’économie n’est pas contrainte en termes d’offre, la production croît d’autant plus que les anticipations d’inflation sont révisées à la hausse. Par contre, une hausse excessive des salaires réels empêche les entreprises de répondre à une plus forte demande, même lorsque la production est bien inférieure à son niveau potentiel. Lorsque la demande des ménages est rationnée, même une large baisse des taux d’intérêt réels peut échouer à stimuler la production.

Cette étude est particulièrement éclairante pour les politiques économiques menées aujourd’hui. De nombreuses banques centrales, incapables de baisser leurs taux d’intérêt en raison de la borne inférieure zéro, cherchent à relever les anticipations d’inflation, notamment la Banque du Japon en déployant la « première flèche » de l’abenomics. Cohen-Setton et ses coauteurs considèrent qu’un relèvement des anticipations d’inflation est essentiel pour sortir l’économie d’une trappe à liquidité. Leur étude les amène toutefois à conclure qu’il y a de bonnes et de mauvaises manières de les relever. En l’occurrence, la dévaluation du franc fut une bonne manière de stimuler les anticipations d’inflation ; elle permit ainsi à l’économie française de renouer avec une expansion, même de courte durée. Ce résultat est cohérent avec la conclusion de Barry Eichengreen et Jeffrey Sachs (1985) selon laquelle la plupart des pays connurent une reprise, suite à la Grande Dépression, que lorsqu’ils procédèrent à une dévaluation. Malheureusement le gouvernement du Front populaire s’appuya également sur une mauvaise manière pour relever les anticipations d’inflation : il imposa une hausse des salaires et des restrictions d’offre.  En l’absence de contraintes du côté de l’offre la France aurait connu une reprise rapide après avoir abandonné l’étalon-or. Ils confirment ainsi l’hypothèse de Barry Eichengreen (1992) selon laquelle les politiques d’offre du Front populaire ont pu annuler les gains que la France tira de la dévaluation.

Cohen-Setton et ses coauteurs soulignent que leur étude se contente d’observer les conséquences macroéconomiques des politiques d’offre françaises et non leurs répercussions sur le bien-être de la population. Ces politiques ont peut-être été la meilleure option qui se présentait au gouvernement français au vu des contraintes sociales et politiques auxquelles il faisait face. En d’autres termes, elles ont pu être un « moindre mal ».

 

Références

COHEN-SETTON, Jérémie, Joshua K. HAUSMAN & Johannes F. WIELAND (2015), « Supply-side policies in the Depression: Evidence from France », document de travail, 26 février.

COLE, Harold L., & Lee E. OHANIAN (2004), « New Deal policies and the persistence of the Great Depression: A general equilibrium analysis », in Journal of Political Economy, vol. 112, n° 4.

EGGERTSSON, Gauti B. (2012), « Was the New Deal contractionary? », in American Economic Review, vol. 102, février.

EICHENGREEN, Barry (1992), Golden Fetters: The Gold Standard and the Great Depression, 1919-1939.

EICHENGREEN, Barry, & Jeffrey SACHS (1985), « Exchange rates and economic recovery in the 1930s », in Journal of Economic History, vol. 45, n° 4.

ERCEG, Christopher J., Michael D. BORDO & Charles L. EVANS (2000), « Money, sticky wages, and the Great Depression », in American Economic Review, vol. 90; n° 5.

Partager cet article

publié par Martin Anota - dans Politique économique
commenter cet article
21 mars 2015 6 21 /03 /mars /2015 10:12

Entre 1983 et 2008, les importations américaines de biens manufacturés ont doublé, tandis que l’emploi des firmes multinationales américaines tripla dans les pays à faible revenu. Une part essentielle de ces dynamiques concerne la Chine. Suite à l’accession de cette dernière à l’OMC en 2001, les exportations chinoises vers les Etats-Unis ont connu un boom. Entre 1983 et 2008, 8 % de l’ensemble des importations américaines sur cette période ont été réalisées en provenance de la Chine. Or, le secteur manufacturé américain abritait 16 millions d’emplois en 2008, contre 22 millions en 1983. Ce sont 2 millions d’emplois additionnels qui ont été supprimé depuis la Grande Récession de 2008. Beaucoup ont ainsi suggéré que la mondialisation et plus particulièrement l’essor de la Chine sur les marchés internationaux ont accentué la désindustrialisation aux Etats-Unis et provoqué une délocalisation des « bons emplois » de l’industrie américaine vers les pays émergents.

Beaucoup des précédentes études qui ont analysé l’impact du commerce international sur le marché du travail américain se sont focalisées sur le commerce des marchandises. Pourtant, la fragmentation de la production et les délocalisations sont susceptibles d’affecter un bien plus large ensemble de travailleurs. La fragmentation aux multinationales de séparer les différentes étapes de la production d’un bien donné en tâches à forte compétence et en tâches à faibles compétences, puis de faire réaliser plusieurs de ces tâches (même les tâches à haute valeur ajoutée) dans les pays où le travail est moins cher. Alors que les importations touchent souvent des secteurs à faible valeur ajoutée (par exemple la production de jouets), l’emploi étranger des multinationales américaines est surtout créé dans les secteurs à forte valeur ajoutée (automobile, électronique, etc.). Ces derniers secteurs ont eu historiquement des taux élevés de syndicalisations et des salaires élevés. Les délocalisations sont donc potentiellement plus dangereuses pour les travailleurs américains car elles réduisent leur pouvoir de négociation. Puisque la menace de délocaliser une usine dans les pays émergents est crédible, la mondialisation peut exercer une pression à la baisse sur les salaires américains et même affecter les travailleurs dont l’emploi n’est pas délocalisé à l’étranger. En outre, les salaires peuvent être tellement réduits par rapport aux normes historiques que beaucoup des travailleurs les plus âgés peuvent être incités à quitter la population active.

Avraham Ebenstein, Ann Harrison, Margaret McMillan et Shannon Phillips (2014) ont constaté de significatives réductions salariales pour les travailleurs américains exposés à la mondialisation, en particulier les travailleurs réalisant des tâches de routine qui peuvent être a priori facilement réalisées à l’étranger. En raison de l’insuffisance de données, ils ne s’étaient toutefois contentés d’étudier que la seule période s’écoulant ente 1983 et 2002.

Dans leur nouvelle analyse, Ebenstein, Harrison et McMillan (2015) parviennent à étendre leurs données jusqu’à l’année 2008, ce qui leur permet de prendre en compte une période marquée par l’accroissement de la pénétration à l’import, l’essor de la Chine et le développement rapide des délocalisations. Ils constatent de significatifs effets de la mondialisation sur le marché du travail américain. En effet, la délocalisation vers les pays à faible salaire et les importations associées à des déclins salariaux pour les travailleurs domestiques. Une hausse de 10 % de l’exposition d’une profession à la concurrence à l’import est associée à une baisse de 2,7 % des salaires réels pour les travailleurs réalisant des tâches de routine. Ebenstein et alii décèlent également un fort impact sur les salaires des délocalisations vers les pays émergents. En effet, une hausse de 10 % de l’exposition spécifique d’une profession à l’emploi étranger dans les pays à faible salaire est associée à une baisse de 0,27 % des salaires des travailleurs réalisant des tâches de routine pour l’ensemble de leur échantillon et presque une baisse de 1 % pour la seule période s’écoulant entre 2000 et 2008. Les salaires des travailleurs peu qualifiés et des travailleurs âgés sont en l’occurrence disproportionnellement affectés par les délocalisations.

Ils suggèrent que la mondialisation a entraîné une réallocation des travailleurs hors des emplois manufacturiers à haut salaire vers d’autres secteurs et d’autres professions. Les reclassements ont peu d’impacts sur les salaires lorsqu’ils sont confinés au secteur manufacturier. Par contre, ils sont associés à de fortes réductions salariales lorsqu’ils conduisent les travailleurs à quitter le secteur manufacturier pour les services.

Les auteurs analysent alors plus finement l'impact de la concurrence chinoise. Les importations en provenance de Chine et les délocalisations à destination de la Chine sont associées à de plus faibles salaires américains. Une hausse de 10 points de pourcentage de la part de marché des entreprises chinoises est associée à une baisse des salaires de 5,6 %. 

Au sortir de la Grande Récession, les Etats-Unis présentèrent des taux de chômage élevés et des taux d’activité historiquement faibles ; certains ont relié cette performance du marché du travail américain au vieillissement démographique, mais le rôle que le commerce international a pu joué dans cette dynamique reste imprécis. Ebenstein et ses coauteurs se penchent alors sur les liens entre commerce international, délocalisations et taux d’activité. Ils constatent une corrélation négative entre l’exposition aux délocalisations vers la Chine et le taux d’activité, mais une relation positive entre les taux d’activité et la concurrence chinoise à l’import. Les facteurs associés à l’informatisation et à l’accroissement de l’intensité capitalistique semblent associés bien plus significativement au déclin de l’emploi. Ils constatent de faibles impacts de la mondialisation sur la population active, mais un large impact sur cette dernière de l’informatisation et du prix des biens d’investissement. La chute des prix des biens d’investissement est associée à un plus grand usage du capital ; le plus grand usage des ordinateurs et du capital est associé à un plus faible emploi, à un chômage plus élevé et à de plus faibles taux d’activité.

 

Références

AUTOR, David H. David DORN & Gordon H. HANSON (2013), « The China syndrome: Local labor market effects of Import Competition in the United States », in American Economic Review, 103(6): 2121-68.

EBENSTEIN, Avraham, Ann HARRISON, Margaret MCMILLAN & Shannon PHILLIPS (2014), « Estimating the impact of trade and offshoring on American workers using the current population surveys », in Review of Economics and Statistics, voL. 96, n° 4, octobre.

EBENSTEIN, Avraham, Ann HARRISON & Margaret MCMILLAN (2015), « Why are American workers getting poorer? China, trade and offshoring », NBER, document de travail, n° 21027, mars.

Partager cet article

18 mars 2015 3 18 /03 /mars /2015 22:47

Plus précisément, entre 1990 et 2000, la valeur réelle de la production manufacturière américaine a augmenté d’un tiers et pourtant le volume des principaux polluants atmosphériques (comme les oxydes d’azote, les particules fines, le dioxyde de soufre et des composantes organiques volatils) émis par le secteur manufacturier a chuté en moyenne de 35 %. Après 2000, la croissance de la production manufacturière réelle a ralenti, pourtant les émissions polluantes de l’industrie ont chuté à nouveau de 25 points de pourcentage par rapport à leurs niveaux de 1990. Ainsi, dans l’ensemble, les émissions des principaux polluants atmosphériques ont chuté de 60 % entre 1990 et 2008.

Les études ont souvent privilégié quatre raisons pour expliquer cette performance. Premièrement, les échanges de biens manufacturiers réalisés par les Etats-Unis avec le reste du monde ont fortement augmenté. Or les activités industrielles polluantes ont pu être délocalisées à l’étranger (par exemple dans les pays émergents comme le Mexique ou la Chine), si bien que les Etats-Unis ont pu se contenter d’importer les biens issus de cette production sans avoir à en supporter les externalités négatives. Ces dernières n’auraient donc pas été éliminées, mais tout simplement « exportées » ailleurs dans le monde. Deuxièmement, le resserrement de la réglementation environnementale, ainsi que l’introduction de taxes environnementales et d’autres mesures de politique climatique, ont sûrement incité les entreprises à adopter des technologies toujours plus propres. Troisièmement, avec la hausse de leur niveau de vie et la satisfaction croissante de leurs besoins fondamentaux, les ménages américains ont pu graduellement choisir de moins dépenser dans la consommation de biens sales et de dépenser davantage dans la consommation de biens propres et de services, ce qui aurait incité les entreprises à réorienter leur production au profit de ces derniers. Quatrièmement, si les entreprises utilisent moins d’intrants polluants chaque année pour produire les mêmes biens et services, alors la croissance de la productivité peut améliorer la qualité de l’air. Certains ont ainsi cru déceler une relation fortement négative entre la pollution par unité produite au niveau de chaque usine et la productivité totale des facteurs dans le secteur manufacturier américain : en l’occurrence, lorsque la productivité totale des facteurs augmente, la pollution par unité produite diminue.

Joseph Shapiro et Reed Walker (2015) ont développé un modèle quantitatif pour déterminer quelle est la contribution respective des échanges internationaux, de la réglementation environnementale, de la productivité et des préférences des consommateurs dans la réduction des émissions polluantes de l’industrie américaine entre 1990 et 2008. Les deux auteurs combinent des modèles issus de la littérature sur le commerce international et de la littérature sur l’économie de l’environnement. Alors que la plupart des modèles quantitatifs sont utilisés pour prévoir comment de possibles politiques comme les taxes carbone et la réduction des droits de douane puissent à l’avenir affecter la pollution et le bien-être, Shapiro et Walker utilisent leur modèle pour analyser le passé. Pour cela, ils s’appuient sur les données détaillées issues du Census Bureau des Etats-Unis. Ces données apportent des informations à propos des émissions, des marchandises et des coûts de production pour chaque usine dans le secteur manufacturier américain.

Le modèle et les données empiriques amènent Shapiro et Walker à tirer trois principales conclusions. Premièrement, la chute des émissions polluantes s’explique principalement par le baisse de la pollution par unité produite dans un ensemble limité de produits plutôt qu’à une réallocation de la production en faveur de nouveaux produits ou à des changements du montant de la production manufacturière. Deuxièmement, le relèvement de la taxe de la pollution a plus que doublé entre 1990 et 2008. Troisièmement, la réglementation environnementale expliquerait plus de 75 % de la réduction observée dans les émissions polluantes dans l’industrie. Les coûts d’échange et le changement des préférences ont joué des rôles bien moindres dans la dépollution. Malgré la relation entre la pollution et la productivité constatée au niveau de chaque usine, la croissance de la productivité a eu un effet limité sur les émissions polluantes au niveau de l’ensemble de l’économie américaine. Ainsi, ce n’est pas la poursuite de la croissance américaine ou, plus spécifiquement, de la croissance de la production manufacturière qui a rendu plus propre cette dernière, mais bien l’action des autorités publiques.

 

Référence

SHAPIRO, Joseph S., & Reed WALKER (2015), « Why is pollution from U.S. manufacturing declining? The roles of trade, regulation, productivity, and preferences », NBER, document de travail, n° 20879, janvier.

Partager cet article

13 mars 2015 5 13 /03 /mars /2015 23:55

Plusieurs pays avancés semblent connaître une détérioration de la répartition du revenu du travail. Aux Etats-Unis, les salaires réels des 1 % des salariés les mieux pays ont augmenté de 191 % entre 1980 et 2011, tandis que les salaires médians ont chuté de 5 % The Economist, 2015]. Il pourrait en l’occurrence s’agir d’une « polarisation » entre les hauts salaires et les bas salaires. Une partie de la littérature s’est alors focalisée sur la prime de qualification (skill premium), c’est-à-dire l’écart de salaire entre les travailleurs les plus qualifiés et les travailleurs les moins qualifiés. En l’occurrence, cette prime de qualification aurait eu tendance à s’accroître au cours du temps, contribuant ainsi à alimenter les inégalités salariales [Acemoglu, 2002 ; Acemoglu et Autor, 2011]. Certains suggèrent que la main-d’œuvre qualifiée ferait l’objet d’une demande de plus en plus forte, alors que le « stock » de main-d’œuvre qualifiée n’augmenterait pas, ou en tout cas pas aussi vite. Le progrès technique pourrait jouer un rôle fondamental dans cette dynamique, car les machines exigent des compétences pour être créées ou utilisées, mais elles se substituent aux travailleurs lorsque ces derniers réalisent des tâches de routine. Les emplois aux tâches routiniers ne sont pas forcément sans qualifications ; en l’occurrence, les emplois moyennement qualifiés exigent souvent de leurs possesseurs qu’ils réalisent des tâches routinières.

La littérature économique a depuis longtemps reconnu que les économies d’échelle permettaient aux salariés des plus grandes entreprises d’être plus productifs que les plus petites entreprises, si bien que les premières auraient tendance à verser de plus hauts salaires que les secondes [The Economist, 2015]. La croissance des entreprises ne conduit alors pas nécessairement à une hausse des inégalités salariales. Les bénéfices pourraient toutefois ne pas être équitablement répartis en sein des grandes entreprises.

Holger Mueller, Paige Ouimet et Elena Simintzi (2015) ont observé comment la prime de qualification variait d’une entreprise à l’autre et au cours du temps à partir d’un échantillon d’entreprises du Royaume-Uni. Ils ont réparti les travailleurs en neuf groupes en fonction de leur qualification. Ils constatent que les écarts de salaires entre les emplois très qualifiés et les emplois moyennement ou peu qualifiés s’accroissent avec la taille de l’entreprise. Par contre, soit les écarts de salaires entre les emplois moyennement qualifiés et les emplois peu qualifiés ne varient pas en fonction de la taille des entreprises, soit ils ont tendance à diminuer avec celle-ci. Ils constatent les mêmes dynamiques au cours du temps, ce qui suggère que l’accroissement des inégalités salariales puisse être relié à la croissance des entreprises. Les tendances observées sont similaires aux dynamiques des inégalités de revenu observées aux Etats-Unis et en Grande-Bretagne depuis les années quatre-vingt-dix.

Une explication pourrait être qu’il existe des mécanismes compensateurs exerçant une pression à la baisse sur les salaires des emplois moyennement et peu qualifiés dans les plus grandes entreprises. Mueller et ses coauteurs se focalisent sur deux de ces types de mécanismes. Le premier pourrait être que les salaires associés aux tâches de routine soient relativement plus faibles dans les plus grandes entreprises car ces dernières auraient plus souvent recours à l’automation. Les auteurs constatent effectivement que les salaires associés aux emplois de routine déclinent vis-à-vis des salaires d’emplois non routiniers au fur et à mesure que la taille de l’entreprise augmente, en particulier dans les emplois moyennement qualifiés. Un second mécanisme pourrait être que les plus grandes entreprises versent de plus faibles salaires aux dirigeants débutants en échange à de meilleures opportunités de carrière. Ils constatent effectivement que les salaries des dirigeants dans les emplois peu et moyennement qualifiés sont relativement plus faibles dans les plus grandes entreprises, alors que les salaires des dirigeants dans les emplois hautement qualifiés sont relativement plus élevés dans les plus grandes entreprises.

A partir d’un échantillon de 15 pays avancés comprenant les Etats-Unis et le Royaume-Uni, Mueller et alii se demandent si les inégalités salariales sont liées à la croissance des entreprises au niveau de chaque pays en se focalisant sur la période s’écoulant entre 1981 et 2010. Puisqu’il pourrait être trompeur de réfléchir à partir des entreprises de taille médiane, ils se focalisent sur les 50 ou 100 plus grandes entreprises au sein de chaque pays étudié. Ils constatent alors une forte relation positive entre la croissance de la taille des entreprises et la hausse des inégalités salariales dans pratiquement l’ensemble des pays de l’échantillon. L’effet est particulièrement visible aux Etats-Unis et en Grande-Bretagne. Or, entre 1986 et 2010, le nombre de travailleurs employés par les 100 plus grandes entreprises du pays a augmenté de 53 % aux Etats-Unis et de 43,5 % au Royaume-Uni [The Economist, 2015]. A un autre extrême, la taille des entreprises n’a pas beaucoup varié dans certains pays comme la Suède, voire elle a même diminué dans certains, comme au Danemark, or les inégalités se sont accrues moins rapidement dans ces pays. Une partie de ce qui est perçu comme une tendance mondiale à un accroissement des inégalités salariales pourrait résulter (du moins en partie) du fait que les plus grandes entreprises emploient une plus large part de travailleurs.

Ainsi, Mueller et ses coauteurs en concluent que la croissance des entreprises, en particulier des plus grandes, contribuerait de deux manières aux inégalités de salaires. D’une part, elle catalyse des facteurs explicatifs qui ne sont pas immédiatement associés à la croissance des entreprises. Par exemple, l’automatisation des tâches de routine pourrait aux inégalités, mais elle ne résulte pas forcément de la croissance des entreprises. Cependant les plus grandes entreprises sont précisément les entreprises les plus susceptibles d’automatiser les tâches de routine, si bien que leur croissance stimule le progrès technique biaisé en défaveur du travail. D’autre part, la croissance des entreprises peut contribuer à accroître les inégalités de salaires via des canaux étroitement associés à la taille de l’entreprise. Par exemple, si les plus grandes entreprises présentent de plus larges écarts entre les salaires au sommet et les salaires au premier échelon, alors la croissance des ces entreprises contribue directement à l’accroissement des inégalités salariales.

 

Références

ACEMOGLU, Daron (2002), « Technical change, inequality, and the labor market », in Journal of Economic Literature, vol. 40.

ACEMOGLU, Daron, & David AUTOR (2011), « Skills, tasks and technologies: Implications for employment and earnings », in Handbook of Labor Economics, vol. 4.

The Economist (2015), « The bigger, the less fair », 13 mars.

MUELLER, Holger M., Paige P. OUIMET & Elena SIMINTZI (2015a), « Wage Inequality and firm growth », NBER, document de travail, n° 20876, janvier.

MUELLER, Holger M., Paige P. OUIMET & Elena SIMINTZI (2015b), « Wage inequality and firm growth », in VoxEU.org, 12 mars.

Partager cet article

10 mars 2015 2 10 /03 /mars /2015 21:16

Avec la mondialisation des échanges et l’intégration des pays émergents sur les marchés internationaux, on pourrait croire que les exportations sont devenues davantage sensibles aux coûts, ce qui rendrait plus pressant la maîtrise de ces derniers. En effet, si les entreprises voient leurs coûts de production augmenter, elles sont susceptibles de répercuter cette hausse sur les prix de vente pour maintenir leur profit ; avec l’essoufflement résultant de la demande extérieure, l’économie risque alors de connaître une détérioration de son solde extérieur, un ralentissement de sa croissance économie et une hausse de son taux de chômage. En outre, beaucoup considèrent que la dégradation de la compétitivité-coût a joué un rôle déterminant dans l’accumulation des déséquilibres au sein de la zone euro avant qu'éclate la crise financière mondiale. Ainsi, certains en ont conclu que les pays périphériques de la zone euro devaient nécessairement réduire leurs coûts pour stimuler leurs exportations et renouer ainsi avec une croissance soutenable. Le débat s’est souvent focalisé sur le coût du travail ; ses participants ont eu tendance à privilégier les coûts unitaires du travail comme indicateur de compétitivité. Ainsi, avant même la Grande Récession, beaucoup ont appelé, en France, comme dans d’autres pays avancés, à une modération salariale.

Stefaan Decramer, Catherine Fuss et Jozef Konings (2014) considèrent toutefois que peu d’études empiriques se révèlent concluantes quant à l’impact des coûts unitaires du travail sur les performances à l’export. Ils rappellent que Nicholas Kaldor (1978) remarquait dès les années soixante-dix que les pays ayant les taux de croissance du PIB les plus élevés tendaient également à connaître les plus fortes croissances des coûts unitaires du travail. Le comportement de l’économie espagnole lors de la Grande Récession pourrait illustrer le « paradoxe de Kaldor » : malgré une détérioration de ses prix relatifs à l’export, l’Espagne n’a connu qu’une chute limitée de ses exportations. Les exportations pourraient réagir à des facteurs autres que les coûts. Elles sont notamment susceptibles de dépendre de la qualité des produits : or la hausse des coûts de production en général et du coût du travail en particulier pourrait précisément être associée à une amélioration de la qualité des produits (ce sera par exemple le cas si ces derniers utilisent des composants plus performants ou si les travailleurs sont plus qualifiés). Comme le suggèrent les nouvelles théories du commerce international, les consommateurs pourraient avoir une préférence pour la diversité... 

Les plus vieux travaux ont constaté une relation faible, voire positive, entre les coûts relatifs et les exportations. Le lien entre les coûts unitaires du travail et la compétitivité à l’export n’a toutefois été exploré que par un nombre limité d’études. Par exemple, Jan Fagerberg (1988) montre à partir de données relatives à 15 pays de l’OCDE sur la période 1961-1983 que la technologie et la capacité sont à moyen et long terme bien plus importants pour les parts de marché et la croissance que la compétitivité-coût. Wendy Carlin, Andrew Glyn et John Van Reenen ont étudié la relation entre les parts de marché à l’export et les coûts unitaires du travail relatifs en utilisant un échantillon de douze secteurs manufacturiers parmi quatorze pays de l’OCDE. Même si les coûts et la technologie sont importants, ils ne parviennent à expliquer totalement les performances à l’export. Ils constatent également que la sensibilité des exportations des coûts du travail est plus faible dans les secteurs à haute technologie et dans les pays du cœur du système monétaire européen. Malgré la détérioration des prix relatifs à l’export de l’Espagne, Mónica Correa-López et Rafael Doménech (2012) estiment que la baisse limitée des exportations espagnoles lors de la Grande Récession s’explique avant tout par les décisions stratégiques des entreprises, notamment en termes de qualité, de diversification des produits ou d’investissement en capital humain.

De leur côté, Decramer et ses coauteurs ont récemment étudié la relation entre les coûts unitaires du travail et la performance à l’export pour une petite économie ouverte, en l’occurrence la Belgique. Ils utilisent les données relatives aux coûts, à la productivité et aux exportations des entreprises belges au cours de la période s’écoulant entre 1999 et 2010. Ils distinguent notamment la marge intensive des exportations (la performance à l’exportation des exportateurs belges en place) de leur marge extensive (l’entrée et la sortie des entreprises sur le marché à l’export).

Au niveau de l’entreprise, Decramer et ses coauteurs font apparaître une relation négative entre les coûts unitaires du travail et les exportations. En effet, une hausse de 10 % des coûts unitaires du travail est associée à une baisse des exportations comprise entre 2 et 4 %. L’élasticité varie toutefois d’un secteur à l’autre et d’une entreprise à l’autre. En l’occurrence, les exportations des entreprises les plus intensives en main-d’œuvre qui se révèlent être plus élastiques aux coûts unitaires du travail que les exportations des entreprises les plus intensives en capital ou les plus tournées vers le marché européen. La récente crise économique a affecté les exportations, mais l’élasticité des exportations vis-à-vis des coûts unitaires du travail n’a pas varié.

En outre, les trois économistes constatent que les variations des coûts unitaires du travail ont un impact statistiquement significatif sur la marge extensive des exportations. La hausse des coûts unitaires du travail réduit la profitabilité des entreprises qui ne sont pas présentes sur le marché à l’export, ce qui les désincite à se lancer par la suite vers les marchés extérieurs ; elle réduit également la profitabilité des entreprises exportatrices, si bien qu’elle incite ces dernières à se recentrer sur le seul marché domestique.

Pourtant, si les coûts unitaires du travail semblent effectivement influencer les exportations au niveau des entreprises, cet effet est plutôt limité, ce qui suggère à Decramer et à ses coauteurs que la transmission des coûts aux prix est elle-même limitée ou bien que la demande extérieure est peu élastique. Ces résultats iraient ainsi dans le sens des nouvelles théories du commerce internationale en suggérant que d’autres facteurs sont à prendre en compte dans l’élaboration des indicateurs de compétitivité, comme les préférences des consommateurs ou la qualité des produits.

 

Références

CARLIN, Wendy, Andrew GLYN & John Van REENEN (2001), « Export market performance of OECD countries: an empirical examination of the role of cost competitiveness », in The Economic Journal, vol. 111.

CORREA-LÓPEZ, Mónica, & Rafael DOMÉNECH (2012), « The internationalisation of Spanish firms », BBVA, document de travail, n° 12/30.

DECRAMER, Stefaan, Catherine FUSS & Jozef KONINGS (2014), « How do exporters react to changes in cost competitiveness ? », BCE, document de travail, n° 1752.

FAGERBERG, Jan (1988), « International competitiveness », in The Economic Journal, vol. 98.

KALDOR, Nicholas (1978), « The effect of devaluations on trade in manufacturers », in Further Essays on Applied Economics.

Partager cet article

publié par Martin Anota - dans Economie internationale
commenter cet article
7 mars 2015 6 07 /03 /mars /2015 16:33

Les taux d’intérêt sont actuellement faibles dans les pays avancés et, avec la perspective que la BCE adopte un assouplissement quantitatif, plusieurs taux d’intérêt sont entrés en territoire négatif ces derniers mois dans les pays de la zone euro, ce qui suggère que des tendances lourdes sont à l’œuvre pour les pousser à la baisse. La littérature économique suppose qu’il existe un taux d’intérêt qui équilibre l’offre et la demande de fonds prêtables, donc maintient l’économie au plein emploi sans générer de pressions inflationnistes : c’est le taux d’intérêt « naturel » ou « d’« équilibre ». Toujours en théorie, ce taux d’intérêt naturel est intimement lié au taux de croissance tendanciel de l’économie [Cecchetti et Schoenholtz, 2015]. L’idée sous-jacente est qu’une accélération de la croissance entraîne une hausse des rendements réels sur l’investissement. Par conséquent, avec la Grande Récession, les analystes ont revu à la baisse leurs estimations du taux d’intérêt naturel. L’estimation médiane de la Fed est ainsi passée de 2,25 à 1,75 % au cours des trois dernières années.

Depuis le discours prononcé par Larry Summers lors d’une conférence du FMI, beaucoup soutiennent l’hypothèse d’une stagnation séculaire : les économies avancées subiraient une insuffisance chronique de la demande globale et celle-ci déprimerait fortement le taux d’intérêt naturel au point de le rendre négatif. Parmi les possibles facteurs à l’origine de la stagnation séculaire sont cités le vieillissement démographique, la baisse du prix des biens d’investissement, la hausse des inégalités, etc. Bref, les pays avancés subiraient (selon le point de vue) un excès d’épargne ou une insuffisance d’investissements. Or, en raison de la borne inférieure zéro, les banques peuvent difficilement ramener leurs taux d’intérêt au niveau approprié pour restaurer la demande globale, si bien que la politique monétaire s’en trouve excessivement restrictive et déprime davantage l’activité. L’assouplissement de la politique monétaire ne suffit pas pour ramener l’économie au plein emploi, mais il risque par contre de générer des bulles spéculatives. Les autorités publiques doivent alors s’appuyer sur d’autres outils pour sortir l’économie de la stagnation séculaire, par exemple l’investissement public dans les infrastructures ou la réduction des inégalités de revenu (notamment à travers la redistribution).

James Hamilton, Ethan Harris, Jan Hatzius et Kenneth West (2015) mettent à l’épreuve cette hypothèse. Ils examinent le comportement et les déterminants du niveau d’équilibre du taux d’intérêt réel, qu’ils définissent comme le taux compatible avec le plein emploi et une inflation stable à moyen terme. Pour cela, ils compilent les données relatives aux taux directeurs des banques centrales, à l’inflation et à la croissance du PIB pour une vingtaine de pays au cours des quatre dernières décennies. Certaines de leurs données annuelles remontent jusqu’à 1858.

GRAPHIQUE 1  Taux d'intérêt réels d'équilibre dans 15 pays avancés (en %)

Cet obscur taux d’intérêt naturel

Au terme de leur analyse, Hamilton et ses coauteurs rejettent tout d’abord deux hypothèses souvent avancées dans la littérature. Tout d’abord, les modèles théoriques supposent souvent qu’il existe une valeur constante vers laquelle le taux d’intérêt réel revient à long terme. Or, les taux d’intérêt réels dans la plupart des pays furent significativement plus élevés avant la Première Guerre mondiale qu’ils ne l’ont été par la suite. Les guerres mondiales ont été associées à des taux négatifs particulièrement élevés, en particulier pour l’Allemagne, la Finlande, l’Italie et le Japon. Hamilton et ses coauteurs soulignent qu’il existe une forte incertitude autour du taux d’intérêt d’équilibre, mais celui-ci aurait clairement tendance à être instable au cours du temps.

GRAPHIQUE 2  Taux d'intérêt réel d'équilibre aux Etats-Unis (en %)

Cet obscur taux d’intérêt naturel

En outre, la littérature suppose souvent qu’à long terme un taux de croissance du PIB plus élevé est associé à un taux d’intérêt réel d’équilibre plus élevé. En fait, l’analyse ne conforte pas l’idée que le taux de croissance économique à long terme soit le principal facteur expliquant les variations du taux d’intérêt réel d’équilibre. Par exemple, lorsque les auteurs observent les sept dernières expansions aux Etats-Unis, ils font émerger une corrélation négative entre le taux de croissance annuel moyen du taux du PIB réel et le taux d’intérêt réel ; cette corrélation n’est que modestement positive si l’expansion qui s’est achevée au troisième trimestre de 1981 est exclue de l’analyse. En fait, il y a d’autres facteurs contribuant à la détermination du taux naturel, notamment la démographie, les tendances dans l’inflation, la politique budgétaire, la variation des prix d’actifs et le niveau de réglementation financière. Par exemple, les périodes de réglementation financière plus stricte se sont accompagnées au cours de l’histoire de faibles taux d’intérêt [Bunker, 2015].

Les auteurs sont sceptiques à l’idée d’une stagnation séculaire. S’il n’y a pas de corrélation entre le taux d’intérêt à long terme et le taux de croissance, alors tout ralentissement de la croissance ne se traduira pas forcément à l’avenir par un plus faible taux d’intérêt réel. Malgré l’incertitude entourant le taux d’intérêt d’équilibre, les auteurs estiment le taux d’intérêt d’équilibre semble être actuellement compris entre 1 et 2 % ; il n’est pas négatif, comme le pensent les partisans de l’hypothèse de stagnation séculaire. La lenteur de l’actuelle reprise s’explique avant tout par des dynamiques durables, mais temporaires, comme le désendettement du secteur privé et la consolidation budgétaire. Ainsi, lorsque ces freins se sont desserrés aux Etats-Unis au début de l’année 2014, la croissance américaine a accéléré à un rythme supérieur au potentiel. Les reprises suite aux crises financières nécessitent plusieurs années. Certes la Grande Récession a été plus sévère qu’une récession typique, elle a été moins ample et suivie par une plus rapide reprise que les récessions typiquement associées à une crise financière.

Hamilton et ses coauteurs concluent leur travail en se penchant sur ses implications pour la politique monétaire. Même s’ils ne valident pas la thèse de la stagnation séculaire, ils reconnaissent toutefois qu’en raison de la faiblesse du taux d’équilibre, les taux directeurs des banques centrales risquent à l’avenir de buter à nouveau sur leur borne zéro, si bien que les économies sont susceptibles de connaître des périodes prolongées de déprime. En outre, la Fed a de bonnes raisons de ne pas relever précipitamment ses taux d’intérêt. Hamilton et alii rejoignent les conclusions d’Athanasios Orphanides et John Williams (2007) en suggérant que l’incertitude autour du taux d’équilibre plaide en faveur d’une politique monétaire plus « inertielle » : les banques centrales doivent patienter avant de changer leur politique monétaire. Les simulations réalisées par Hamilton et ses coauteurs montrent que la prise en compte de cette incertitude implique une normalisation des taux directeurs plus tardive, mais plus forte, par rapport au scénario médian des projections de la Fed. Cette surréaction sera d’une certaine manière le prix à payer pour ne pas compromettre la reprise de l’activité américaine en la resserrant prématurément la politique monétaire. Enfin, Hamilton et ses coauteurs notent également que l’incertitude entourant le taux d’intérêt d’équilibre n’est qu’une justification parmi d’autres pour retarder le resserrement de la politique monétaire. L’incertitude entourant le taux de chômage structurel incite également à maintenir les taux d’intérêt à un faible niveau tant que le comportement de l’économie ne signale pas clairement (en l’occurrence avec une accélération soutenue de l’inflation) que le resserrement est nécessaire.

 

Références

BUNKER, Nick (2015), « The uncertain nature of the natural rate of interest », 4 mars.

CECCHETTI, Stephen G., & Kermit L. SCHOENHOLTZ (2015), « Living with uncertainty: What central banks do when they don't know the natural rate », in Money and Banking (blog), 2 mars.

The Economist (2015), « Still, not stagnant », 7 mars.

HAMILTON, James (2015), « What is the new normal for the real interest rate? », in Econbrowser (blog), 1er mars.

HAMILTON, James D., Ethan S. HARRIS, Jan HATZIUS & Kenneth D. WEST (2015), « The equilibrium real funds rate: Past, present and future ».

ORPHANIDES, Athanasios, & John C. WILLIAMS (2007), « Robust monetary policy with imperfect knowledge », in Journal of Monetary Economics, vol. 54.

Partager cet article

publié par Martin Anota - dans Politique monétaire
commenter cet article
4 mars 2015 3 04 /03 /mars /2015 18:43

La crise financière mondiale a généré tout un débat autour de la courbe de Phillips en 2008. Malgré la forte baisse de la production et la hausse du chômage, le taux d’inflation n’a diminué que temporairement lors de la crise financière. Une courbe de Phillips traditionnelle aurait pourtant suggéré qu’une telle contraction de la production aurait dû provoquer un plus fort ralentissement de l’inflation, voire une déflation durable. Réciproquement, les responsables de la Fed se demandent aujourd’hui pourquoi l’inflation n’accélère pas aux Etats-Unis malgré la poursuite de la reprise américaine. Cette énigme pourrait s’expliquer (en partie) par le fait que la pente de la courbe de Phillips se soit aplatie au cours du temps [FMI, 2014]. Autrement dit, l’inflation serait devenue de moins en moins sensible aux évolutions de la conjoncture. Plusieurs raisons ont été avancées pour expliquer cet aplatissement de la courbe de Phillips : les banques centrales ont su davantage gagner en crédibilité au cours du temps et elles ont ainsi pu ancrer plus efficacement les anticipations d’inflation des agents ; l’intégration des pays émergents sur les marchés manufacturés mondiaux a contribué à contenir les hausses des prix ; peut-être que la hausse du chômage lors de la Grande Récession ne correspond qu’à une hausse du chômage structurel, or ce dernier n’affecterait que très peu la dynamique des prix, etc.

Si la courbe de Phillips s’est aplatie, les récentes évolutions observées dans la zone euro constituent alors une anomalie. Celle-ci subit une forte désinflation depuis 2013, le taux d’inflation s’éloignant toujours un peu plus de la cible de la BCE (en l’occurrence un taux d’inflation inférieur, mais proche, à 2 %). L’ensemble de la zone euro connaît même une légère déflation depuis le début de l’année 2015, la chute des prix du pétrole ayant amplifié le rythme de la désinflation. Celle-ci est un phénomène généralisé parmi l’ensemble des pays-membres, quoique plus important dans les économies qui ont connu les plus fortes turbulences sur les marchés de la dette souveraine. Elle n’a toutefois pas été anticipée par les prévisionnistes professionnels. Si les récentes récessions (celle associée à la Grande Récession et celle associée à la crise de la zone euro) semblent s’être traduites par d’importantes pertes en termes de production potentielle, il est probable que la production demeure aujourd’hui bien en-deçà de son potentiel. Autrement dit, la persistance d’un écart de production (output gap) négatif semble avoir fini par remettre en cause la stabilisation de l’inflation.

Marianna Riggi et Fabrizio Venditti (2014) ont analysé les dynamiques de l’inflation en zone euro entre le premier trimestre 1999 et le deuxième trimestre 2014 en considérant neuf mesures différentes de l’inflation et quatorze mesures différentes de la faiblesse de l’activité économique. Ils se penchent, d’une part, sur l’ensemble de la zone euro et, d’autre part, plus particulièrement sur les quatre plus grandes économiques. Ils tirent trois constats de leur analyse. Premièrement, la relation entre l’inflation et l’écart de production a fait preuve d’une forte instabilité au cours des dernières années dans la zone euro dans son ensemble et en particulier en Italie, en France et en Espagne, mais pas en Allemagne. Deuxièmement, la sensibilité de l’inflation au cycle d’affaires s’est substantiellement accrue en 2013. Riggi et Venditti jugent ce constat cohérent avec le fait que la récession mondiale de 2008-2009 ait eu peu d’effets sur l’inflation dans ces pays. En Espagne, une telle rupture semble toutefois être survenue bien plus tôt, juste après la première récession de 2008-2009. Troisièmement, l’observation des différentes composantes de l’indice des prix à la consommation suggère que ces résultats semblent principalement s’expliquer par les dynamiques propres au secteur des biens.

Riggi et Venditti ont alors avancé quelques raisons susceptibles d’expliquer ce changement dans la cyclicité de l’inflation en s’appuyant sur la courbe de Phillips des nouveaux keynésiens. Celle-ci relie l’inflation à aux anticipations de l’inflation future et à l’écart de production. Leur modèle suggère deux explications possibles. Premièrement, cette hausse peut refléter de moindres rigidités nominales, c’est-à-dire une plus forte fréquence d’ajustement des prix. Il a pu également y avoir une réduction du degré de complémentarités stratégiques dans la fixation des prix en raison d’une chute significative du nombre d’entreprises présentes dans l’économie. Dans le modèle, une baisse exogène du nombre d’entreprises implique un plus haut taux de marge désiré et une plus forte élasticité des prix vis-à-vis de l’écart de production. Or, l’effondrement de la demande domestique que l’on a pu observer lors de la crise de la dette souveraine semble en effet s’être traduit par la disparition de nombreuses entreprises. Une troisième explication (que Riggi et Venditti ne peuvent examiner car leur modèle suppose des anticipations rationnelles) est qu’il y a eu un ajustement à la baisse des anticipations d’inflation, or celle-ci est susceptible d’entraîner une réduction de l’inflation observée.

Plus récemment, Sami Oinonen et Maritta Paloviita (2014) ont examiné comment la sensibilité de l’inflation de la zone euro à la conjoncture a pu changer au cours du temps. Ils utilisent pour cela sur la courbe de Phillips hybride des nouveaux keynésiens, en l’occurrence celle développée par Jordi Galí et Mark Gertler (1999). Ces derniers supposent que la fixation des prix est étalée dans le temps, notamment en raison de coûts d’ajustement des prix, si bien que la courbe de Phillips hybride est appropriée pour expliquer la persistance d’une faible inflation. Elle suggère en outre que certaines entreprises se tournent vers l’avenir pour fixer leurs prix, tandis que les autres se tournent vers le passé pour fixer les leurs. Les paramètres de la courbe de Phillips hybride dépendent des structures économiques sous-jacentes, notamment de la rigidité des prix et de la flexibilité des marchés des produits et du travail.

Oinonen et Paloviita utilisent trois indicateurs alternatifs pour mesurer l’écart de production. Leur analyse indique que la pente de la courbe de Phillips en zone euro s’est accentuée depuis 2012, ce qui suggère que tout niveau donné de l’écart de production influence davantage l’inflation. Ce changement accroît le risque que le taux d’inflation reste inférieur à la cible poursuivie par la BCE pendant une période prolongée. Il contribue ainsi à expliquer pourquoi le taux d’inflation de la zone euro ait atteint de très faibles niveaux et soit devenu négatif. Les auteurs soulignent que les anticipations sont l’élément le plus important dans les dynamiques d’inflation en zone euro. Par conséquent, dans le sillage de la reprise, toute déviation des anticipations d’inflation par rapport à la cible poursuivie par la banque centrale peut davantage accroître la sensibilité de l’inflation de la zone euro à la conjoncture.

 

Références

BCE (2014), « The Phillips curve relationship in the euro area », Monthly Bulletin, juillet. Traduction française, « La courbe de Phillips dans la zone euro », Bulletin mensuel, juillet.

FMI (2013), « The dog that didn’t bark: Has inflation been muzzled or was it just sleeping », World Economic Outlook, chapitre 3, avril. Traduction française, « Telle l’histoire du chien qui n’a pas aboyé : l’inflation a-t-elle été muselée, ou s’est-elle simplement assoupie? », Perspectives de l’économie mondiale, chapitre 3.

GALÍ, Jordi, & Mark GERTLER (1999), « Inflation dynamics: A structural econometric analysis », in Journal of Monetary Economics, vol. 44.

LARKIN, John (2014), « Examining the sensitivity of inflation to the output gap across euro area Member States », Banque centrale d’Irlande, Quarterly Bulletin, avril.

OINONEN, Sami, & Maritta PALOVIITA (2014), « Updating the euro area Phillips curve: the slope has increased », Banque de Finlande, research discussion paper, n° 31.

RIGGI, Marianna, & Fabrizio VENDITTI (2014), « Surprise! Euro area inflation has fallen », Banque d’Italie, occasional paper, n° 237.

Partager cet article

Présentation

  • : D'un champ l'autre
  • D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher