Overblog
Suivre ce blog Administration + Créer mon blog
13 décembre 2013 5 13 /12 /décembre /2013 16:34

Les BRIC représentent aujourd’hui le quart de l’économie mondiale. En l’occurrence, la Chine et l’Inde représentaient 4 % du PIB mondial en 1980 et plus de 20 % en 2012. Leur émergence sur la scène manufacturière mondiale a profondément bouleversé les échanges mondiaux. La part des exportations mondiales réalisée par la Chine et l’Inde s’est fortement accrue entre 1970 et 2012 (cf. graphique). Plus d’un dixième des exportations mondiales est aujourd’hui réalisé par la seule économie chinoise. Avec la montée en puissance des BRIC, le commerce Nord-Sud est même devenu plus important que le commerce Nord-Nord à partir de 2010. Si le développement des pays émergents apparaît désirable pour leurs propres résidents, il a naturellement suscité de nombreuses craintes des deux côtés de l’Atlantique, les Américains appréhendant avant tout ses répercussions sur les salaires et les Européens s’alarmant davantage de son impact sur l’emploi.

GRAPHIQUE Part de la Chine et dans l’Inde dans le PIB mondial et les exportations mondiales (en %)

Stracca, part inde et chine exportations et PIB

source : Stracca (2013)

La littérature empirique a recherché les différents canaux par lesquels un tel essor des pays émergents sur les marchés internationaux est susceptible d’influencer les pays avancés. Selon les théories traditionnelles du commerce international, la multiplication des échanges est bénéfique à l’ensemble des partenaires. Les firmes des pays avancés peuvent externaliser une partie de leur production, ce qui favorise le commerce intrabranche. La concurrence des pays en développement inciterait les entreprises des pays avancées à investir davantage dans la recherche-développement pour innover, ce qui renforcerait leurs avantages comparatifs. Dans cette optique, la mondialisation se traduit par une spécialisation des pays avancés dans la recherche-développement et les pays en développement dans la production industrielle et cette forme de division internationale du travail est susceptible d’accélérer la croissance mondiale.

Toutefois, pour d’autres auteurs, le développement du commerce international ne procure pas forcément des gains pour chaque participant à l’échange, mais peut au contraire réduire irrémédiablement le bien-être de certains. C'est notamment un résultat obtenu par les nouvelles théories du commerce international. Paul Krugman et Anthony Venables (1995) montrent par exemple que le déclin des coûts de transport peut certes avantager dans un premier temps l’industrie dans les pays avancés en raison des effets d’agglomération et des rendements croissants d’échelle, mais qu’il peut ensuite leur être défavorable si les pays en développement deviennent plus rentables en raison de leurs moindres coûts du travail. La chute des barrières à l’échange va donc tout d’abord enrichir le Nord et appauvrir le Sud, mais la convergence que l’on observera par la suite risque de se faire en définitive au détriment des pays avancés. De son côté, Paul Samuelson (2004) a même conclu à partir d'une modélisation traditionnelle à la Ricardo que l’intégration croissante de la Chine dans le commerce mondial pouvait se révéler nuisible au bien-être des pays avancés. 

David Autor, David Dorn et Gordon Hanson (2013) ont récemment observé les répercussions que la plus grande concurrence des importations chinoises a pu avoir sur les zones d’emploi aux Etats-Unis. D’après leurs résultats, la hausse des importations entre 1990 et 2007 a entraîné une hausse du chômage et une baisse des salaires dans les zones d’emploi dont les activités industrielles étaient exposées à cette concurrence étrangère. Selon leurs estimations, la plus forte concurrence à l’importation expliquerait un quart de la baisse de l’emploi manufacturier aux Etats-Unis. 

Livio Stracca (2013) a poursuivi leur analyse en considérant non seulement l’impact de la Chine, mais aussi celui de l’Inde sur l’ensemble des pays avancés. Ses résultats sont plus optimistes. Tout d’abord, la plus forte concurrence des importations chinoises et indiennes semble être positivement associée à la croissance des revenus dans les pays avancés, tandis que la concurrence à l’exportation semble ne pas avoir eu d’impact significatif. Par conséquent, l’auteur en conclut que les pays avancés semblent en définitive avoir bénéficié de la plus forte concurrence exercée par les deux pays émergents. Ensuite, Stracca constate que si la concurrence à l’exportation ou à l’importation semble nuisible pour les emplois du secteur manufacturier, elle ne semble toutefois pas avoir affecté l’emploi total. Ces résultats suggèrent à l’auteur que la concurrence en provenance de Chine et d’Inde a effectivement enclenché un processus de réallocation dans les pays avancés qui les a amené à se désindustrialiser. Si cette réallocation lui apparaît bénéfique à long terme, elle se révèle toutefois coûteuse à court terme. Stracca en conclut que les pays avancés ont intérêt à faciliter le processus de réallocation, même si cela passe par une détérioration de la protection de l’emploi. 

 

Références

AUTOR, David, David DORN & Gordon H. HANSON (2013), « The China syndrome: Local labor market effects of import competition in the United States », in American Economic Review.

KRUGMAN, Paul & Anthony J. VENABLES (1995), « Globalization and the inequality of nations », in The Quarterly Journal of Economics, vol. 110, n° 4.

SAMUELSON, Paul (2004), « Where Ricardo and Mill rebut and confirm arguments of mainstream economists supporting globalization », in Journal of Economic Perspectives, vol. 18, n° 3, été, pp. 135–146.

STRACCA, Livio (2013), « The rise of China and India: Blessing or curse for the advanced countries? », ECB working paper, n° 1620, décembre.

Partager cet article
Repost0
10 décembre 2013 2 10 /12 /décembre /2013 15:16

Les analyses se sont multipliées pour expliquer la violence de la Grande Récession et la faiblesse de la reprise qui l’a suivie. Plusieurs économistes ont mis l’accent sur le cycle financier : les récessions sont plus sévères et les reprises plus lentes lorsque le retournement du cycle d’affaires coïncide avec une crise financière. En effet, les agents privés cherchent alors à se désendetter, ce qui les amène à fortement réduire leurs dépenses, tandis que les banques sont de leur côté particulièrement réticentes à prêter. 

D’autres auteurs, en particulier Nicholas Bloom (2013), ont développé ces dernières années le concept d’« incertitude » et cherché à le relier au cycle économique. Dans leur optique, elle correspond finalement au degré de divergence entre les anticipations. Elle concerne aussi bien des phénomènes macroéconomiques comme la croissance économique ou le changement climatique que des phénomènes microéconomique comme la croissance de l’entreprise. La définition de l’incertitude reste toutefois encore imprécise et se révèle moins riche, par exemple, que celle développée dans la littérature post-keynésienne. Ces auteurs reconnaissent qu’il est particulièrement difficile de la quantifier. Ils tentent alors de la saisir à travers une multitude d’indicateurs, notamment la volatilité des cours boursiers et du PIB, la divergence entre les prévisions conjoncturelles ou encore la fréquence du terme même d’« incertitude » dans les médias.

Les études empiriques suggèrent que l’incertitude est dommageable pour l’activité à court terme. Elle désincite, d’une part, les entreprises à investir et à embaucher et, d’autre part, les consommateurs à acheter des biens durables. En raison du caractère irréversible des investissements, les agents sont incités lors d’une récession à reporter ou annuler leurs projets d’investissement, le temps qu’ils rassemblent suffisamment d’informations pour s’assurer de leur rentabilité. Ce recul de l’investissement amplifie alors la contraction de l’activité. Certaines études empiriques tendent par contre à suggérer que l’incertitude est susceptible de stimuler l’innovation à long terme : lorsque les entreprises font face à un avenir plus incertain, elles seraient plus incitées à se lancer dans l’innovation. 

GRAPHIQUE  Volatilité boursière aux Etats-Unis

Bloom--VXO-volatilite-boursiere.png

source : Bloom (2013)

Qu’elle soit micro ou macroéconomique, l’incertitude est fortement contracyclique. Elle s’élève brutalement lors des récessions et tend à refluer durant les expansions. Pour l’illustrer, Bloom utilise l’indice de variabilité de la Bourse des options de Chicago (VXO) qui mesure la volatilité boursière aux Etats-Unis (cf. graphique ci-dessous, avec les zones grisées représentant les récessions, telles qu’elles sont définies par la National Bureau of Economic Research). L’indice VXO est clairement contracylique ; en l’occurrence, il s’élève en moyenne de 58 % lors des récessions [1]. Plusieurs auteurs se sont ainsi focalisés sur la Grande Modération (great moderation) : jusqu’à la Grande Récession, la volatilité du taux de croissance du PIB et du taux d’inflation fut relativement faible, tandis que la croissance même du PIB fut relativement élevée. Bloom note également que l’incertitude est également plus élevée dans les pays avancés que dans les pays en développement, en particulier l’Afrique et l’Amérique du Sud.

Bloom met principalement l’accent sur deux mécanismes pour expliquer les variations de l’incertitude au cours du cycle. D’une part, des chocs exogènes comme les guerres, paniques financières et chocs pétroliers, qui tendent justement à faire basculer les économies dans la récession, sont non seulement sources de « mauvaises nouvelles », mais alimentent aussi directement l’incertitude. D’autre part, l’incertitude semble s’élever de façon endogène durant les récessions, puisque les ralentissements économiques accroissent la volatilité micro et macroéconomique. L’incertitude apparaît alors comme un mécanisme de propagation et d’amplification des chocs. Bloom avance une troisième explication : lors des récessions, les autorités publiques sont amenées à expérimenter pour relancer l’activité. L’incertitude entourant la politique économique tend alors à s’accroître lors des récessions. Or, si les autorités publiques ne parviennent pas à préciser leurs objectifs et manœuvres de façon claire et crédible, les entreprises peuvent notamment rester insensibles aux mesures de relance et ne pas accroître leur investissement, ce qui réduit l’efficacité de la politique monétaire.

En ce qui concerne la Grande Récession, l’éclatement de la bulle immobilière et la crise financière ont conduit à une envolée de l’incertitude. Entre 2008 et 2009, le PIB américain a décroché de 9 % par rapport à son niveau potentiel. Selon les estimations de Bloom, le choc d’incertitude fut alors si important qu’il pourrait expliquer un tiers de cette contraction. Initialement, il n’était pas clair pour l’ensemble des agents quel était la gravité des problèmes financiers et immobiliers, quel serait leur impact économique tant au niveau national que mondial et quel serait la réponse appropriée des autorités publiques. La Grande Récession elle-même a davantage accru l’incertitude, amenant le ralentissement initial à s’aggraver. L’incertitude commença à refluer à partir de début 2010. La reprise fut toutefois très rapidement contrainte par la plus grande incertitude entourant la politique budgétaire, notamment aux Etats-Unis avec les bras de fer entre l’exécutif et le législatif (notamment autour du relèvement du plafond de la dette publique) ou encore en zone euro avec la mauvaise gestion de la crise des dettes souveraines.

Cette redéfinition de la notion d’incertitude et son utilisation pour expliquer le cycle d’affaires ne font pas l’unanimité. Pour certains auteurs comme Paul Krugman, les répercussions que l’on prête à l’incertitude lors d’une récession sont en fait celles d’une demande insuffisante. En d’autres termes, le choc d’incertitude dissimule un choc de demande. Antonio Fatás (2013) affirme que ce n’est pas l’incertitude entourant les décisions des autorités publiques qui explique la faiblesse de l’actuelle reprise, mais plus simplement le caractère excessivement restrictif des politiques conjoncturelles, en particulier de la politique budgétaire. Selon lui, la récente littérature qui s’est développée autour de la notion d’incertitude, tend à inclure les « mauvaises nouvelles » dans sa définition du « choc d’incertitude », ce qui vide cette notion de sa substance et par là de sa pertinence.


[1] L’indice VXO est également utilisé pour mesurer l’aversion au risque. C’est dans cette acception que l’utilise Hélène Rey lorsqu’elle fait apparaître un véritable cycle financier mondial : la faible aversion au risque, telle qu’elle est mesurée par l’indice VXO, est synchrone avec la phase ascendante d’un cycle financier touchant l’ensemble des économies financièrement intégrées.

 

Références

BLOOM, Nicholas (2013), « Fluctuations in uncertainty », NBER working paper, n° 19714, décembre.

BLOOM, Nicholas, M. Ayhan KOSE & Marco E. TERRONES (2013), « Held back by uncertainty », in Finance & Development, mars. Traduction française, « Le poids de l’incertitude », in Finance & Développement.

FATÁS, Antonio (2013), « Wait a (second) moment… », in Antonio Fatás on the Global Economy (blog), 9 octobre 2013. Traduction française, « Attendez un (deuxième) moment… Retour sur le lien entre incertitude et croissance en zone euro ».

KRUGMAN, Paul (2013), « Phony fear factor », in New York Times, 8 août. 

Partager cet article
Repost0
7 décembre 2013 6 07 /12 /décembre /2013 20:08

La Grande Récession a fait basculer les économies avancées dans une trappe à liquidité : les autorités monétaires ont rapproché leurs taux directeurs au plus proche de leur borne zéro (zero lower bound), mais la crise mondiale a été d’une telle violence qu’il aurait fallu un taux directeur négatif pour ramener les économies au plein emploi. Dans une telle situation, la politique monétaire se retrouve excessivement restrictive. Les banques centrales ont alors mis en place des mesures de politique monétaire qualifiées de « non conventionnelles » pour relancer davantage l’activité. Elles ont notamment acheté des actifs à grande échelle et adopté le forward guidance pour guider les anticipations.

Stephen Williamson (2013a) s’est demandé quel est l’impact macroéconomique des achats de titres publics de longue maturité auxquels procède la Fed à travers ses opérations d’assouplissement quantitatif (quantitative easing). Cette politique vise à réduire les taux d’intérêt à long terme en modifiant les prix relatifs d’actifs. Ce faisant, les autorités monétaires espèrent accroître l’investissement et plus largement la demande globale. Les économistes s’accordent généralement pour considérer que l’assouplissement quantitatif tend effectivement à stimuler l’activité et à générer des tensions inflationnistes, même s’ils ne sont pas d’accord sur l’ampleur de ces répercussions. Pour Williamson toutefois, lorsque l’économie se trouve dans une trappe à liquidité, l’assouplissement quantitatif provoque une déflation à long terme. Ce résultat est contre-intuitif. En outre, à la différence des autres auteurs, Williamson considère la déflation comme bénéfique. Mais il les rejoint quant il suggère que la politique budgétaire est efficace dans une telle situation. Les conclusions de Williamson ont soulevé de nombreuses critiques, notamment celle de nouveaux keynésiens comme Brad DeLong ou Paul Krugman. Williamson ne réfléchit pas à partir du même type de modélisation. Il se veut être le porte-parole d’un courant de pensée qualifié de « nouveau monétarisme » (new monetarism), en référence à l’école regroupée autour de Friedman, duquel il reprend de nombreuses idées. 

Pour expliquer ses résultats, Williamson (2013b) rappelle tout d'abord que les actifs n’ont pas le même rendement. Cela s’explique par des différences en termes de risque et de liquidité. Certains actifs sont plus risqués que d’autres ; certains actifs sont plus liquides que d’autres, etc. Bref, chaque actif possède une plus ou moins grande prime de liquidité, tout comme il possède une plus ou moins grande prime de risque. Dans ce cadre, la monnaie est un actif comme un autre, à ceci près qu’elle ne présente aucun risque et s’avère être la liquidité par excellence. Avec la crise financière, l’offre d’actifs liquides du secteur privé s’est effondrée et la demande pour les titres publics s’est envolée. Autrement dit, les agents ont présenté une plus forte préférence pour la liquidité. Et comme les consommateurs ont besoin d’actifs liquides pour acheter des biens, la pénurie de liquidité conduit à ce que la demande de biens soit trop faible pour qu’il y ait plein emploi [Williamson, 2013c]

 En temps normal, le taux d’intérêt nominal est positif, donc le taux de rendement sur la dette publique de court terme est plus élevé que celui de la monnaie. Dans la logique de Williamson, cela s’explique par le fait que la prime de liquidité est plus élevée pour la monnaie, car selon lui les deux actifs présentent le même risque. Par contre, dans une trappe à liquidité, le taux d’intérêt nominal est nul, donc les taux de rendement sur la monnaie et la dette publique de court terme sont les mêmes. Leur rendement est égal à moins le taux d’inflation. La prime de liquidité sur la monnaie et les titres publics de court terme est la même et elle est positive. Si le Trésor émet davantage de dette, la prime de liquidité diminue sur tous les actifs. Le taux de rendement sur la monnaie et la dette publique de court terme doit donc s’élever, ce qui exige une baisse du taux d’inflation.

Williamson précise son propos. Dans une trappe à liquidité, la dette publique de court terme est plus liquide que celle de long terme : les titres publics de court terme sont en effet davantage utilisés comme collatéraux car leur prix est moins volatile. Par conséquent, si la banque centrale pratique l’assouplissement quantitatif, c’est-à-dire fournit de la dette publique de court terme en échange de dette publique de long terme, le stock d’actifs liquides sera plus important au niveau agrégé, ce qui va réduire le taux d’inflation. 

A l’équilibre, l’assouplissement quantitatif provoque de la déflation et Williamson estime que cet équilibre est loin d’être instable. Le fait que le Japon ait passé plusieurs décennies avec la déflation, malgré les taux d’intérêt nominaux ramenés à leur borne zéro et d’épisodiques assouplissements quantitatifs, suggère qu’un tel équilibre peut effectivement être stable. 

Même s’il ne partage pas les conclusions de Williamson, Ryan Avent (2013) suggère un canal bien particulier à travers lequel l’assouplissement quantitatif génère une pression déflationniste. Si une banque centrale fait usage de l’assouplissement quantitatif, c’est que ses taux directeurs sont très certainement à leur borne inférieure zéro. L’assouplissement quantitatif ne va toutefois permettre de sortir l’économie de la borne zéro que si la banque centrale s’engage à générer à l’avenir une plus forte inflation. Si l’assouplissement quantitatif est mis en œuvre sur une longue période de temps, cela signifie que la banque centrale ne s’engage pas à générer une plus forte inflation. Le maintien de cette politique monétaire suggère ainsi aux agents économiques que l’activité économique restera longtemps sous son potentiel, si bien qu'ils ne sont pas incités à investir davantage. Ainsi, l’assouplissement quantitatif va s’accompagner d’une tendance générale à la désinflation. 

 

Références

AVENT, Ryan (2013), « Monetary policy: Is QE deflationary? », in Free Exchange, 4 décembre.

SMITH, Noah (2013), « Does QE cause deflation? », in Noahpinion (blog), 1er décembre.

WILLIAMSON, Stephen D. (2013a), « Liquidity premia and the monetary policy trap », in New Monetarist Economics (blog), 27 novembre.

WILLIAMSON, Stephen D. (2013b), « The intuition is in the financial markets », in New Monetarist Economics (blog), 3 décembre.

WILLIAMSON, Stephen D. (2013c), « Intuition part II », in New Monetarist Economics (blog), 4 décembre.

Partager cet article
Repost0

Présentation

  • : D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher