Overblog Suivre ce blog
Administration Créer mon blog
16 février 2013 6 16 /02 /février /2013 21:02

A la fin des années soixante-dix, Deng Xiaoping amorce les réformes économiques en Chine. Cette modernisation de l’économie chinoise passe par sa libéralisation progressive et une stratégie de croissance explicitement déséquilibrée. Les investissements étrangers n’ont par exemple été initialement autorisés que dans un nombre limité de zones économiques spéciales, avant que 14 zones côtières ne soient ouvertes aux investisseurs étrangers en 1984. Le traitement préférentiel dont les provinces côtières font l’objet leur a permis de développer des institutions de marché et d’accumuler plus rapidement du capital que les autres régions. Avec les réformes, les performances des provinces ont ainsi divergé, les régions côtières ayant bénéficié d’une progression plus rapide de leurs niveaux de productivité et de revenu que les provinces de l’intérieur (cf. graphique 1).

GRAPHIQUE 1  Croissance de la productivité moyenne du travail (1979-2009) 

ConvergenceChina2.jpg

source : Andersson et alii (2013)

Aux yeux des autorités publiques, la concentration des activités économiques sur la façade maritime n’était pas appelée à perdurer. L’idée sous-jacente à la stratégie chinoise était que les gains de richesse générés dans les pôles de croissance situés le long de la côte ruisselleraient vers l’intérieur des terres ; des effets d’entraînement contribueraient à uniformiser les niveaux de richesse sur l’ensemble du pays. Les réformes ont effectivement permis d’accélérer la création de richesses et de sortir de la pauvreté 600 millions de Chinois lors des trois dernières décennies ; la part de la population vivant dans la pauvreté est ainsi passée de 81,6 à 10,4 % au cours de cette période. Toutefois, le ruissellement des richesses de la côte vers le reste du pays, c’est-à-dire la convergence des provinces, reste incertain. Plusieurs analyses suggèrent une persistance, voire une aggravation des inégalités interprovinciales de revenu et de productivité. Autrement dit, l’avantage initial des régions côtières se serait maintenu, voire accru au cours du temps.

Fredrik N.G. Andersson, David L. Edgerton et Sonja Opper (2013) ont observé les performances régionales en termes de croissance entre 1978 et 2009. Ils ont distingué les fluctuations de court terme des tendances qui sont à l’œuvre à long terme. Trois principaux résultats émergent de leur analyse. Tout d’abord, la divergence dans le rythme de croissance de long terme entre les différentes provinces a atteint un pic en 1994. A partir de cette date, l’écart tend à se réduire (cf. graphique 2). A partir de 2003, les provinces suiveuses enregistrent des taux de croissance de long terme supérieurs à ceux des provinces meneuses, si bien que les niveaux de productivité des deux clubs de provinces tendent depuis lors à converger. Ensuite, malgré qu’un processus de convergence soit à l’œuvre à long terme, les provinces côtières et les provinces intérieures peuvent toutefois connaître des divergences temporaires dans leurs performances. Les fluctuations touchant leurs taux de croissance s’étendent sur une période pouvant atteindre 16 ans, mais elles s’estompent au-delà, si bien que les forces de divergence n’ont aucun impact sur la croissance à long terme des économies régionales.

GRAPHIQUE 2  Croissance de la productivité moyenne du travail à long terme

ConvergenceChina1.jpg

source : Anderson et alii (2013)

Enfin, Andersson et alii montrent que les principaux facteurs contribuant à la croissance régionale varient au cours du temps. D’une part, l’importance relative de la productivité totale des facteurs s’accroît fortement dans les provinces meneuses, tandis que les taux d’accumulation du capital y voient leur importance relative diminuer au cours du temps. D’autre part, la stratégie de croissance des provinces suiveuses repose toujours principalement sur l’accélération des taux d’accumulation du capital. En 2009, le secteur agricole représentait 45 % de l’emploi total dans les provinces suiveuses, tandis qu’il ne représentait qu’un quart des emplois dans les provinces meneuses. Puisqu’une large différence dans le poids relatif de l’emploi agricole demeure, les différences observées la composition des facteurs contribuant à la croissance devraient encore persister ces prochaines années.

Chao Li et John Gibson (2012) se sont quant à eux penchés sur l’évolution des inégalités de revenu entre les différentes provinces chinoises et parviennent eux aussi à une conclusion optimiste. Les précédentes études ont échoué à mesurer précisément le PIB par tête de chaque province en surestimant ou bien en sous-estimant le nombre d’habitants dans chacune d’entre elles. En effet, ces études se fondaient sur les registres d’état civil (le hùkǒu). Or, la croissance chinoise a entraîné un important exode rural et ainsi l’apparition de nombreux migrants dénués de cartes de résidence. En 2010, environ 200 millions de Chinois avaient quitté leur lieu initial d’enregistrement. Dans les provinces côtières, le nombre de résidents est supérieur de plusieurs millions au nombre d’habitants recensé dans les registres ; symétriquement, dans les provinces continentales, le nombre effectif de résidents est largement inférieur au nombre officiel.

GRAPHIQUE 3  Indice de Gini des inégalités interprovinciales en matière de PIB par habitant selon divers dénominateurs

ConvergenceChina3.jpg

source : Li et Gibson (2012)

Après avoir corrigé le dénominateur du PIB par habitant, Chao Li et John Gibson montrent que les inégalités interprovinciales se sont continuellement réduites entre 1978 et 1990. Un tiers de cette réduction a toutefois été renversée lors des trois années suivantes (cf. graphique). L’évolution des inégalités interprovinciales est plus erratique dans la décennie suivante. Elles atteignent un nouveau pic au début des années deux mille, sans toutefois revenir aux valeurs observées avant la réforme. A l’instant du pic, ce sont alors les deux tiers de la réduction des inégalités obtenue entre 1978 et 1990 qui ont été inversés. Après 2005, les inégalités interprovinciales chutent rapidement pour finalement revenir en 2010 aux valeurs observées vingt ans auparavant. Les auteurs en concluent que le seul épisode de l’ère de la réforme au cours duquel les inégalités se sont renforcées à un rythme soutenu s’étale entre 1990 et 1993.

 

Références Martin ANOTA

ANDERSSON, Fredrik N.G., David L. EDGERTON & Sonja OPPER (2013), « A Matter of Time: Revisiting Growth Convergence in China », in World Development.

LI, Chao, & John GIBSON (2012), « Rising Regional Inequality in China: Fact or Artefact? », University of Waikato, Department of Economics, working paper, n° 12/9.

Repost 0
publié par Martin Anota - dans Economie géographique
commenter cet article
12 février 2013 2 12 /02 /février /2013 23:50

Les actifs sûrs (safe assets) sont la pierre angulaire des systèmes financiers. Il s’agit essentiellement de titres de dette publique et de titres de dette privée à haute qualité, notamment des titres adossés sur actifs. Ils offrent une réserve de valeur sûre, servent de collatéraux dans les transactions financières, satisfont aux exigences prudentielles et servent de référence dans la fixation du prix des autres actifs, c’est-à-dire des actifs risqués. En effet, parce qu’ils sont insensibles aux informations, ces actifs sont particulièrement liquides et peuvent stocker la valeur sans que les agents aient à craindre des pertes en capital lors des périodes de turbulences financières. Sous la contrainte de la réglementation prudentielle, les banques s’appuient alors sur les actifs sûrs pour renforcer leurs réserves de capital et de liquidité.

Au cours des années deux mille, la croissance rapide des pays émergents, dans un contexte où leur développement financer demeurait fragile, s'est traduit par une plus forte demande pour les actifs sûrs et a ainsi entraîné une pénurie de ces actifs au niveau mondial. L’excédent d’épargne des économies émergentes s’est massivement placé dans les bons du Trésor américains et en titres adossés sur des créances hypothécaires. Les taux d’intérêt à long terme ont diminué, alimentant (et justifiant) une plus grande prise de risque de la part des agents privés et contribuant ainsi au gonflement des déséquilibres globaux. La titrisation des actifs risqués a, d’une part, permis à l’économie américaine de fonder sa croissance sur l'endettement et les dépenses des ménages. D'autre part, elle a permis aux entités financières des pays avancés de générer une importante masse d’actifs (jugés) sans risque et ceux-ci ont fini par soutenir l’ensemble du système financier.

La pénurie d’actifs sans risque est susceptible de générer de l’instabilité financière et lorsque la crise survient, elle amplifie la pénurie qui l’a engendrée [Gourinchas et Jeanne, 2012]. En temps normal, les prêteurs ne sont en effet pas incités à s’informer de la valeur des actifs produits par le secteur privé que les entreprises utilisent comme collatéraux pour emprunter, si bien qu’un large montant d’actifs peut être utilisé pour soutenir l’emprunt dans l’économie. Une crise éclate quand la publication de mauvaises nouvelles incite les prêteurs à s'informer de la valeur des actifs produits par le secteur privé, ce qui les amène à ne prêter qu’aux seules entreprises disposant d’actifs de haute qualité et à réduire la gamme d’actifs qu’elles acceptent comme collatéraux [Gorton et Ordoñez, 2013]. En l’occurrence, la crise financière a éclaté en 2007 lorsque nombre des actifs privés générés depuis le début de la décennie ont perdu leur statut d’actifs sûr, ce qui mena le système financier mondial au bord de l’effondrement. L’économie mondiale a subi une hausse brutale de l’aversion au risque et du taux d’épargne des agents privés. Le désendettement des entités financières s’est traduit par une course vers la sécurité (fly to safety), c’est-à-dire finalement par un brutal accroissement de la demande d’actifs sûrs alors même que leur offre se contractait tout aussi rapidement.

Dans ce contexte de spirale déflationniste sur les marchés financiers et de ralentissement de l’activité réelle, l’action des administrations publiques a joué en parallèle deux fonctions pour (tenter de) ramener l’économie au plein emploi [Brender et alii, 2012]. D’une part, le creusement du déficit a permis d’amortir le choc macroéconomique ; les dépenses publiques ont partiellement compensé la chute de la demande globale. D’autre part, l’émission de dette publique a permis d’accroître l’offre d’actifs sans risque ; le système financier a absorbé ces titres et produit en contrepartie les placements que recherchaient les épargnants.

Cette nature stabilisatrice des actifs publics est difficilement appréhendable dans un cadre néoclassique standard. D'après l’équivalence ricardienne, les ménages internalisent la contrainte budgétaire du gouvernement, si bien que la manière par laquelle l’Etat finance ses dépenses importe peu. Que ce financement passe par l'emprunt ou par l'impôt, les ménages réduisent dans tous les cas leurs dépenses pour payer le surcroît d’impôts dans la période courante ou anticiper les impôts supplémentaires qui seront exigés à l’avenir. Ce résultat nécessite toutefois que les marchés des capitaux soient parfaits. Le statut des actifs publics brise toute équivalence ricardienne [Gorton et Ordoñez, 2013]. Lors d’une crise, les actifs privés ne peuvent être utilisés de façon satisfaisante comme collatéraux. Lorsque les agents privés sont soumis à des contraintes de liquidité, les titres publics fournissent des services de liquidité. Ils peuvent remplacer les actifs privés, accroître la richesse des agents privés et permettre un relâchement des contraintes d’endettement auxquels ces derniers font face. Puisque l’endettement devient préférable à l’imposition, l’équivalence ricardienne est brisée. Gorton et Ordoñez (2013) notent toutefois qu’il existe des limites à l’utilisation des titres publics comme collatéraux. Si les titres sont détenus par le reste du monde, ils ne peuvent plus couvrir les impôts, si bien que la pression fiscale s’accroît dans l’économie nationale. Malgré cela, il reste optimal pour l’Etat d’émettre de la dette lors des périodes d’instabilité macroéconomique.

Pierre-Olivier Gourinchas et Olivier Jeanne (2012) notent de leur côté que les autorités budgétaires doivent nécessairement se coordonner avec les autorités monétaires pour que les actifs publics puissent pleinement jouer leur rôle stabilisateur. Lors de la Grande Récession, l’offre d’actifs sûrs s’est à nouveau contractée quand la détérioration des ratios d’endettement public a conduit à une dégradation des notations et par là à la crise de la dette souveraine dans la zone euro. La perte du statut d’actif sans risque a mis les emprunts d’Etat directement en concurrence avec les titres privés comme placement pour les épargnants. Les autorités publiques perdent alors une marge de manœuvre dans leur gestion de l’activité, si bien que l’économie mondiale pourra difficilement revenir au plein emploi. En période d’instabilité macroéconomique, c’est-à-dire à un instant où les agents privés sont réticents à prendre davantage de risques, cette mutation des titres publics en actifs risqués menace directement la stabilité du système financier. Seule la banque centrale peut intervenir pour assurer la stabilité macrofinancière en élargissant autant que nécessaire la taille de son bilan et en absorbant par là le volume de risque que les agents privés refusent de porter [Brender et alii, 2012].

 

Références Martin ANOTA

BRENDER, Anton, Emile GAGNA & Florence PISANI (2012), La Crise des dettes souveraines, La Découverte.

GORTON, Gary B., & Guillermo ORDOÑEZ (2013), « The supply and demand for safe assets », NBER working paper, n° 18732, janvier.

GOURINCHAS, Pierre-Olivier, & Olivier JEANNE (2012), « Global safe assets », Banque des règlements internationaux, working paper, n° 399, décembre.

Repost 0
9 février 2013 6 09 /02 /février /2013 18:59

Dans l’optique néoclassique, une économie peut générer de la croissance en accroissant la quantité de facteurs de production, c’est-à-dire en relevant l'offre de travail, en investissant dans l’éducation et en accumulant du capital productif. Cette croissance, qualifiée d’« extensive », se double d’une croissance « intensive » reposant sur les avancées technologiques. A long terme, le progrès technique serait le principal déterminant de l’élévation du niveau de vie des populations. Autrement dit, une diminution du taux d’innovation se traduirait par une décélération du taux de croissance potentielle, auquel cas l'économie est susceptible de converger vers un état stationnaire à la Solow.

Une telle éventualité a récemment été soulevée par Tyler Cowen (2011), auteur du blog Marginal Revolution. Selon lui, la Grande Récession aurait dissimulé des tendances plus lourdes et plus dramatiques, celles d’une grande stagnation (great stagnation) qui ne s’achèvera que dans plusieurs décennies. Non seulement les facteurs de la croissance extensive sont sujets à des rendements décroissants, mais l’innovation aurait également atteint un « plateau technologique », si bien que la croissance ne peut que durablement ralentir. Cowen cite notamment les travaux de Charles Jones (2002). Ce dernier avait étudié la contribution des différents facteurs à la croissance des revenus par tête aux Etats-Unis entre 1950 et 1993. Il en avait conclu que si 20 % de la croissance américaine pouvaient être attribués à la croissance de la population, 80 % de la croissance économique provenaient de la hausse du niveau de scolarité et de la plus grande intensité de la recherche, c’est-à-dire de l’essor de la main-d’œuvre dans les industries génératrices d’idées. Comme ces deux variables ne peuvent plus continuer à progresser, la croissance devrait ralentir.

Encore plus récemment, Robert Gordon (2012) fit preuve d’un plus grand pessimisme dans son provocateur « Is U.S. economic growth over? ». Il identifie au cours de ces deux siècles et demi trois révolutions industrielles (RI). La première se déroula de 1750 à 1830 et généra la vapeur et le réseau ferroviaire. La deuxième, la plus importante, s’étala de 1870 à 1900 et engendra entre autres l’électricité, le moteur à combustion interne, l’eau courante, les communications, la chimie et le pétrole. La troisième se déroula de 1960 à 2005 et offrit les ordinateurs, internet et les téléphones mobiles. Chacune de ces phases a été suivie par une période d’expansion économique, en particulier la deuxième : la productivité connut une croissance relativement rapide entre 1890 et 1972. Une fois que les innovations de la deuxième RI ont été pleinement exploitées, la croissance entre 1972 et 1996 fut plus lente qu’auparavant. La troisième RI ne s’est traduite que par une courte période de forte croissance entre 1996 et 2004. Aucune des innovations qu’elle aura générées n’a été aussi influente que celles du passé. Avec le ralentissement de la productivité observé depuis 1970, le taux de croissance du revenu mondial pourrait retrouver ses valeurs d’avant la première RI, c’est-à-dire avoisiner zéro. Les rapides progrès de ces 250 dernières années n’auront donc constitué qu’un épisode unique dans l’histoire économique.

Six « vents contraires » (headwinds) viennent en outre assombrir les perspectives de croissance à long terme des Etats-Unis et de plusieurs économies avancées. Le vieillissement de la population se traduit par une baisse du taux d’activité et de la productivité ; le niveau de scolarité atteint un plateau aux Etats-Unis ; les inégalités de revenu progressent ; la mondialisation, à travers la concurrence des pays émergents et la délocalisation des activités productives en leur sein, exerce une pression à la baisse sur les salaires des pays avancés ; la gestion de la crise environnementale réduira le budget des ménages ; enfin, le désendettement du secteur privé et la charge de la dette publique vont également compresser le revenu disponible et par là les dépenses de consommation.

La thèse du pessimisme technologique a rencontré de nombreuses critiques. En outre, cette idée d’une stagnation durable n’est pas nouvelle. Selon Gary Becker (2012) et Matthew Klein (2012), elle semble regagner en popularité à chaque fois que l’économie connaît un ralentissement prolongé de l’activité. (En revanche, les périodes d’expansion économique tendent à convaincre les gens que la croissance va se poursuivre indéfiniment.) Alvin Hansen affirmait à la fin des années trente que les Etats-Unis subissaient alors une « stagnation séculaire » (secular stagnation) : les bonnes performances qu’avait pu connaître par le passé l’économie américaine résultaient de dynamiques favorables qui ne pouvaient être exploitées qu’une seule fois, qu’il s’agisse de l’innovation technologique ou de la croissance démographique. La haute croissance des trente glorieuses a été un radical démenti à la thèse d’Hansen.

William Janeway (2013) souligne quant à lui un défaut évident dans l’argumentation de Gordon. Selon ce dernier, les effets de la troisième RI sur la productivité se seraient dissipés après seulement huit années, alors qu’il fallut plus de huit décennies pour que la deuxième RI porte ses fruits. Gordon choisit de mettre un terme à la troisième RI en 2005, soit 45 ans après ses débuts, mais moins de la moitié du temps donné aux première et deuxième RI pour suivre leur cours. Cela revient à juger de l’impact économique de l’électricité seulement 45 ans après l’implantation de la première usine électrique en 1882, c’est-à-dire à une date où les industries manufacturières ne découvraient qu’à peine les bénéfices de cette énergie pour leur organisation interne et où l’industrie électroménagère n’en était qu’à ses balbutiements. En troquant la révolution des TIC, Gordon néglige notamment le fait que le développement du commerce en ligne et surtout des intelligences artificielles n’en est qu’à ses prémices.

Selon Daron Acemoglu et James Robinson (2012), deux éléments clés sont absents du débat. Tout d’abord, le processus d’innovation, comme toute activité économique, est une quête de profit ; il répond donc aux incitations. Les deux auteurs reprennent l’exemple de Schmookler : la demande accrue de transport s’était traduite par une plus forte demande pour les fers à cheval, si bien qu’il y eut un taux d’innovation très élevé pour le fer à cheval tout au long de la fin du dix-neuvième et au début du vingtième siècle ; les innovations se sont par la suite taries en raison de la concurrence du moteur de traction à vapeur, puis du moteur à combustion interne. Aujourd’hui, lorsque le gouvernement accroît sa demande pour certains vaccins, les sociétés pharmaceutiques réagissent en multipliant les essais cliniques. Ou encore, les changements démographiques se traduisent par une expansion du marché pour différents types de médicaments et ainsi par la découverte de nouveaux médicaments. Puisqu’il est difficile de prévoir où les incitations à innover seront fortes, il est difficile de prédire où émergeront les innovations. Ainsi, ce n’est pas parce que nous connaissons les grandes innovations du passé et reconnaissons qu’elles ont été formidables, que nous pouvons en déduire que les innovations futures ne les égaleront pas. Cela dit, il ne faut pas faire l’erreur inverse de Gordon : croire que les innovations futures seront forcément révolutionnaires et permettront, par exemple, de résoudre la crise environnementale. L’expérience passée suggère en revanche que tant qu’il y aura des incitations, les innovations suivront.

Ensuite, Acemoglu et Robinson (2013) regrettent que la question institutionnelle soit absente du débat, alors qu’elle devrait au contraire être placée en son centre. L’innovation découle en effet d’institutions inclusives, c’est-à-dire d’ensembles de règles permettant aux agents de prendre librement leurs décisions. Ce sont ces règles qui déterminent la capacité de la société à exploiter la créativité, les compétences et les idées, soit son potentiel de croissance. S’interroger sur les perspectives de croissance revient alors à se demander si les institutions inclusives continueront à se développer à l’avenir ou bien si elles déclineront. Le processus d’innovation risque en effet de se tarir si les institutions deviennent extractives, c’est-à-dire si elles ne bénéficient qu’à une seule minorité au détriment du reste de la population. Le risque est alors de gâcher une masse considérable de talents. En l’occurrence, si la Rome antique se révéla incapable d’innover, non pas parce ce qu’elle atteignit les limites de sa capacité innovatrice, mais parce que ses institutions devinrent extractives.

Même parmi les détracteurs, beaucoup partagent l’idée de Gordon selon laquelle le creusement des inégalités va comprimer le potentiel de croissance au cours des prochaines décennies. Ce n’est pas le cas de l’optimiste Dave Altig (2013), pour lequel ce « vent contraire » pourrait au contraire constituer le signe d’une prochaine accélération de la croissance. L’adoption de nouvelles technologies peut en effet impliquer un coût substantiel en termes d’apprentissage, or seule la main-d’œuvre qualifiée s’avère avantagée dans cet apprentissage. Dans un premier temps, le manque d'expérience va donc empêcher l’économie de pleinement exploiter des nouvelles technologies. La demande pour la main-d’œuvre qualifiée va s’accroître, la prime de qualification (skill premium), c’est-à-dire le différentiel de salaire entre travailleurs qualifiés et non qualifiés, va alors s’élever et les inégalités de revenus se creuser. L'économie investit dans le capital humain pour accroître la quantité de main-d’œuvre qualifiée, mais cet investissement n’est pas mesurable, si bien que la croissance de la productivité semble décrocher durant cette période. Une fois que la main-d’œuvre qualifiée est suffisante, l’économie peut alors exploiter tous les potentiels des nouvelles technologies, si bien que la productivité s’élève et la prime de qualification diminue. Selon Greenwood et Yorukoglu (1997), l’accélération du progrès technique s’est à plusieurs reprises accompagnée au cours de l’histoire d’un creusement des inégalités et d’un ralentissement de la croissance de la productivité. Ces trois dynamiques auraient notamment coïncidé au milieu du dix-neuvième siècle, la période riche en avancées technologiques qui mena finalement à l'âge d'or de Gordon. Par conséquent, Dave Altig suggère que le creusement des inégalités que l’on peut observer depuis quelques décennies pourrait finalement préfigurer une accélération de la croissance de la productivité dans un proche avenir.

 

Références Martin ANOTA

ACEMOGLU, Daron, & James ROBINSON (2013), « The End of Low Hanging Fruit? », in Why Nations Fail (blog), février.

ALTIG, Dave (2013), « Half-full glasses », in macroblog, 1er février. Traduction française disponible ici.

BECKER, Gary (2012), « Will long-term growth slow down? », in The Becker-Posner blog, 10 juillet.

COWEN, Tyler (2011), The Great Stagnation: How America Ate All the Low-hanging Food of Modern History, Got Sick, and Will (Eventually) Feel Better.

The Economist (2013), « Has the ideas machine broken down? », 12 janvier.

GORDON, Robert (2012), « Is US economic growth over? Faltering innovation confronts the six headwinds », CEPR Policy Insight, n° 63.

GREENWOOD, Jeremy, & Mehmet YORUKOGLU (1997), « 1974 », Carnegie-Rochester Conference Series on Public Policy, vol. 46, n° 1, juin.

JANEWAY, William (2013), « Growth out of time », in Project Syndicate, 17 janvier. Traduction française, « La temporalité de la croissance ».

JONES, Charles I. (2012), « Sources of U.S. economic growth in a world of ideas », in American Economic Review, vol. 92, n° 1, mars.

KLEIN, Matthew C. (2012), « Was that it? », in Free Exchange (blog), 8 septembre.

Repost 0
6 février 2013 3 06 /02 /février /2013 20:31

Les mouvements de capitaux se sont intensifiés avec le processus d’intégration financière opéré au niveau mondial. Le maintien actuel des taux directeurs à un faible niveau dans les économies avancées a suscité un véritable débat sur la nature de la liquidité mondiale, sa transmission d’une économie à l’autre et sur ses risques potentiels. Suite à la crise financière, les pays émergents, qui avaient été épargnés par les booms d’endettement au cours des années deux mille, ont fait face à d’importants afflux de capitaux, en raison de leur plus grande résilience lors de la Grande Récession et des meilleurs rendements qu’ils offraient par rapport aux économies avancées. Selon un point de vue répandu, les faibles taux directeurs et les achats d’actifs par les banques centrales des pays avancés seraient un vecteur clé dans les mouvements internationaux de capitaux. Ces derniers sont susceptibles de se traduire par une expansion excessive du crédit dans les pays destinataires et finalement par une surchauffe de leur économie susceptible de se solder par une crise.

Pierre-Olivier Gourinchas et Maurice Obstfeld (2012) ont mené une analyse empirique pour la période s’étalant de 1973 à 2010 afin d’identifier les déterminants des crises financières. Ils constatent que la hausse rapide du levier d’endettement et la brutale appréciation du taux de change réel constituent deux prédicteurs particulièrement significatifs des crises financières. Ce résultat est vérifié aussi bien pour les économies avancées que pour les économies émergentes. Cette conclusion est également partagée par Alan Taylor (2012) dans son étude historique. D’autres analyses affirment que les afflux massifs de capitaux entraînent des booms sur les marchés du crédit et des actifs. Cherchant à concilier ces deux courants de la littérature, César Calderón et Megumi Kubota (2012) observent de leur côté un échantillon de 71 pays pour la période s’étalant de 1975 à 2010. Ils constatent que l’accumulation des flux de capitaux tend à précéder les booms sur les marchés du crédit.

Poursuivant directement l’analyse de Gourinchas et Obstfeld, Valentina Bruno et Hyun Song Shin (2012) se demandent comment la politique monétaire des pays avancés peut influencer le levier d’endettement et les taux de change réels dans les économies récipiendaires des flux de capitaux. Ils vont se focaliser sur un canal souvent négligé de la politique monétaire, celui qui a reçu le nom de « canal de la prise de risque » (risk-taking channel) depuis les travaux de Claudio Borio et Haibin Zhu (2008). Ce mécanisme de transmission donne un rôle crucial au secteur bancaire dans le façonnement des conditions financières et des primes de risque au cours du cycle. Les banques sont en effet des intermédiaires qui empruntent à court terme et prêtent à long terme, si bien que la rentabilité des nouveaux prêts dépend de l’écart entre les deux taux, c’est-à-dire l’écart à terme (term spread). Comme les taux longs sont moins sensibles aux variations des taux directeurs que les taux courts, la politique monétaire peut influer sur le spread de terme, ce qui permet aux banques centrales de jouer sur la prise de risque des banques et par là de peser sur l’activité économique.

Bruno et Shin explorent alors les implications du canal de prise de risque dans un contexte international en mettant l’accent sur l’activité transfrontalière des banques mondiales, c’est-à-dire sur les flux de capitaux entre la société-mère et ses filiales à l’étranger. Par exemple, un assouplissement de la politique monétaire de la Fed se traduit par une diminution des coûts de financement en dollar auxquels font face les banques dans les économies récipiendaires des flux de capitaux (typiquement les pays émergents). Ces banques prennent alors plus de risques en prêtant davantage aux agents domestiques. Les entrées de capitaux entraînent une appréciation de la devise du pays récipiendaire, ce qui améliore le bilan des emprunteurs domestiques. Comme ces derniers apparaissent alors moins risqués aux yeux des banques, celles-ci vont leur concéder encore davantage de crédit. Un cercle vertueux est donc temporairement à l’œuvre, l’appréciation de la devise et le crédit se renforçant alors mutuellement. Lorsque le cycle se retourne, le mécanisme d’amplification joue cette fois-ci en sens inverse et la situation financière des banques et des emprunteurs se détériore violemment.

Bruno et Shin vont alors examiner comment fonctionne le canal de prise de risque en contexte international à travers un modèle autorégressif (VAR). Ils cherchent à observer comment les bilans s’ajustent en réponse aux changements de la politique monétaire américaine. Pour cela, ils vont se pencher sur la relation entre l’indice VIX de la volatilité des options sur les actions américaines et le taux directeur de la Réserve fédérale, en l’occurrence le taux des fonds fédéraux. Les précédentes études avaient mis en évidence une boucle rétroactive entre les deux variables : une baisse du Fed funds rate est suivie par un amortissement de l’indice VIX, tandis qu’une hausse de ce dernier est suivie par une réduction du taux des fonds fédéraux [Bekaert et alii, 2012].

Bruno et Shin constatent, tout d’abord, qu’une hausse de l’indice VIX provoque un élargissement de l’écart à terme, ce qui suggère que les participants au marché s’attendent alors à une réduction imminente du taux des fonds fédéraux ; un élargissement de l’écart à terme est suivi par une réduction du taux directeur au cours des trimestres suivants. L’écart à terme influence donc effectivement les conditions de marché. En outre, l’analyse révèle qu’un écartement du term spread se traduit par un rythme accru des mouvements de capitaux à travers les opérations transfrontalières des banques mondiales. Le cycle du levier d’endettement des banques mondiales apparaît au cœur des mouvements des capitaux propres au secteur bancaire ; ce cycle se traduit par des fluctuations dans la liquidité mondiale et celles-ci expliquent (en partie) l’expansion du crédit dans les pays récipiendaires des flux de capitaux. Le canal de prise de risque de la politique monétaire s’opère donc effectivement via la gestion de bilan des banques mondiales. Le processus de globalisation financière, en rendant ce mécanisme de transmission plus prégnant, participe ainsi par ce biais-là à fragiliser la stabilité financière mondiale. Or les banques centrales tendent à le délaisser dans leur analyse et leur prise de décision, donc à sous-évaluer les répercussions extérieures de leur politique monétaire.

 

Références Martin ANOTA

BEKAERT, Geert, Marie HOEROVA & Marco LO DUCA. (2012). « Risk, uncertainty and monetary policy,” Banque nationale de Belgique, working paper.

BORIO, Claudio, & Haibin ZHU (2008), « Capital regulation, risk-taking and monetary policy: a missing link in the transmission mechanism? », Banque des règlements internationaux, working paper, n° 268, décembre.

BRUNO, Valentina, & Hyun Song SHIN (2012), « Capital flows and the risk-taking channel of monetary policy », Banque des règlements internationaux, working paper, n° 400, décembre.

CALDERÓN, César, & Megumi KUBOTA (2012b), « Gross inflows gone wild: Gross capital inflows, credit booms and crises », Banque mondiale, Policy research working paper, n° 6270, novembre.

GOURINCHAS, Pierre-Olivier, & Maurice OBSTFELD (2012), « Stories of the twentieth century for the twenty-first », in American Economic Journal: Macroeconomics, vol. 4, n° 1.

TAYLOR, Alan M. (2012), « External imbalances and financial crises », NBER working paper, n° 18606, décembre.

Repost 0
2 février 2013 6 02 /02 /février /2013 20:31

http://www.gtglobaltrader.com/sites/default/files/ExportConfidence.jpg

L’essor du commerce intrafirme et le développement des multinationales ont bousculé les anciennes théories du commerce international qui ne faisaient apparaître des gains à l’échange qu’au travers soit des différences en termes de dotations factorielles, soit des avantages comparatifs intersectoriels dans le sillage de la théorie ricardienne. Les nouvelles théories du commerce international qui se sont développées depuis les années soixante-dix ont cherché à mieux rendre compte des évolutions touchant les échanges commerciaux. Pour cela, elles se sont éloignées du cadre de la concurrence pure et parfaite pour incorporer des éléments de concurrence imparfaite tels que la nature oligopolistique des marchés, la présence de rendements d’échelle croissants et la différenciation des produits [Melitz et Trefler, 2012]. Dans ces modélisations, Les consommateurs aiment la variété et sont prêts à payer un prix plus élevé pour obtenir le produit désiré, mais comme le marché est fragmenté en niches, les différentes entreprises qui y sont présentes ne parviennent pas à atteindre une échelle de production suffisante pour couvrir leurs coûts de développement. L’ouverture au commerce international, en élargissant les marchés, va permettre aux entreprises de pleinement exploiter les rendements d’échelle afin de rentabiliser leurs investissements. Les consommateurs profitent, quant à eux, non seulement d’une plus large variété de produits, mais l’intensification de la concurrence internationale se traduit également par une baisse des prix.

Limités au niveau méthodologique, ces nouveaux modèles ont fait l’hypothèse durant plusieurs décennies d’une homogénéité des entreprises ; les firmes étaient supposées produire à la même échelle et être confrontées aux mêmes coûts. Melitz (2003), d’une part, et Bernard, Eaton, Jensen et Kortum (2003), d’autre part, ont mis à jour une nouvelle source de gains du commerce international en prenant en compte l’hétérogénéité des entreprises. Dans un secteur étroitement défini, les entreprises sont effectivement diverses en termes de taille et de profit, en raison notamment des différences de productivité. Or, cette hétérogénéité des entreprises au sein d’un même secteur va contribuer à amplifier les gains de la libéralisation que la littérature économique avait déjà identifiés.

L’ouverture au commerce va en effet contribuer à relever la productivité, non seulement via les économies d’échelle, mais également à travers un processus darwinien de sélection des entreprises [Corcos et alii, 2012]. D’un côté, la libéralisation des échanges se traduit par une diminution des coûts de transaction qui vont inciter les entreprises étrangères à pénétrer les marchés domestiques. Les firmes domestiques vont alors voir leurs profits diminuer sur les ventes domestiques, et ce quel que soit leur niveau initial de productivité. D’un autre côté, certaines entreprises domestiques vont se révéler suffisamment productives pour prendre en charge les coûts qu'exigent l'accès aux marchés extérieurs, notamment les coûts de transport, et faire face aux barrières de nature institutionnelle ou culturelle. Ces firmes vont alors accéder aux marchés étrangers et en obtenir ainsi des profits supplémentaires.

Avec la libéralisation des échanges, les entreprises vont par conséquent se partitionner en trois groupes. Comme les entreprises les moins productives font des pertes sur les marchés domestiques et ne disposent pas d’accès aux marchés étrangers, elles sont forcées de se retirer du marché. Les entreprises les plus productives sont quant à elles en mesure de compenser le manque à gagner sur les ventes domestiques avec les profits qu’elles retirent de leurs exportations. Elles peuvent donc survivre et sont même susceptibles d’accroître leur part de marché. Enfin, les entreprises ayant des niveaux intermédiaires de productivité peuvent également survivre, mais elles ne sont pas suffisamment productives pour accéder aux marchés étrangers, si bien qu’elles sont confinées aux seuls marchés domestiques et voient leur part de marché décliner irrémédiablement. Au final, comme l’intégration du commerce international élimine les entreprises les moins productives, la productivité moyenne du secteur s’élève grâce à la réallocation des ressources productives depuis les producteurs les moins efficaces vers les plus efficaces.

La prise en compte de l’hétérogénéité des entreprises fait apparaître une source supplémentaire de gain à l’échange, provenant cette fois-ci de l’influence positive que l’élargissement des marchés exerce sur le processus innovation [Melitz et Trefler, 2012]. L'adoption des nouveaux produits et processus productifs améliorant la productivité impose effectivement des coûts fixes. L’intégration commerciale, en élargissant la taille du marché et l’échelle de production des entreprises, encourage ces dernières à entreprendre ces investissements et stimule par là leur productivité. Cette source supplémentaire de gain à l’échange a trait à l’efficacité interne à la firme, tandis que le gain associé à la sélection des entreprises relevait quant à lui de l’efficacité interentreprises (ou allocative).

Cette nouvelle littérature théorique qui s’élabore autour de l’hétérogénéité des entreprises est motivée par un certain nombre de constats empiriques réalisés au niveau microéconomique [Melitz et Redding, 2012] :

Premièrement, la participation au commerce international permettrait aux entreprises de réaliser de meilleures performances. Dans un même secteur, les exportateurs sont notamment plus larges, plus productifs, plus intensifs en capital et en travail qualifié que les entreprises non exportatrices et rémunèrent également davantage leurs salariés.

Deuxièmement, les effets de composition seraient particulièrement importants entre les entreprises présentes dans un même secteur. Les entreprises sortantes sont en l'occurrence relativement plus petites que les opérateurs historiques et les entreprises entrantes ont des taux de croissance de l’emploi relativement plus élevés que ces derniers.

Troisièmement, la performance d’un établissement ou d’une entreprise répond sur plusieurs plans à l’environnement commercial. La libéralisation des échanges se traduirait notamment par une hausse de la productivité, une accélération de l’adoption des nouvelles technologies, une rationalisation de la gamme de produits offerts et une réduction du mark-up.

Gregory Corcos et alii (2012) ont estimé les gains de la libéralisation du commerce en Union européenne, notamment les gains d’efficacité tirés de la sélection des entreprises les plus efficaces. Si l’intégration européenne n’avait pas eu lieu, un pays subirait en moyenne une perte permanente de 7 % de son niveau de productivité. L’analyse fait en outre apparaître que l’intégration européenne s’est traduite par une plus riche variété de produits, mais aussi par des baisses de prix et de mark-up de la même amplitude que la hausse de la productivité. Les gains à l’échange sont inégalement répartis dans l’espace, puisque les pays périphériques et ceux de petite taille en profitent le plus. Ainsi, les changements dans les barrières au commerce auraient des répercussions particulièrement larges.

 

Références Martin ANOTA

BERNARD, Andrew B., Jonathan EATON, J. Bradford JENSEN & Samuel KORTUM (2003), « Plants and Productivity in international trade », in American Economic Review, vol. 93.

CORCOS, Gregory, Massimo DEL GATTO, Giordano MION, & Gianmarco I.P. OTTAVIANO (2012), « Productivity and firm selection: Quantifying the ‘new’ gains from trade », in VoxEU.org, 10 juillet 2012.

MELITZ, Marc J. (2003), « The impact of trade on intra-industry reallocations and aggregate industry productivity », in Econometrica, vol. 71, n° 6.

MELITZ, Marc J., & Stephen J. REDDING (2012), « Heterogeneous firms and trade », NBER working paper, n° 18652, décembre.

MELITZ, Marc J., & Daniel TREFLER (2012), « Gains from trade when firms matter », in Journal of Economic Perspectives, vol. 26, n° 2.

Repost 0
publié par Martin Anota - dans Economie internationale
commenter cet article
29 janvier 2013 2 29 /01 /janvier /2013 20:28

La crise des années trente a été un événement d’une rare violence. Entre 1929 et 1933, la masse monétaire diminue de 26 %, le niveau des prix de 25 % et la production de 27 %. Sur la même période, des milliers des banques font faillite en plusieurs vagues. Après plusieurs décennies, les économistes ne s’accordent toujours pas sur les mécanismes exacts qui ont généré ces dynamiques dépressives. L’interprétation monétariste domine aujourd’hui dans les débats universitaires et ce sont Milton Friedman et Anna Schwartz (1963) qui en ont donné la formulation la plus célèbre.

Les deux économistes se sont appuyés sur l’équation quantitativiste pour affirmer que la contraction monétaire fut relativement exogène au déclin de la production : la diminution de la quantité de monnaie et la décélération de la vitesse de circulation, impulsée par la ruée sur les billets, auraient entraîné l’effondrement de la valeur de la production. En raison du multiplicateur monétaire, les banques réagissent à une baisse des dépôts en réduisant plus que proportionnellement leurs prêts pour maintenir leur liquidité. Par conséquent, avec l’aggravation de la crise bancaire, la baisse des dépôts et la nécessité d’accroître les réserves se seraient mutuellement renforcées pour conduire à un assèchement du crédit. Confrontées à des difficultés croissantes de financement, les entreprises ont diminué leurs dépenses, licencié leur personnel, voire fait faillite. La chute subséquente de l’investissement, de la consommation et de la production aurait alors rétroagi sur les turbulences bancaires.

Dans le schéma monétariste, la dépression trouve donc sa source dans les crises bancaires. Celles-ci apparaissent comme largement exogènes : elles expliquent la sévérité de la crise sans avoir elles-mêmes été produites par une quelconque évolution économique dans la période antérieure. Friedman et Schartz ont donc cherché à identifier, dans le chapitre 7 de leur ouvrage A Monetary History of the United States, les différents mouvements de la masse monétaire qui apparaissent inhabituels au regard des conditions économiques de la période courante, mouvements qu’ils qualifient de « chocs monétaires ». Ils concluent leur étude en accusant la Fed d’avoir été responsable, ne serait-ce que par son inaction, des divers enchainements qui ont conduit à transformer la récession en véritable dépression. La banque centrale aurait en effet insuffisamment alimenté en liquidité le système bancaire pour stopper la chute des dépôts ; elle ne se contente, par exemple, de réaliser des opérations d’open market qu’au début de la crise, fin 1929, et brièvement durant l’été 1932. Or, privées de liquidité interbancaire, les banques se révèlent incapables de maintenir leur activité de prêt, ce qui amplifie le ralentissement de l’activité.

                  GRAPHIQUE Evolution du taux d'intérêt du papier commercial (1925-1933)  

commercialrate                                                                                                        source : Romer et Romer (2013b)

Cette interprétation souffre de plusieurs limites. D’une part, Friedman et Schwartz ne parviennent pas à prouver que les chocs monétaires sont à l’origine de la Grande Dépression. Parmi les chocs qu’ils identifient, ceux repérés au début de la crise sont les plus tenus. D’autre part, leur livre ne parvient pas à décrire le mécanisme par lequel les chocs monétaires ont pu affecter l’économie. Plusieurs économistes ont supposé que Friedman et Schwartz avaient à l’esprit un canal du taux d’intérêt classique : la contraction de la masse monétaire aurait entraîné une hausse des taux d’intérêt réels et nominaux. Or, les taux d’intérêt nominaux furent clairement à la baisse lors de la Grande Dépression (cf. graphique). Les taux chutèrent suite au krach sur le marché boursier en octobre 1929. Ils diminuèrent à nouveau lors des vagues de panique d’octobre 1930 et de mars 1931. Ils s’élèvent certes brièvement fin 1931 (la Fed cherchant alors à combattre la spéculation contre le dollar), mais ils diminuent ensuite continuellement jusqu’à février 1933. Cette baisse des taux d’intérêt pourrait s’expliquer par le fait que la demande de monnaie ait diminué encore plus rapidement que l’offre de monnaie, or Friedman et Schwartz ne prennent pas en compte cette éventualité. En revanche, pour expliquer le comportement des taux d’intérêt lors des années trente, Peter Temin (1976) adopte une optique plus keynésienne et suggère que la Grande Dépression trouve sa source dans les larges chocs négatifs affectant la demande agrégée. La baisse des prix et de l’activité aurait selon lui entraîné une baisse de la demande de monnaie et par là une contraction de la masse monétaire.

Une façon de réconcilier l’interprétation de Friedman et Schwartz avec le comportement des taux nominaux demande d’introduire la déflation et les anticipations dans l’analyse : si la déflation était à l’époque majoritairement anticipée, alors les taux d’intérêt réels étaient élevés, si bien que le niveau élevé des coûts d’emprunt réels aurait déprimé la dépense et la production. Christina et David Romer (2013b) affirment que l’explication monétariste, pour être validée, nécessite la présence de telles anticipations, mais elle exige aussi que celles-ci furent le produit de la contraction monétaire. Ils ont alors cherché à fournir le mécanisme de transmission qui manque dans l’explication monétariste de la Grande Dépression. Ils ont analysé en détails les numéros de la revue d'affaires Business Week pour voir s’il existait un lien entre les chocs monétaires et les anticipations de déflations dans les années centrales de la crise, en l’occurrence 1930 et 1931. Ils constatent que les observateurs professionnels ont effectivement anticipé une déflation, et ce en invoquant l’action (ou plus exactement de l’inaction) de la Fed et la contraction monétaire. Les époux Romer en concluent que les chocs monétaires qui se sont produits au cours de la Dépression ont pu affecter la production et l’emploi en entraînant une hausse des taux d’intérêts réels.

Ces résultats ont plusieurs implications pour la conduite de la politique monétaire. Lorsque les taux d’intérêt nominaux sont à leur bordure inférieure zéro (zero lower bound), une politique monétaire expansionniste peut accroître la production en élevant notamment les anticipations d’inflation et en diminuant ainsi les taux d’intérêt réels. L’analyse des numéros de Business Week suggère aux époux Romer que l’expansion monétaire est effectivement capable de générer de telles anticipations. Lors de la Grande Dépression, les autorités monétaires en firent trop peu parce qu’elles étaient convaincues que leur action serait inefficace. Christina et David Romer (2013a) estiment dans une autre étude que les banques centrales tendent encore aujourd’hui à sous-estimer les bénéfices de leur action et à en surestimer les coûts, ce qui aurait notamment bridé leur réponse face à la Grande Récession. Ainsi, Christina Romer a régulièrement appelé la Fed à adopter des mesures plus agressives et à cibler le PIB nominal (NGDP targeting) afin de stimuler la reprise américaine. Selon elle, la proximité des taux nominaux de leur limite inférieure zéro ne doit pas empêcher la banque centrale d’influencer les anticipations, notamment à travers la pratique du forward guidance

 

Références Martin ANOTA

FRIEDMAN, Milton, & Anna Jacobson SCHWARTZ (1963), A Monetary History of the United States, 1867–1960, Princeton University Press for NBER.

HAUTCOEUR, Pierre-Cyrille (2009), La Crise de 1929, La Découverte, Repères.

ROMER, Christina D., & David H. ROMER (2013a), « The most dangerous idea in Federal Reserve history: Monetary policy doesn’t matter », janvier.

ROMER, Christina D., & David H. ROMER (2013b), « The Missing Transmission Mechanism in the Monetary Explanation of the Great Depression », NBER working paper, n° 18746, janvier.

TEMIN, Peter (1976), Did Monetary Forces Cause the Great Depression?, Norton.

Repost 0
26 janvier 2013 6 26 /01 /janvier /2013 20:18

Plusieurs concepts de production potentielle peuvent être distingués [Gaggl et Janger, 2009]. Le premier se réfère à la croissance tendancielle de long terme, qui correspond à une mesure d’état régulier de la croissance basée sur la croissance tendancielle des facteurs de production, en l’occurrence le travail et le capital, ainsi que sur le progrès technique. Le deuxième est un concept de plus court terme qui se réfère au niveau de production qu’atteindrait l’économie si les prix et salaires n’étaient pas rigides. Dans les modèles nouveaux keynésiens, le lent ajustement des prix et salaires peut mener à un écart entre la production courante et la production potentielle. L’écart de production (output gap) est finalement un indicateur de déséquilibre entre la demande et l’offre au niveau agrégé. Dans cette conception de court terme, la production potentielle est le niveau de production déterminé du côté de l’offre pour lequel il y a stabilité des prix. Si la production courante excède son niveau potentiel, l'économie est sujette à des pressions inflationnistes ; à l’inverse, si l’output gap est négatif, par exemple lors d’une récession, l’économie est susceptible de connaître des tensions déflationnistes. Dans les modèles nouveaux keynésiens, la production à prix flexibles converge à long terme vers la production d’état régulier.

Les principales composantes de la production potentielle sont donc l’offre de travail, le stock de capital et la productivité totale des facteurs. Or, aucune de ces trois composantes n’est totalement insensible à la conjoncture, si bien qu’une récession peut durablement affecter le niveau et le taux de croissance de la production potentielle, ce qui rejette finalement l'idée que les chocs touchant l'économie sont temporaires dans leurs effets. Par conséquent, rien n'assure que la production va retrouver sa trajectoire d'avant-crise. La stabilisation à court terme de l’activité par les pouvoirs publics est donc nécessaire pour préserver la croissance de long terme, notamment parce que celle-ci constitue le principal déterminant assurant la soutenabilité de l’endettement public. En outre, plus la crise réduit la production potentielle, plus l’écart de production sera resserré et donc plus tôt apparaîtront les pressions inflationnistes une fois la reprise de l’activité amorcée. Il est donc crucial de déterminer l’impact de la Grande Récession sur la production potentielle. La théorie suggère plusieurs canaux de transmission [Furceri et Mourougane, 2009 ; Gaggl et Janger, 2009] :

La contribution du capital à la production potentielle se détériore lors des récessions. Les entreprises répondent à la chute de la demande en réduisant volontairement leurs dépenses d’investissement, si bien que la croissance du stock de capital va décélérer. Le niveau de stock de capital sera réduit de manière permanente, même si le taux d’investissement retrouve ensuite son niveau d’avant crise. L’accroissement des contraintes financières accentue le ralentissement du rythme d’accumulation. L’effondrement des profits réduit les possibilités d’autofinancement. Les banques réagissent au ralentissement de l’activité en relevant leurs taux d’intérêt et en rationnant l’offre de crédit. La prime de risque s’accroît également sur les marchés obligatoires. La hausse de l’incertitude réduit donc également les possibilités de financement sur les marchés des capitaux. La chute même des prix d’actifs va également exacerber les contraintes financières en détériorant le bilan des entreprises et donc à nouveau leur capacité d’emprunt, en particulier si les actifs sont utilisés comme collatéraux. La détérioration des conditions financière empêche le lancement de nouveaux projets d’investissement et conduit à une multiplication des défauts des projets en cours. Enfin, la dépréciation du capital existant peut s’accélérer en raison des insolvabilités, de la réallocation sectorielle et de la réduction des surcapacités qui furent accumulées avant l’éclatement de la crise.

Les crises économiques, en réduisant le volume de la production et donc les besoins en main-d’œuvre, entraînent une hausse du taux de chômage. L'effet de la crise sur les taux d'activité est ambigu. D’un côté, la perte des revenus d’un ménage peut encourager ses membres inactifs à rechercher un emploi et ainsi à entrer dans la population active. Parallèlement, les chômeurs voient leur capital humain, c’est-à-dire leurs compétences et leur santé, se détériorer, si bien que leur productivité et par conséquent leur employabilité s’en trouvent réduites. En raison de ces effets d’hystérèse (hysteresis), le taux de chômage structurel est susceptible de régulièrement s’accroître tout au long de la récession [DeLong et Summers, 2012]. Surtout, un taux de chômage élevé peut donc décourager les chômeurs à rechercher un nouvel emploi et les inciter à quitter le marché du travail.

L'effet sur la productivité totale des facteurs est également ambigu. D'un côté, avec la hausse du chômage, moins de travailleurs expérimentent un apprentissage par la pratique (learning by doing). De plus, comme une partie des dépenses d’investissement est destinée à financer l’activité de recherche-développement, leur effondrement détériore la capacité de l’économie à innover et contribue à la chute du taux de progrès technique. D’un autre côté, la crise va assainir les différents secteurs en évinçant les entreprises les moins efficaces et en incitant les entreprises à se restructurer afin de réduire leurs pertes et survivre.

Les études empiriques se sont multipliées pour évaluer les répercussions de la Grande Récession sur la production potentielle. Jane Haltmaier (2012) a cherché à déterminer si la croissance de la production potentielle est affectée par les récessions, que celles-ci soient couplées ou non à une crise financière. Elle analyse la production tendancielle en utilisant les données relatives au PIB et à la population en âge de travail de 40 économies, en l’occurrence 21 pays avancés et de 19 pays émergents. Son échantillon comprend 187 récessions. Haltmaier observe précisément la croissance moyenne deux ans avant le pic d’activité précédant la récession, deux années après celui-ci, puis quatre années après.

Son analyse historique suggère que les ralentissements dans la croissance de la production courante, même s’ils sont temporaires, sont susceptibles d’avoir un impact négatif et permanent sur la production potentielle. Les récessions ont un impact modéré en moyenne, en l’occurrence une perte cumulative d’environ 1,5 point de pourcentage dans le niveau de la production tendancielle quatre ans après le pic de la récession. Toutefois, la profondeur d’une récession contribue à une réduction dans la production potentielle pour les économies avancées, tandis que la durée de la récession s’avère déterminante en ce qui concerne les pays émergents. Par conséquent, les récessions qui sont plus profondes et/ou plus longues que la moyenne peuvent fortement détériorer le niveau de la production tendancielle. De plus, que la récession ait coïncidé ou non avec une crise financière ne semble pas avoir un effet sur la perte cumulative en production tendancielle. Le degré de synchronisation d’une récession dans un pays donnée avec celle dans les autres pays ne semble pas non plus avoir un effet significatif sur la perte cumulative. L’étude de Haltmaier montre également que le principal vecteur du déclin de la production tendancielle est la chute de la contribution du ratio capital sur production.

GRAPHIQUE  Le niveau de la production tendancielle

NewNormal,2

source : Haltmaier (2012)

Haltmaier s’appuie alors sur ces résultats pour évaluer les répercussions de la récente crise mondiale sur la production potentielle des différentes économies. Pour les pays avancés, la Grande Récession a été deux fois plus sévère que la moyenne historique ; la production par tête a en effet chuté d’environ 7,5 %, alors qu’elle a diminué en moyenne de 3,5 % lors des précédents épisodes. La perte cumulative dans la production tendancielle s’élève en moyenne à 3 % pour les pays avancés. Elle avoisine ou dépasse 4 % pour plusieurs pays européens, la Grèce et le Portugal affichant sans surprise les pertes les plus élevées. Dans le cas de l’économie française, la production tendancielle a diminué de plus de 2 %. En revanche, la Grande Récession ne semble pas s’être traduite par une réduction de la production tendancielle pour les pays émergents, puisqu’elle fut relativement plus courte que les précédentes récessions. En fait, la Chine, l’Inde et l’Indonésie n’ont pas connu de récession dans la plus récente période.

Nicholas Oulton et María Sebastiá-Barriel (2013) confirment l'importance des effets d'hystérèse. Ils considèrent de leur côté l’hypothèse selon laquelle la capacité économique a été endommagée de manière permanente par la récente crise financière et par la récession qui s’ensuivit. Si cette hypothèse était vérifiée, alors elle impliquerait que, même si le taux de croissance de la productivité retournait à sa valeur d’avant-crise, le niveau de productivité suivrait définitivement une trajectoire inférieure à celle qu’il aurait suivie en l’absence de crise. Oulton et Sebastiá-Barriel ont constitué un panel de 61 pays pour la période s’étalant de 1955 à 2010. Ils observent alors les répercussions qu’une crise financière peut avoir à court terme sur le taux de croissance de la productivité du travail et à long terme sur le niveau de cette dernière.

Leur principal résultat est qu’une crise bancaire, telle qu’elle est définie par Carmen Reinhart et Kenneth Rogoff (2009), réduit en moyenne de 0,6 à 0,7 % le taux de croissance annuel de la productivité du travail et de 0,84 à 1,1 % son niveau de long terme pour chaque année de crise. L’un des canaux par lesquels une crise bancaire est susceptible d’endommager l’économie est à travers son impact sur le niveau de capital par travailleur. En l’occurrence, les auteurs constatent qu’une crise bancaire réduit en moyenne de 1 % le niveau de long terme du capital par travailleur. En outre, les crises bancaires ont à long terme un impact négatif sur le ratio d’emploi, en raison soit de la hausse du chômage, soit de la baisse du taux d’activité. Il apparaît enfin que l’impact sur le capital par tête est le double que celui sur le PIB par travailleur.

 

Références Martin ANOTA

DELONG, J. Bradford, & Lawrence H. SUMMERS (2012), « Fiscal policy in a depressed economy ».

FURCERI, Davide, & Annabelle MOUROUGANE (2009), « The effect of financial crises on potential output: New empirical evidence from OECD countries », OCDE, department working paper, n° 699, mai 2009.

GAGGL, Paul, & Jürgen JANGER (2009), « Will the Great Recession lead to a lasting impact on potential output in Austria? », in Monetary Policy and the Economy, n° 2009/3, novembre.

HALTMAIER, Jane (2012), « Do recessions affect potential output? », Federal Reserve, international finance discussion paper, n° 1066.

OULTON, Nicholas, & María SEBASTIÁ-BARRIEL (2013), « Long and short-term effects of the financial crisis on labour productivity, capital and output », Banque d'Angleterre, working paper, n° 470, janvier 2013.

REINHART, Carmen M., & Kenneth S. ROGOFF (2009), This Time is Different: Eight Centuries of Financial Folly, Princeton University Press. Traduction française, Cette fois, c’est différent: Huit siècles de folie financière, Pearson.

Repost 0
23 janvier 2013 3 23 /01 /janvier /2013 18:31

Les liens économiques se sont renforcés aussi bien au niveau régional que mondial lors du dernier quart de siècle. Le volume, la direction et la nature des flux commerciaux et financiers internationaux ont connu de fortes évolutions sur cette période. Depuis les années soixante (et ce jusqu’à la Grande Récession), le volume des échanges commerciaux s’est accru à un rythme plus rapide que la production mondiale ; le premier représentant trois fois le dernier. Les échanges intra-régionaux ont joué un rôle toujours plus important au sein du commerce international. Cela reflète le développement de pays émergents comme la Chine et la multiplication des accords commerciaux régionaux. Ensuite, les échanges intra-branche ont significativement contribué à l’essor du commerce international ces deux dernières décennies. La fragmentation des processus de production ont aussi particulièrement alimenté la création de flux commerciaux au niveau mondial. Parallèlement, les flux financiers ont également connu depuis les années quatre-vingt une expansion sans précédent. Si les flux financiers entre les économies avancées ont toujours constitué le principal moteur de l’essor des transactions internationales, les flux se sont également multipliés entre les régions constituées de pays avancées et les régions composées de pays en développement.

Ces développements ont pu affecter les patterns mondiaux et régionaux des cycles conjoncturels. On peut ainsi se demander si les forces de globalisation n’auraient pas accru l’interdépendance des pays et mené à une convergence des cycles d’affaires ; en d’autres termes, avec la plus grande ouverture au commerce international et à la finance internationale, les économies seraient devenues plus sensibles aux chocs externes et ces derniers se répercuteraient plus facilement d’un pays à l’autre, si bien que les performances tendraient à devenir plus similaires. Toutefois, malgré la présence de forts liens commerciaux et financiers au niveau mondial, les performances de croissance ont par exemple varié d’une région à l’autre au cours de la Grande Récession. Certaines régions, en particulier l’Asie, se sont en effet montrées particulièrement résilientes et sont rapidement revenues à leurs taux de croissance antérieurs [Abiad et alii, 2012] ; d’autres, comme l’Amérique du Nord et l’Europe, ont subi de profondes et durables contractions de l’activité. Ces événements pourraient au contraire suggérer un éventuel découplage des pays émergents d’avec les pays avancés, les fluctuations conjoncturelles des premiers n’étant plus alors intimement liées à celles des seconds.

L’impact de l’accroissement des échanges sur le degré de synchronisation des cycles mondiaux et régionaux apparaît ambigu, tant au niveau empirique que théorique. D’un côté, le renforcement des liens internationaux génère des externalités tant du côté de l’offre que de la demande et peut ainsi se traduire par une plus forte corrélation des cycles économiques. D’un autre côté, si le renforcement des liens internationaux passe par une plus forte spécialisation des pays, les nouvelles théories du commerce international suggérent au contraire que celui-ci va conduire à une baisse du degré de synchronisation des cycles conjoncturels. L’impact précis de l’approfondissement de la spécialisation sur le degré de comouvement des cycles d’affaires dépendrait en effet de la nature de la spécialisation et du type de choc. Si le renforcement des liens commerciaux est associé à une plus grande spécialisation intersectorielle et non intra-sectorielle, alors la nature des chocs façonnera l’impact exact du développement du commerce sur les fluctuations économiques. Si le cycle conjoncturel repose avant tout sur les chocs spécifiques aux secteurs, alors le comouvement des cycles économiques va s’affaiblir. En revanche, si les chocs communs sont à la source du cycle d’affaires, alors le degré de comouvement va s’élever.

Les études empiriques tendent à conclure à une plus grande synchronisation des cycles avec le développement commerce international. Les externalités d’offre et de demande domineraient ainsi les effets de spécialisation associés aux flux du commerce intersectoriel. L’intensité du commerce a également un plus large effet sur la corrélation des cycles d’affaires d’un pays à l’autre lorsque les économies présentent de fortes liens de commerce intra-branche et des structures sectorielles similaires. Le comouvement s’accroîtrait également avec les accords commerciaux régionaux. En revanche, les études sont plus nuancées concernant les répercussions des facteurs financiers. L’intégration financière conduirait à de plus fortes corrélations dans la production et la consommation dans les pays avancés, mais cet effet serait plus limité dans les pays en développement.

Hideaki Hirata, Ayhan Kose et Christopher Otrok (2013) ont analysé l’impact du renforcement des liens financiers sur l’évolution des cycles économiques régionaux et mondiaux. Leur modèle leur permet d’évaluer les rôles que jouent respectivement les facteurs spécifiques à l’économie mondiale, aux régions et aux pays dans les cycles conjoncturels à partir d’un échantillon de 106 pays, regroupés en 7 régions, pour la période s’étalant de 1960 à 2010. Ils constatent que, depuis le milieu des années quatre-vingt, les facteurs régionaux sont devenus de plus en plus importants pour expliquer les cycles d’affaires, en particulier dans les régions qui ont connu une forte croissance des flux commerciaux et financiers intra-régionaux. Le degré de synchronisation mondiale des cycles ne semble pas avoir varié ces dernières décennies, si bien que le facteur mondial a vu son importance relative décliner au cours du temps. Au final, la récente phase de mondialisation aurait donc vu émerger de véritables cycles d’affaires régionaux.

 

Références Martin ANOTA

ABIAD, Abdul, John BLUEDORN, Jaime GUAJARDO & Petia TOPALOVA (2012), « The rising resilience of emerging market and developing economies », IMF working paper, n° 300, décembre. Traduction disponible ici.

HIRATA, Hideaki, M. Ayhan KOSE & Christopher OTROK (2013), « Regionalization vs. globalization », Federal Reserve Bank of St Louis, working paper, n° 2, janvier.

KOSE, M. Ayhan, E. S. PRASAD, & M. E. TERRONES (2003), « How does globalization affect the synchronization of business cycles? », n° 27, IMF working paper, n° 27.

Repost 0
20 janvier 2013 7 20 /01 /janvier /2013 17:48

Plusieurs auteurs affiliés à la nouvelle économie keynésienne ont développé ces dernières décennies l’idée que les dynamiques sur les marchés du crédit jouent un rôle central dans les fluctuations conjoncturelles. La détérioration des conditions de crédit ne reflète pas passivement le ralentissement de l’activité économique, mais peut elle-même générer des pressions dépressives. Les travaux pionniers de Fisher, de Keynes et de Minsky mettaient déjà l’accent sur l’importance du crédit et de l’incertitude dans les cycles d’affaires. Les nouveaux keynésiens vont également rejeter l’idée d’une stricte frontière entre sphères réelle et financière, mais en raison de l’existence d’imperfections sur le marché du crédit, notamment l’asymétrie d’information. Les institutions et contrats financiers sont conçus de manière à réduire les coûts d’acquisition d’information et à réduire les problèmes d’aléa moral qui traversent ce marché. Les turbulences sur les marchés du crédit résultent elles-mêmes et sont la source d’une aggravation de l’asymétrie d’information et d’une hausse des coûts d’agence ; ces crises vont précisément avoir de profondes répercussions sur l’économie réelle en accroissant les coûts de financement.

Ces idées ont conduit Ben Bernanke, Mark Gertler et Simon Gilchrist (1999) à mettre en évidence l’existence d’un accélérateur financier (financial accelerator) : les développements endogènes aux marchés du crédit contribuent directement à la propagation et à l’amplification des chocs touchant l’économie. Dans leur modèle, les entrepreneurs ne disposent pas suffisamment de fonds propres pour entreprendre leurs projets d’investissement, donc ils sollicitent un crédit bancaire. Pour juger de leur capacité de remboursement, les banques prennent compte de la valeur nette (net worth) des éventuels emprunteurs, qui correspond au montant de l’ensemble de leurs actifs diminué de l’encours de leur endettement. Les banques vont toutefois aussi devoir prendre en compte la possibilité que les emprunteurs, une fois le prêt accordé, ne le destinent finalement pas au projet initialement annoncé ; elles n’ignorent pas non plus que la rentabilité des entreprises et donc leur capacité de remboursement peuvent se détériorer du fait de chocs défavorables sur l’économie. Elles vont donc se prémunir contre le risque d’un non-remboursement des prêts en exigeant une prime de financement externe (external finance premium), que les auteurs définissent précisément comme la différence entre les coûts de financement externe et le coût d’opportunité du financement interne. Il existe une relation inverse entre la prime de financement externe et la valeur nette des emprunteurs. En effet, moins l’emprunteur a de capitaux à apporter au financement du projet, plus les intérêts de l’emprunteur et du prêteur divergent, plus les coûts d’agence vont être importants. Les prêteurs vont compenser ces coûts d’agence en exigeant une plus grande prime de risque.

La valeur nette des emprunteurs va par conséquent être procyclique, tandis que la prime de financement externe sera contracyclique. Il en résulte une forte volatilité de l’emprunt et par là des dépenses, de l’investissement et de la production au cours du temps. Lors d’une expansion économique, les profits et les prix d’actifs tendent en effet à être à la hausse, si bien que les emprunteurs voient leur valeur nette et donc leur capacité d’endettement s’élever. Puisque la probabilité d’un défaut de remboursement diminue, les banques sont enclines à accorder davantage de prêts et réduisent la prime de risque. Les entreprises financent ainsi davantage de projets d’investissement et relèvent leur niveau de production. Les profits et prix d’actifs poursuivent leur essor et permettent une nouvelle expansion du crédit. En revanche, l’accélérateur financier va générer des processus cumulatifs à la baisse lors des ralentissements de l’activité. Par exemple, lorsque survient un choc défavorable de demande ou de productivité ou bien lorsque la banque centrale resserre sa politique monétaire, l’effondrement des profits et prix d’actifs se traduit par une détérioration de la valeur nette des entreprises. Les banques vont exiger une plus grande prime de risque et réduire les flux de nouveaux prêts, ce qui va déprimer l’investissement, conduire à une nombre de défaillances d’entreprises et finalement aggraver le ralentissement de l’activité. La baisse des prix d’actifs et l’alourdissement du fardeau de l’endettement vont s’alimenter l’une l’autre, selon un enchaînement cumulatif qui n’est pas sans rappeler le mécanisme de déflation par la dette (debt-deflation) mis en avant par Irving Fisher (1933).

Lawrence Christiano, Roberto Motto et Massimo Rostagno (2013) ont intégré le mécanisme d’accélérateur financier développé par Bernanke et alii à un modèle DSGE. Ils vont se pencher sur l’incertitude entourant la réussite des projets d’investissement. Dans leur modélisation, la probabilité d’un succès est une variable aléatoire indépendante de chaque entrepreneur. La réussite du projet n’est pas connue au moment où la banque accorde son prêt. Lorsque la probabilité est réalisée, sa valeur est directement observée par l’entrepreneur, mais elle ne peut être observée par le prêteur que s’il entreprend des dépenses de vérification (monitoring). Les auteurs qualifient de « risque » l’écart-type de la probabilité de succès et celui-ci est lui-même déterminé par un processus stochastique. Plus le risque est important, plus les entrepreneurs auront des chances hétérogènes de succès. Or, le taux d’intérêt sur les prêts d’entreprise inclut une prime pour couvrir les coûts de défaillance des entrepreneurs non chanceux. Cette prime de risque va alors fluctuer avec les variations dans la probabilité de succès, si bien que ces « chocs de risque » (risk shocks) vont avoir de profondes répercussions sur le financement de l’investissement et le reste de l’activité économique. Si le risque s’accroît, la prime de risque va s’élever et les banques vont rationner le crédit. Les entrepreneurs, disposant de moindres ressources financières, réduisent leur investissement. Avec l’effondrement des dépenses, la production, la consommation et l'emploi vont chuter. Les revenus des entrepreneurs diminuent avec le ralentissement de l’activité et ils subissent des pertes en capital, donc leur valeur nette s’effondre également. Tout comme dans l’article original de Bernanke et alii, le choc de risque implique donc une prime de risque du crédit contracyclique.

Christiano et alii étudient les données macroéconomiques relatives aux Etats-Unis pour la période s’étalant entre 1985 et 2010. Ils en concluent que les chocs de risque expliquent 60 % des fluctuations du taux de croissance de la production agrégée et une part importante de d’autres variables macroéconomiques. Autrement dit, les problèmes d’agence expliqueraient une proportion substantielle des fluctuations conjoncturelles observées depuis deux décennies et demie. Les auteurs en concluent que comprendre le caractère contracyclique de la prime de risque de crédit est la clé pour saisir les cycles économiques.

 

Références Martin ANOTA

BERNANKE, Ben, & Mark GERTLER (1989), « Agency costs, net worth, and business fluctuations », in American Economic Review, vol. 79, n° 1, mars.

BERNANKE, Ben, Mark GERTLER & Simon GILCHRIST (1999), « The financial accelerator in a quantitative business cycle framework », in J.B. Taylor et M. Woodford (dir.), Handbook of Macroeconomics, volume 1C, chapitre 21, Amsterdam, Elsevier Science.

CHRISTIANO, Lawrence, Roberto MOTTO & Massimo ROSTAGNO (2013), « Risk shocks », NBER working paper, n° 18682, janvier.

FISHER, Irving (1933), « The Debt-Deflation Theory of Great Depressions », in Econometrica, vol. 1, n° 4, pp. 337-357. Traduction française, « La théorie des grandes dépressions par la dette et la déflation », in Revue française d'économie, vol. 3, n° 3, 1988, pp. 159-182.

Repost 0
publié par Martin Anota - dans Instabilité financière
commenter cet article
15 janvier 2013 2 15 /01 /janvier /2013 19:56

La rapide croissance des émergents asiatiques est l’une des tendances lourdes les plus déterminantes qui aient redessiné l’économie mondiale ces dernières décennies et elle continuera très certainement à marquer les prochaines. Pour reprendre Larry Summers, « la spectaculaire modernisation des économies asiatiques est, avec la Renaissance et la Révolution industrielle, l’un des plus importants développements de l’histoire économique ». Alexander Gerschenkron faisait déjà observer que les pays en retard de développement pouvaient s'industrialiser et atteindre des taux de croissance supérieurs à ceux des pays avancés en mettant un place les politiques économiques appropriées. Ils peuvent importer les innovations des pays avancés au lieu de créer leurs propres nouvelles technologies. Ils peuvent aussi obtenir des gains de productivité en réaffectant les travailleurs sous-employés du secteur agricole vers l’industrie manufacturière tournée vers l’exportation, le secteur même où sont utilisées les technologies importées.

Pourtant, si beaucoup de pays en développement, notamment d’Amérique latine et du Moyen-Orient, ont acquis le statut de pays à revenu intermédiaire depuis les années cinquante, peu d’entre eux ont su poursuivre leur développement pour entrer dans le club des pays à revenu élevé. Beaucoup ont vu en effet leur croissance décélérer et se sont enlisés dans ce que la littérature économique appelle depuis quelques années une « trappe à revenu intermédiaire » ou  « piège du revenu intermédiaire » (middle-income trap). A la fin du vingtième siècle, la Malaisie et la Thaïlande avaient par exemple réussi à rapprocher leurs niveaux de productivité de ceux atteints par les pays avancés. Ils n’ont toutefois pas su modifier leur modèle de production et d’exportation, très intensif en main-d’œuvre. Or la concurrence s’est parallèlement exacerbée dans la région, avec tout d’abord l’essor de producteurs à faibles coûts comme la Chine et l’Inde ou plus récemment le Cambodge et le Vietnam, si bien que la croissance a fortement décéléré en Malaisie et en Thaïlande.

Il est aujourd’hui particulièrement crucial de comprendre pourquoi les pays émergents sont susceptibles de connaître une telle décélération de leur croissance et de dévoiler les facteurs permettant de leur assurer une place auprès des pays à haut revenu. En effet, dans le contexte actuel où les pays avancés font face à une stagnation durable de leur activité, la croissance des pays émergents tire l’essentiel de la croissance mondiale. Un ralentissement significatif de la croissance au Brésil, en Chine ou en Inde aurait de profondes répercussions sur l’économie mondiale. Au sein des pays émergents, la légitimité des gouvernants repose en outre bien souvent sur leur succès à assurer une croissance rapide du PIB. Ces questions prennent une résonance particulière dans le cas de la Chine. Ce pays représente en effet un part importante du monde émergent et même de la population mondiale, or un éventuel ralentissement affecterait profondément le bien-être de ses habitants et contrarierait leur sortie de la pauvreté. Ensuite, la croissance chinoise devient peu à peu une composante clé de la croissance mondiale. La résistance de la croissance chinoise au plus fort de la Grande Récession a bénéficié au reste du monde. Les exportations de biens d’équipement réalisées par l’Allemagne et le Japon dépendent fortement de la demande chinoise, tout comme les exportations de marchandises produites en Afrique et en Amérique latine. L'économie mondiale est aujourd'hui particulièrement vulnérable aux évolutions de l'économie chinoise. 

Barry Eichengreen, Donghyun Park et Kwanho Shin (2011) ont observé les différentes décélérations de croissance qui ont émaillé l’histoire économique depuis 1956. Ils se penchent plus précisément les pays qui ont connu un taux de croissance supérieur à 3,5 % sur au moins sept ans, puis une réduction d’au moins 2 points de pourcentage de leur taux de croissance sur les sept années suivantes. Leur analyse historique montre que le ralentissement de croissance survient typiquement aux alentours de 16700 dollars internationaux constants de 2005. A ce point, la croissance du PIB par tête ralentit de 5,6 à 2,1 % en moyenne, soit une baisse du taux de croissance de 3,5 points de pourcentage. La chute de la croissance de la productivité globale des facteurs explique 85 % de la chute du taux de croissance de la production, équivalente à 3 points de pourcentage. En outre, la probabilité d’une décélération de la croissance atteignait un pic lorsque le secteur manufacturier représente environ 23 % de l’emploi total dans l’économie.

A partir de données supplémentaires, Eichengreen, Park et Shin (2013a) approfondissent leur analyse et identifient finalement deux plages du revenu par tête pour lesquelles la croissance est susceptible de décélérer : la première s’étale entre 10 000 et 11 000 dollars, tandis que la seconde est comprise entre 15 000 et 16 000 dollars. Les pays de leur échantillon subissent effectivement deux décélérations de leur croissance. La croissance des pays à revenu intermédiaire ralentirait donc en plusieurs étapes. Par conséquent, un nombre plus élevé d’économies seraient susceptibles de connaître un (nouveau) ralentissement de leur croissance que ne le suggéreraient les précédents estimations. Cela signifie également que les pays à revenu intermédiaire peuvent connaître une décélération de leur croissance plus tôt au cours de leur développement.

Eichengreen et alii (2013a) constatent également que les ralentissements sont les plus susceptibles de se produire pour les économies ayant des ratios de dépendance élevés, des taux d’investissement élevés qui peuvent se traduire à l’avenir par de faibles rendements et enfin une sous-évaluation du taux de change qui les désinciterait à gravir l’échelle technologique. Les décélérations de la croissance sont en outre moins probables dans les pays où les niveaux d’éducation du secondaire et du supérieur sont élevés et où les produits de haute technologie comptent pour une large part des exportations. Le capital humain de grande qualité et l’innovation réduisent donc la probabilité qu’une économie tombe dans une trappe à revenu intermédiaire.

Ces résultats accréditent l'explication couramment avancée pour expliquer le piège des pays à revenu intermédiaire [Agénor et alii, 2012]. Dans un scénario typique, la réallocation de la main-d’œuvre des secteurs à faible productivité, en particulier l’agriculture, vers les secteurs à forte productivité, notamment l’industrie et les services modernes, s’accompagne d’une hausse importante du revenu par habitant, mais celle-ci se révèle temporaire. La réallocation se trouve amorcée par l’introduction des technologies importées dans les secteurs produisant des produits à faible coût et intensifs en travail. Une fois que le pays atteint un niveau de revenu intermédiaire, les ressources rurales en main-d’œuvre se tarissent et les salaires commencent à fortement s’élever, ce qui érode la compétitivité des produits intensifs en main-d’œuvre sur les marchés internationaux. La croissance de la productivité qui avait été initialement impulsée par la réallocation sectorielle et le rattrapage technologique est finalement épuisée. La croissance économique décélère au moment même où d’autres pays à faible revenu débutent leur industrialisation et s’engagent eux-mêmes dans une phase de croissance rapide.

Eichengreen et alii (2013a, 2013b) soulignent ainsi la nécessité d’abandonner les activités à faible valeur ajoutée pour gravir l’échelle technologique et ainsi éviter la trappe à revenu intermédiaire, mais une telle transition nécessite des travailleurs qualifiés. Un capital humain de grande qualité est nécessaire pour développer les services modernes à haute valeur ajoutée tels que les services aux entreprises. Sur ce point, la Chine semble relativement avantagée. La durée moyenne de scolarité dans le secondaire s’élève en Chine à 3,17 ans, soit un chiffre légèrement supérieur à la moyenne observée dans les différentes économies qui sont tombées dans la trappe à revenu intermédiaire, en l’occurrence 2,72 ans. Toutefois, même les pays émergents qui ont su rapidement améliorer leur niveau d’éducation peuvent souffrir d'une pénurie dans certains types de mains-d’œuvre qualifiées. Le déficit de capital humain explique en partie pourquoi la Malaisie et la Thaïlande sont tombées dans la trappe à revenu intermédiaire. A l’opposé, l'expansion rapide des enseignements secondaire et supérieur en Corée du Sud explique en partie pourquoi celle-ci a su grimper au niveau des pays à revenu élevé. La Chine ne pourra elle-même éviter la trappe des revenus intermédiaires qu’en développant un système d’éducation produisant les travailleurs qualifiés dont nécessitent précisément les employeurs.

De leur côté, Pierre-Richard Agénor, Otaviano Canuto et Michael Jelenic (2012) soulignent également l’importance que revêt pour la croissance de la productivité l’accès aux différents types d’infrastructures, en particulier les réseaux de communication à haut débit. Le développement des infrastructures d’informations et de communication permet d’attirer davantage de travailleurs qualifiés dans le secteur de la conception, améliore la productivité et les salaires dans ce secteur, mais aussi accroît la capacité du pays à innover. Elles facilitent en effet la circulation à moindre coûts des connaissances d’un pays à l’autre et en leur sein. En outre, elles réduisent les coûts de transactions du commerce international et de l’investissement étranger.

Les pays émergents, en premier lieu la Chine, ne sont pas condamnés à voir leur croissance décélérer. Echapper à la trappe au revenu intermédiaire leur demande toutefois de faire de l’innovation le principal moteur pour la croissance de la productivité en lieu et place de l’imitation. Les autorités publiques pourraient faciliter ce déplacement vers la frontière technologique à travers une multitude de mesures, notamment le déploiement d’infrastructures de pointe ; mais surtout, cette réorientation du modèle de croissance exige des politiques d’éducation plus ingénieuses pour générer le stock nécessaire de capital humain.

 

Références Martin ANOTA

AGÉNOR, Pierre-Richard, & Otaviano CANUTO (2012), « Middle-Income Growth Traps », World Bank policy research working paper, n° 6210.

AGÉNOR, Pierre-Richard, Otaviano CANUTO & Michael JELENIC (2012), « Avoiding middle-income growth traps », VoxEU.org, 21 December. Traduction disponible en ligne.

EICHENGREEN, Barry, Donghyun PARK, and Kwanho SHIN (2011), « When fast growing economies slow down: International evidence and implications for China », NBER working paper, n° 16919, mars.

EICHENGREEN, Barry, Donghyun PARK, and Kwanho SHIN (2013a), « Growth slowdowns redux: New evidence on the middle-income trap », NBER working paper, n° 18673, janvier.

EICHENGREEN, Barry, Donghyun PARK, and Kwanho SHIN (2013b), « Growth slowdowns redux: Avoiding the middle-income trap », in VoxEU.org, 11 janvier.

HAUSMANN, Ricardo, Lant PRITCHETT & Dani RODRIK (2005), « Growth accelerations », in Journal of Economic Growth, Springer, vol. 10, n° 4, décembre.

Repost 0

Présentation

  • : D'un champ l'autre
  • D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher